25 feb (Reuters) - Google, propiedad del grupo estadounidense Alphabet, cambiará antes de julio los procedimientos para revisar el trabajo de sus científicos, según la grabación de una reunión que ha podido escuchar Reuters, en un esfuerzo de la empresa por sofocar un revuelo interno sobre la integridad de su investigación en inteligencia artificial (IA).

En una reunión de personal celebrada el pasado viernes, los ejecutivos de Google Research afirmaron estar tratando de recuperar la confianza después de que la empresa despidiera a dos mujeres reconocidas en el sector y rechazara su trabajo, según una grabación de una hora de duración, cuyo contenido ha sido confirmado por dos fuentes.

Los equipos ya están poniendo a prueba un cuestionario que evaluará el riesgo de cada proyecto y ayudará a los científicos a superar el proceso de revisión, explicó en la reunión la directora de operaciones de la unidad de investigación, Maggie Johnson. Este cambio inicial se aplicará a finales del segundo trimestre, y la mayoría de los trabajos no exigirán una revisión adicional, añadió.

Reuters informó en diciembre que Google había introducido una verificación de "temas delicados" para evaluar los estudios respecto a decenas de temas, como China o la parcialidad de sus servicios. Los revisores internos habían exigido que se modificaran al menos tres artículos sobre IA para evitar que la tecnología de Google se viera afectada, informó Reuters.

Según la grabación, Jeff Dean, vicepresidente sénior de Google que supervisa la división, dijo el viernes que la revisión de "temas sensibles" "es y era confusa" y que había encargado a un director de investigación sénior, Zoubin Ghahramani, que aclarara las normas.

Google declinó hacer comentarios sobre la reunión del viernes.

Un correo electrónico interno con fecha del 8 de febrero consultado por Reuters ofreció nuevos detalles sobre las inquietudes de los investigadores de Google, al mostrar exactamente cómo el departamento legal de la empresa había modificado uno de los tres documentos de IA, llamado "Extracción de datos de entrenamiento de grandes modelos de lenguaje."

"Seamos claros", decía el correo electrónico de aproximadamente 1.200 palabras. "Cuando nosotros, como académicos, escribimos que tenemos una 'preocupación' o encontramos algo 'preocupante' y un abogado de Google nos exige que lo cambiemos para que suene mejor, esto es en gran medida la intervención del Gran Hermano".

Las modificaciones exigidas, según el correo electrónico, incluían cambios de "negativo a neutro", como cambiar la palabra "preocupaciones" por "consideraciones" y "peligros" por "riesgos". Los abogados también habían pedido que se eliminaran las referencias a la tecnología de Google, la conclusión de los autores según la que la IA habría filtrado contenidos protegidos por derechos de autor y las palabras "violación" y "sensible".

En respuesta a las preguntas sobre el correo electrónico, Google negó que los abogados estuvieran tratando de controlar el tono del documento.

La semana pasada, Google nombró a Marian Croak, pionera de la tecnología de audio en Internet y una de las pocas vicepresidentas negras de Google, para que consolide y dirija 10 equipos que examinan cuestiones como los prejuicios raciales en el uso de algoritmos y la tecnología para personas discapacitadas.

Croak dijo en la reunión del viernes que se necesitaría tiempo para abordar la inquietud existente entre los investigadores de ética de la IA y mitigar el daño a la marca de Google.

(Información de Paresh Dave y Jeffrey Dastin; editado por Jonathan Weber y Lisa Shumaker; traducido por Flora Gómez en la redacción de Gdansk)