LONDRES/WASHINGTON, 11 de agosto - Muchos trabajadores de Estados Unidos están recurriendo a ChatGPT para que les ayude con tareas básicas, según una encuesta de Reuters/Ipsos, a pesar de los temores que han llevado a empleadores como Microsoft y Google a frenar su uso.

Empresas de todo el mundo están estudiando la mejor forma de utilizar ChatGPT, un programa de chatbot que utiliza IA generativa para mantener conversaciones con los usuarios y responder a innumerables preguntas. Sin embargo, las empresas y firmas de seguridad han expresado su preocupación por que pueda dar lugar a filtraciones de propiedad intelectual y estrategias.

Entre los ejemplos anecdóticos de personas que utilizan ChatGPT para ayudarles en su trabajo diario se incluyen la redacción de correos electrónicos, el resumen de documentos y la realización de investigaciones preliminares.

Alrededor del 28% de los encuestados en el sondeo en línea sobre inteligencia artificial (IA) realizado entre el 11 y el 17 de julio afirmaron utilizar ChatGPT con regularidad en el trabajo, mientras que sólo el 22% dijo que sus empleadores permitían explícitamente este tipo de herramientas externas.

La encuesta de Reuters/Ipsos a 2.625 adultos de todo Estados Unidos tenía un intervalo de credibilidad, una medida de precisión, de unos 2 puntos porcentuales.

Un 10% de los encuestados afirmó que sus jefes prohibían explícitamente las herramientas externas de IA, mientras que alrededor del 25% no sabía si su empresa permitía el uso de esta tecnología.

ChatGPT se convirtió en la aplicación de más rápido crecimiento de la historia tras su lanzamiento en noviembre. Ha creado tanto expectación como alarma, lo que ha llevado a su desarrollador, OpenAI, a entrar en conflicto con los reguladores, sobre todo en Europa, donde la recopilación masiva de datos por parte de la empresa ha suscitado las críticas de los organismos de control de la privacidad.

Los revisores humanos de otras empresas pueden leer cualquiera de los chats generados, y los investigadores descubrieron que una IA de inteligencia artificial similar podría reproducir los datos que absorbió durante el entrenamiento, lo que supone un riesgo potencial para la información sujeta a derechos de propiedad.

"La gente no entiende cómo se utilizan los datos cuando utiliza servicios de IA generativa", afirma Ben King, vicepresidente de confianza del cliente de la empresa de seguridad corporativa Okta.

"Para las empresas esto es crítico, porque los usuarios no tienen un contrato con muchas IA -porque son un servicio gratuito-, así que las corporaciones no habrán pasado el riesgo por su proceso habitual de evaluación", dijo King.

OpenAI declinó hacer comentarios cuando se le preguntó por las implicaciones de que empleados individuales utilizaran ChatGPT, pero destacó una reciente entrada en el blog de la empresa en la que se aseguraba a los socios corporativos que sus datos no se utilizarían para entrenar más al chatbot, a menos que dieran su permiso explícito.

Cuando los usuarios utilizan el Bard de Google, éste recopila datos como el texto, la ubicación y otra información de uso. La empresa permite a los usuarios borrar la actividad pasada de sus cuentas y solicitar que se elimine el contenido introducido en la IA. Google, propiedad de Alphabet, declinó hacer comentarios cuando se le pidieron más detalles.

Microsoft no respondió inmediatamente a una solicitud de comentarios.

'TAREAS INOFENSIVAS

Un empleado estadounidense de Tinder dijo que los trabajadores de la aplicación de citas utilizaban ChatGPT para "tareas inofensivas", como escribir correos electrónicos, a pesar de que la empresa no lo permite oficialmente.

"Son correos electrónicos normales. Muy poco trascendentales, como hacer divertidas invitaciones de calendario para eventos de equipo, correos de despedida cuando alguien se va... También lo utilizamos para la investigación general", dijo el empleado, que declinó ser nombrado porque no estaba autorizado a hablar con los periodistas.

El empleado dijo que Tinder tiene una "regla de no ChatGPT", pero que los empleados todavía lo utilizan de una "manera genérica que no revela nada acerca de que estamos en Tinder".

Reuters no pudo confirmar de forma independiente cómo utilizaban ChatGPT los empleados de Tinder. Tinder dijo que proporcionaba "orientación regular a los empleados sobre las mejores prácticas de seguridad y datos".

En mayo, Samsung Electronics prohibió a su personal en todo el mundo el uso de ChatGPT y herramientas de IA similares tras descubrir que un empleado había subido código sensible a la plataforma.

"Estamos revisando medidas para crear un entorno seguro para el uso de IA generativa que mejore la productividad y la eficiencia de los empleados", dijo Samsung en un comunicado el 3 de agosto.

"Sin embargo, hasta que estas medidas estén listas, estamos restringiendo temporalmente el uso de la IA generativa a través de los dispositivos de la empresa".

Reuters informó en junio de que Alphabet había advertido a sus empleados sobre cómo utilizar los chatbots, incluido el Bard de Google, al mismo tiempo que comercializa el programa a nivel mundial.

Google dijo que, aunque Bard puede hacer sugerencias de código no deseadas, ayuda a los programadores. También dijo que pretendía ser transparente sobre las limitaciones de su tecnología.

PROHIBICIONES DE LA MANTA

Algunas empresas dijeron a Reuters que están adoptando ChatGPT y plataformas similares, sin perder de vista la seguridad.

"Hemos empezado a probar y aprender sobre cómo la IA puede mejorar la eficacia operativa", dijo un portavoz de Coca-Cola en Atlanta, Georgia, y añadió que los datos permanecen dentro de su cortafuegos.

"Internamente, hemos lanzado recientemente nuestra versión empresarial de Coca-Cola ChatGPT para la productividad", dijo el portavoz, añadiendo que Coca-Cola planea utilizar la IA para mejorar la eficacia y la productividad de sus equipos.

Por su parte, la directora financiera de Tate & Lyle, Dawn Allen, declaró a Reuters que el fabricante mundial de ingredientes estaba probando ChatGPT, tras haber "encontrado la manera de utilizarlo de forma segura".

"Tenemos diferentes equipos decidiendo cómo quieren utilizarlo a través de una serie de experimentos. ¿Lo utilizamos en las relaciones con los inversores? ¿Deberíamos utilizarlo en la gestión del conocimiento? ¿Cómo podemos utilizarla para realizar tareas de forma más eficaz?".

Algunos empleados afirman que no pueden acceder en absoluto a la plataforma en los ordenadores de la empresa.

"Está completamente prohibida en la red de la oficina, como si no funcionara", dijo un empleado de Procter & Gamble, que deseaba permanecer en el anonimato porque no estaba autorizado a hablar con la prensa.

P&G declinó hacer comentarios. Reuters no pudo confirmar de forma independiente si los empleados de P&G no podían utilizar ChatGPT.

Paul Lewis, director de seguridad de la información de la firma de ciberseguridad Nominet, dijo que las empresas hacían bien en desconfiar.

"Todo el mundo se beneficia de esa mayor capacidad, pero la información no es completamente segura y puede ser manipulada", dijo, citando "indicaciones maliciosas" que pueden utilizarse para conseguir que los chatbots de IA revelen información.

"Todavía no está justificada una prohibición general, pero debemos andarnos con cuidado", dijo Lewis. (Reportaje de Richa Naidu, Martin Coulter y Jason Lange; Edición de Alexander Smith)