En una queja presentada el jueves ante la agencia, cuyo resumen se encuentra en el sitio web del grupo, el Centro de Inteligencia Artificial y Política Digital calificó a GPT-4 de "tendencioso, engañoso y un riesgo para la privacidad y la seguridad pública".

OpenAI, con sede en California y respaldada por Microsoft Corp., presentó a principios de marzo la cuarta iteración de su programa de IA GPT (Generative Pre-trained Transformer), que ha entusiasmado a los usuarios al entablar con ellos conversaciones similares a las humanas, componer canciones y resumir documentos extensos.

La queja formal ante la FTC sigue a una carta abierta enviada a Elon Musk, expertos en inteligencia artificial y ejecutivos de la industria en la que se pedía una pausa de seis meses en el desarrollo de sistemas más potentes que el recién lanzado GPT-4 de OpenAI, citando riesgos potenciales para la sociedad.

En su queja, el grupo afirmaba que el ChatGPT-4 de OpenAI no cumple la norma de la FTC de ser "transparente, explicable, justo y empíricamente sólido a la vez que fomenta la responsabilidad".

"La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales desleales y engañosas. Creemos que la FTC debería examinar de cerca a OpenAI y GPT-4", afirmó Marc Rotenberg, presidente del CAIDP y veterano defensor de la privacidad, en un comunicado publicado en la página web.

Rotenberg fue uno de los más de 1.000 firmantes de la carta en la que se instaba a hacer una pausa en los experimentos con IA.

El grupo instó a la FTC a "abrir una investigación sobre OpenAI, prohibir nuevas liberaciones comerciales de GPT-4 y garantizar el establecimiento de los guardarraíles necesarios para proteger a los consumidores, las empresas y el mercado comercial".