Un grupo de trabajo del organismo de control de la privacidad de la Unión Europea afirmó que los recientes esfuerzos de OpenAI para mitigar el riesgo de que su famoso chatbot produzca datos falsos no son suficientes para garantizar el cumplimiento de las normas de la UE sobre datos.

"Aunque las medidas adoptadas para cumplir con el principio de transparencia son beneficiosas para evitar interpretaciones erróneas de la salida de ChatGPT, no son suficientes para cumplir con el principio de exactitud de los datos", dijo el grupo de trabajo en un informe publicado en su página web el viernes.

Las investigaciones conjuntas llevadas a cabo por los organismos nacionales de control de la privacidad de la UE siguen en curso, según el informe, que añade que, por tanto, aún no es posible ofrecer una descripción completa de los resultados. (Reportaje de Tassilo Hummel; Edición de Benoit Van Overstraeten)