La Junta de Supervisión de Meta Platforms está revisando el manejo que hizo la compañía de dos imágenes sexualmente explícitas de celebridades femeninas generadas por IA que circularon en sus servicios de Facebook e Instagram, dijo la junta el martes.

La junta, que está financiada por el gigante de los medios sociales pero opera independientemente de él, utilizará los dos ejemplos para evaluar la eficacia general de las políticas de Meta y las prácticas de aplicación en torno a las falsificaciones pornográficas creadas mediante inteligencia artificial, dijo en una entrada de blog.

Proporcionó descripciones de las imágenes en cuestión pero no nombró a las mujeres famosas representadas en ellas para "evitar más daños", dijo un portavoz de la junta.

Los avances en la tecnología de IA han hecho que las imágenes, clips de audio y vídeos fabricados sean prácticamente indistinguibles de los contenidos reales creados por humanos, lo que ha dado lugar a una avalancha de falsificaciones sexuales que proliferan en Internet, en su mayoría representando a mujeres y niñas.

En un caso especialmente sonado a principios de este año, la plataforma de medios sociales X, propiedad de Elon Musk, bloqueó brevemente a los usuarios la búsqueda de todas las imágenes de la estrella del pop estadounidense Taylor Swift tras luchar por controlar la difusión de imágenes explícitas falsas de ella.

Algunos ejecutivos del sector han pedido una legislación que penalice la creación de "falsificaciones profundas" perjudiciales y exija a las empresas tecnológicas que impidan esos usos de sus productos.

Según las descripciones de los casos realizadas por la Junta de Supervisión, uno de ellos se refiere a una imagen generada por IA de una mujer desnuda parecida a una figura pública de la India, publicada por una cuenta de Instagram que sólo comparte imágenes generadas por IA de mujeres indias.

La otra imagen, según la junta, apareció en un grupo de Facebook para compartir creaciones de IA y presentaba una representación generada por IA de una mujer desnuda parecida a "una figura pública estadounidense" con un hombre manoseándole el pecho.

Meta retiró la imagen en la que aparecía la mujer estadounidense por violar su política de intimidación y acoso, que prohíbe "photoshops o dibujos sexualizados despectivos", pero inicialmente dejó colgada la que presentaba a la mujer india y sólo dio marcha atrás después de que el consejo la seleccionara para su revisión.

En un post separado, Meta reconoció los casos y se comprometió a aplicar las decisiones de la junta. (Reportaje de Katie Paul; Edición de Stephen Coates)