Meta Platforms comenzará a detectar y etiquetar imágenes generadas por los servicios de inteligencia artificial de otras empresas en los próximos meses, utilizando un conjunto de marcadores invisibles incorporados a los archivos, según declaró el martes su máximo responsable político.

Meta aplicará las etiquetas a cualquier contenido que lleve los marcadores y que se publique en sus servicios de Facebook, Instagram y Threads, en un esfuerzo por señalar a los usuarios que las imágenes -que en muchos casos se parecen a fotos reales- son en realidad creaciones digitales, escribió el presidente de asuntos globales de la empresa, Nick Clegg, en una entrada de blog.

La empresa ya etiqueta cualquier contenido generado mediante sus propias herramientas de IA.

Una vez que el nuevo sistema esté en funcionamiento, Meta hará lo mismo con las imágenes creadas en servicios gestionados por OpenAI, Microsoft , Adobe, Midjourney, Shutterstock y Google de Alphabet, dijo Clegg.

El anuncio ofrece un primer vistazo a un sistema emergente de normas que las empresas tecnológicas están desarrollando para mitigar los daños potenciales asociados a las tecnologías de IA generativa, que pueden escupir contenidos falsos pero de apariencia realista en respuesta a simples indicaciones.

El enfoque se basa en una plantilla establecida durante la última década por algunas de las mismas empresas para coordinar la retirada de contenidos prohibidos en todas las plataformas, incluidas las representaciones de violencia masiva y explotación infantil.

En una entrevista, Clegg declaró a Reuters que confiaba en que las empresas pudieran etiquetar de forma fiable las imágenes generadas por IA en este momento, pero afirmó que las herramientas para marcar los contenidos de audio y vídeo eran más complicadas y aún estaban en fase de desarrollo.

"Aunque la tecnología aún no está totalmente madura, sobre todo cuando se trata de audio y vídeo, la esperanza es que podamos crear una sensación de impulso e incentivo para que el resto de la industria nos siga", dijo Clegg.

Mientras tanto, añadió, Meta empezará a exigir a la gente que etiquete sus propios contenidos de audio y vídeo alterados y aplicará sanciones si no lo hacen. Clegg no describió las penalizaciones.

Añadió que actualmente no existe ningún mecanismo viable para etiquetar el texto escrito generado por herramientas de IA como ChatGPT.

"Ese barco ha zarpado", dijo Clegg.

Un portavoz de Meta declinó decir si la empresa aplicaría etiquetas a los contenidos generados por IA compartidos en su servicio de mensajería encriptada WhatsApp.

La junta de supervisión independiente de Meta reprendió el lunes la política de la empresa sobre los vídeos manipulados de forma engañosa, afirmando que era demasiado estrecha y que el contenido debía etiquetarse en lugar de eliminarse.

Clegg dijo estar de acuerdo en líneas generales con esas críticas.

La junta tenía razón, dijo, en que la política actual de Meta "simplemente no es adecuada para su propósito en un entorno en el que va a haber mucho más contenido sintético y contenido híbrido que antes".

Citó la nueva asociación de etiquetado como prueba de que Meta ya se estaba moviendo en la dirección que la junta había propuesto. (Reportaje de Katie Paul en Nueva York; Edición de Matthew Lewis y Jamie Freed)