El NCMEC dijo a Reuters que la cifra reflejaba un problema incipiente que se espera que crezca a medida que avance la tecnología de IA.

En los últimos meses, expertos en seguridad infantil e investigadores han dado la voz de alarma sobre el riesgo de que la tecnología de IA generativa, que puede crear texto e imágenes en respuesta a indicaciones, pueda exacerbar la explotación en línea.

El NCMEC aún no ha publicado el número total de informes de contenido de abuso infantil de todas las fuentes que recibió en 2023, pero en 2022 recibió informes de unos 88,3 millones de archivos.

"Estamos recibiendo informes de las propias empresas de AI generativa, de plataformas (en línea) y de miembros del público. Está ocurriendo absolutamente", afirmó John Shehan, vicepresidente senior del NCMEC, que actúa como centro nacional de intercambio de información para denunciar contenidos de abuso infantil a las fuerzas de seguridad.

Los directores ejecutivos de Meta Platforms, X, TikTok, Snap y Discord testificaron el miércoles en una audiencia del Senado sobre la seguridad infantil en línea, en la que los legisladores interrogaron a las empresas de medios sociales y mensajería sobre sus esfuerzos para proteger a los niños de los depredadores en línea.

Los investigadores del Observatorio de Internet de Stanford afirmaron en un informe en junio que la IA generativa podría ser utilizada por los abusadores para dañar repetidamente a niños reales mediante la creación de nuevas imágenes que coincidan con el parecido de un niño.

El contenido marcado como generado por IA es cada vez "más foto realista", lo que dificulta determinar si la víctima es una persona real, dijo Fallon McNulty, director de la CyberTipline del NCMEC, que recibe denuncias de explotación infantil en línea.

OpenAI, creadora del popular ChatGPT, ha establecido un proceso para enviar las denuncias al NCMEC, y la organización está en conversaciones con otras empresas de IA generativa, dijo McNulty.