Un vídeo de AI muestra a un Narendra Modi extasiado con una chaqueta y unos pantalones a la moda, bailando en un escenario al ritmo de una canción de Bollywood mientras la multitud le aclama. El primer ministro indio volvió a compartir el vídeo en X, diciendo que "tanta creatividad en plena temporada electoral es realmente una delicia".

Otro vídeo, con la misma puesta en escena, muestra a la rival de Modi, Mamata Banerjee, bailando con un atuendo similar al sari, pero la partitura de fondo son partes de su discurso criticando a los que abandonaron su partido para unirse al de Modi. La policía estatal ha abierto una investigación diciendo que el vídeo puede "afectar a la ley y el orden".

Las diferentes reacciones a los vídeos creados con herramientas de inteligencia artificial (IA) ponen de relieve cómo el uso y el abuso de la tecnología están aumentando y creando preocupaciones a los reguladores y a los funcionarios de seguridad mientras la nación más poblada del mundo celebra unas elecciones generales gigantescas.

Los vídeos de IA fáciles de hacer, que contienen sombras y movimientos de manos casi perfectos, pueden a veces engañar incluso a personas con conocimientos digitales. Pero los riesgos son mayores en un país en el que muchos de sus 1.400 millones de habitantes tienen problemas con la tecnología y donde los contenidos manipulados pueden avivar fácilmente las tensiones sectarias, especialmente en época de elecciones.

Según una encuesta del Foro Económico Mundial publicada en enero, el riesgo que supone la desinformación para la India se considera mayor que el de las enfermedades infecciosas o la actividad económica ilícita en los próximos dos años.

"La India ya corre un gran riesgo de desinformación; con la IA de por medio, puede propagarse a una velocidad 100 veces mayor", afirmó el consultor Sagar Vishnoi, afincado en Nueva Delhi, que está asesorando a algunos partidos políticos sobre el uso de la IA en las elecciones indias.

"Las personas mayores, que no suelen ser un grupo experto en tecnología, caen cada vez más en las falsas narrativas ayudadas por los vídeos de IA. Esto podría tener graves consecuencias como desencadenar el odio contra una comunidad, casta o religión".

Las elecciones nacionales de 2024 - que se celebrarán a lo largo de seis semanas y terminarán el 1 de junio - son las primeras en las que se está desplegando la IA. Los primeros ejemplos fueron inocentes y se limitaron a algunos políticos que utilizaron la tecnología para crear vídeos y audio para personalizar sus campañas.

Pero importantes casos de uso indebido saltaron a los titulares en abril, incluyendo deepfakes de actores de Bollywood criticando a Modi y clips falsos que implicaban a dos de los principales ayudantes de Modi y que condujeron a la detención de nueve personas.

DIFÍCIL DE CONTRARRESTAR

La Comisión Electoral de la India advirtió la semana pasada a los partidos políticos contra el uso de la IA para difundir desinformación y compartió siete disposiciones de las leyes sobre tecnologías de la información y otras leyes que conllevan penas de cárcel de hasta tres años por delitos como falsificación, promoción de rumores y enemistad.

Un alto funcionario de seguridad nacional de Nueva Delhi afirmó que las autoridades están preocupadas por la posibilidad de que las noticias falsas provoquen disturbios. La fácil disponibilidad de herramientas de IA hace posible fabricar esas noticias falsas, especialmente durante las elecciones, y es difícil contrarrestarlas, dijo el funcionario.

"No tenemos una capacidad (de vigilancia adecuada)... el entorno de la IA, en constante evolución, es difícil de seguir", dijo el funcionario.

Un alto funcionario electoral dijo: "No somos capaces de vigilar completamente los medios sociales, olvídese de controlar el contenido".

No quisieron ser identificados porque no estaban autorizados a hablar con los medios de comunicación.

La IA y los deepfakes se utilizan cada vez más en las elecciones de otras partes del mundo, como en Estados Unidos, Pakistán e Indonesia. La última difusión de los vídeos en India muestra los retos a los que se enfrentan las autoridades.

Desde hace años, un panel del ministerio indio de TI ordena el bloqueo de contenidos que considera que pueden dañar el orden público, según su propio criterio o tras recibir quejas. Durante estas elecciones, el organismo de control electoral y la policía de todo el país han desplegado a cientos de funcionarios para detectar y procurar la retirada de contenidos problemáticos.

Mientras que la reacción de Modi a su vídeo bailando AI - "Yo también disfruté viéndome bailar" - fue desenfadada, la policía de la ciudad de Calcuta, en el estado de Bengala Occidental, inició una investigación contra el usuario X, SoldierSaffron7, por compartir el vídeo de Banerjee.

El oficial de delitos cibernéticos de Calcuta, Dulal Saha Roy, compartió un aviso mecanografiado en X pidiendo al usuario que borrara el vídeo o "se expondría a una estricta acción penal".

"No voy a borrarlo, pase lo que pase", dijo el usuario a Reuters a través de la mensajería directa de X, declinando compartir su número o nombre real por temor a una acción policial. "No pueden rastrearme (a mí)".

Los funcionarios electorales dijeron a Reuters que las autoridades sólo pueden decir a las plataformas de medios sociales que eliminen el contenido y se quedan en la estacada si las plataformas dicen que las publicaciones no violan sus políticas internas.

VÍDEOS VIGILANTES

Los vídeos de baile de Modi y Banerjee, con 30 millones y 1,1 millones de visitas respectivamente en X, se crearon utilizando un sitio web gratuito, Viggle. El sitio permite que una fotografía y unas pocas indicaciones básicas que se detallan en un tutorial generen en cuestión de minutos vídeos que muestran a la persona de la fotografía bailando o haciendo otros movimientos de la vida real.

El cofundador de Viggle, Hang Chu, y la oficina de Banerjee no respondieron a las preguntas de Reuters.

Aparte de los dos vídeos de IA bailando, otro vídeo de Viggle de 25 segundos que se está difundiendo en Internet muestra a Banerjee apareciendo delante de un hospital en llamas y haciéndolo explotar con un mando a distancia. Se trata de un clip alterado por la IA de una escena de la película de 2008, El caballero oscuro, que muestra al enemigo de Batman, el Joker, sembrando el caos.

El vídeo tiene 420.000 visitas.

La policía de Bengala Occidental cree que viola las leyes indias sobre tecnologías de la información, pero X no ha tomado ninguna medida porque "cree firmemente en la defensa y el respeto de la voz de nuestros usuarios", según un aviso por correo electrónico enviado por X al usuario, que Reuters revisó.

"No pueden hacerme nada. No me tomé eso (el aviso) en serio", dijo el usuario a Reuters a través de la mensajería directa de X.