Los jueces deben decidir a finales de junio si YouTube, de Alphabet Inc, puede ser demandada por sus recomendaciones de vídeos a los usuarios. Ese caso pone a prueba si una ley estadounidense que protege a las plataformas tecnológicas de la responsabilidad legal por el contenido publicado en línea por sus usuarios también se aplica cuando las empresas utilizan algoritmos para dirigir recomendaciones a los usuarios.

Lo que el tribunal decida sobre estas cuestiones es relevante más allá de las plataformas de medios sociales. Su fallo podría influir en el debate emergente sobre si las empresas que desarrollan chatbots de IA generativa como ChatGPT de OpenAI, una empresa en la que Microsoft Corp es un importante inversor, o Bard de Google de Alphabet deberían estar protegidas de reclamaciones legales como difamación o violación de la privacidad, según expertos en tecnología y derecho.

Ello se debe a que los algoritmos que alimentan las herramientas de IA generativa como ChatGPT y su sucesora GPT-4 funcionan de forma algo similar a los que sugieren vídeos a los usuarios de YouTube, añadieron los expertos.

"El debate es realmente sobre si la organización de la información disponible en línea a través de motores de recomendación es tan importante para dar forma al contenido como para convertirse en responsable", dijo Cameron Kerry, investigador visitante en el centro de estudios Brookings Institution en Washington y experto en IA. "Tiene el mismo tipo de problemas con respecto a un chatbot".

Los representantes de OpenAI y Google no respondieron a las solicitudes de comentarios.

Durante los argumentos en febrero, los jueces del Tribunal Supremo expresaron su incertidumbre sobre si debilitar las protecciones consagradas en la ley, conocida como Sección 230 de la Ley de Decencia en las Comunicaciones de 1996. Aunque el caso no está directamente relacionado con la IA generativa, el juez Neil Gorsuch señaló que las herramientas de IA que generan "poesía" y "polémica" probablemente no gozarían de tales protecciones legales.

El caso es sólo una faceta de una conversación emergente sobre si la inmunidad de la Sección 230 debe aplicarse a los modelos de IA entrenados en trozos de datos existentes en línea pero capaces de producir obras originales.

Las protecciones de la Sección 230 se aplican generalmente a los contenidos de terceros procedentes de usuarios de una plataforma tecnológica y no a la información que una empresa haya ayudado a desarrollar. Los tribunales aún no se han pronunciado sobre si una respuesta de un chatbot de IA estaría cubierta.

CONSECUENCIAS DE SUS PROPIOS ACTOS

El senador demócrata Ron Wyden, que ayudó a redactar esa ley cuando estaba en la Cámara de Representantes, dijo que el escudo de responsabilidad no debería aplicarse a las herramientas de IA generativa porque esas herramientas "crean contenido".

"La Sección 230 trata de proteger a los usuarios y a los sitios por albergar y organizar el discurso de los usuarios. No debería proteger a las empresas de las consecuencias de sus propias acciones y productos", dijo Wyden en una declaración a Reuters.

La industria tecnológica ha presionado para preservar la Sección 230 a pesar de la oposición bipartidista a la inmunidad. Dijeron que herramientas como ChatGPT funcionan como motores de búsqueda, dirigiendo a los usuarios a contenidos existentes en respuesta a una consulta.

"En realidad, la IA no está creando nada. Es tomar un contenido existente y ponerlo de una manera diferente o en un formato diferente", dijo Carl Szabo, vicepresidente y consejero general de NetChoice, un grupo comercial de la industria tecnológica.

Szabo dijo que una Sección 230 debilitada supondría una tarea imposible para los desarrolladores de IA, amenazando con exponerles a una avalancha de litigios que podría ahogar la innovación.

Algunos expertos pronostican que los tribunales podrían adoptar una postura intermedia, examinando el contexto en el que el modelo de IA generó una respuesta potencialmente perjudicial.

En los casos en los que el modelo de IA parezca parafrasear fuentes existentes, el escudo podría seguir aplicándose. Pero los chatbots como ChatGPT son conocidos por crear respuestas ficticias que parecen no tener ninguna conexión con la información encontrada en otros lugares en línea, una situación que, según los expertos, probablemente no estaría protegida.

Hany Farid, tecnólogo y profesor de la Universidad de California en Berkeley, dijo que estira la imaginación argumentar que los desarrolladores de IA deberían ser inmunes a las demandas sobre modelos que ellos "programaron, entrenaron y desplegaron".

"Cuando las empresas son consideradas responsables en litigios civiles por los daños derivados de los productos que fabrican, fabrican productos más seguros", dijo Farid. "Y cuando no se les hace responsables, fabrican productos menos seguros".

El caso que está decidiendo el Tribunal Supremo implica una apelación de la familia de Nohemi González, una estudiante universitaria de 23 años de California que fue abatida mortalmente en 2015 por militantes islamistas en París, contra la desestimación por un tribunal inferior de la demanda de su familia contra YouTube.

La demanda acusaba a Google de proporcionar "apoyo material" al terrorismo y afirmaba que YouTube, a través de los algoritmos de la plataforma de intercambio de vídeos, recomendaba ilegalmente a determinados usuarios vídeos del grupo militante Estado Islámico, que reivindicó la autoría de los atentados de París.