El principal demócrata del Senado de EE.UU. reunirá el miércoles en el Capitolio a líderes tecnológicos estadounidenses como Elon Musk, consejero delegado de Tesla, Mark Zuckerberg, consejero delegado de Meta Platforms, y Sundar Pichai, consejero delegado de Alphabet, para celebrar un foro a puerta cerrada sobre cómo debe establecer el Congreso las salvaguardas de la inteligencia artificial.

"Que el Congreso legisle sobre inteligencia artificial es que nos involucremos en uno de los temas más complejos e importantes a los que se ha enfrentado el Congreso", dijo el martes el líder de la mayoría en el Senado, Chuck Schumer.

Los legisladores están lidiando con la forma de mitigar los peligros de esta tecnología emergente, que ha experimentado un auge en la inversión y la popularidad entre los consumidores tras el lanzamiento del ChatGPT de OpenAI.

Los legisladores quieren salvaguardas contra las potencialmente peligrosas deepfakes, las interferencias electorales y los ataques a infraestructuras críticas.

Entre los asistentes previstos se encuentran el director general de OpenAI, Sam Altman, el director general de Nvidia, Jensen Huang, el director general de Microsoft, Satya Nadella, el director general de IBM, Arvind Krishna, el ex director general de Microsoft, Bill Gates, la presidenta de AFL-CIO, Liz Shuler, y los senadores Mike Rounds, Martin Heinrich y Todd Young.

Schumer, que habló de IA con Musk en abril, quiere que los asistentes hablen "sobre por qué el Congreso debe actuar, qué preguntas hacer y cómo construir un consenso para una innovación segura". Las sesiones comienzan a las 10 a.m. ET y durarán hasta las 5 p.m. ET.

En marzo, Musk y un grupo de expertos y ejecutivos en IA pidieron una pausa de seis meses en el desarrollo de sistemas más potentes que el GPT-4 de OpenAI, citando riesgos potenciales para la sociedad.

Esta semana, el Congreso celebra tres audiencias distintas sobre la IA. El presidente de Microsoft, Brad Smith, dijo el martes ante un subcomité judicial del Senado que el Congreso debería "exigir frenos de seguridad para la IA que controle o gestione infraestructuras críticas".

Smith comparó las salvaguardas de la IA con la exigencia de disyuntores en los edificios, autobuses escolares con frenos de emergencia y aviones con sistemas para evitar colisiones.

Los organismos reguladores de todo el mundo se han apresurado a elaborar normas que regulen el uso de la IA generativa, que puede crear textos y generar imágenes cuyos orígenes artificiales son prácticamente indetectables.

Adobe, IBM, Nvidia y otras cinco empresas afirmaron el martes que habían firmado los compromisos voluntarios sobre IA del presidente Joe Biden, que exigen medidas como la colocación de marcas de agua en los contenidos generados por IA.

Los compromisos anunciados en julio pretendían garantizar que el poder de la IA no se utilizara con fines destructivos. Google, OpenAI y Microsoft firmaron en julio. La Casa Blanca también ha estado trabajando en una orden ejecutiva sobre IA. (Reportaje de David Shepardson; Edición de Lincoln Feast.)