Los chips de Nvidia han ayudado a empresas como Microsoft Corp a añadir funciones de chat similares a las humanas a motores de búsqueda como Bing. Pero los chatbots aún pueden ser impredecibles y decir cosas que sus creadores desearían que no dijeran.

En febrero, Microsoft limitó a los usuarios a cinco preguntas por sesión con su motor de búsqueda Bing después de que el New York Times informara de que el sistema daba respuestas inquietantes durante conversaciones largas.

Las herramientas de software de Nvidia, proporcionadas de forma gratuita, están diseñadas para ayudar a las empresas a protegerse de las respuestas no deseadas de los chatbots. Algunos de esos usos son sencillos: es posible que el fabricante de un chatbot de atención al cliente no quiera que el sistema mencione productos de sus competidores.

Pero las herramientas de Nvidia también están diseñadas para ayudar a los creadores de sistemas de IA a poner en marcha importantes medidas de seguridad, como garantizar que los chatbots no respondan con información potencialmente peligrosa, como la forma de crear armas o enviar a los usuarios a enlaces desconocidos que podrían contener virus informáticos.

Los legisladores estadounidenses han pedido que se regulen los sistemas de IA a medida que aplicaciones como ChatGPT han ido ganando popularidad. Existen pocas normas legales o estándares industriales sobre cómo hacer que los sistemas de IA sean seguros.

Jonathan Cohen, vicepresidente de investigación aplicada de Nvidia, dijo que la empresa pretende proporcionar herramientas para introducir esas normas en el código de software si llegan, ya sea a través del consenso de la industria o de la regulación.

"Creo que es difícil hablar de estándares si no se tiene una forma de implementarlos", afirmó. "Si surgen normas, entonces habrá un buen lugar para ponerlas".