SAN FRANCISCO/NUEVA YORK - Safe Superintelligence (SSI), recién cofundada por el antiguo científico jefe de OpenAI, Ilya Sutskever, ha recaudado 1.000 millones de dólares en efectivo para ayudar a desarrollar sistemas de inteligencia artificial seguros que superen con creces las capacidades humanas, según han declarado a Reuters ejecutivos de la empresa.

SSI, que actualmente cuenta con 10 empleados, planea utilizar los fondos para adquirir potencia de cálculo y contratar a los mejores talentos. Se centrará en crear un pequeño equipo de investigadores e ingenieros de gran confianza repartido entre Palo Alto (California) y Tel Aviv (Israel).

La empresa declinó compartir su valoración, pero fuentes cercanas al asunto dijeron que estaba valorada en 5.000 millones de dólares.La financiación subraya cómo algunos inversores siguen dispuestos a hacer apuestas desmesuradas por talentos excepcionales centrados en la investigación fundacional de la IA. Y ello a pesar de la disminución general del interés por financiar este tipo de empresas, que pueden no ser rentables durante algún tiempo, y que ha provocado que varios fundadores de startups abandonen sus puestos para irse a gigantes tecnológicos.

Entre los inversores se encontraban las principales firmas de capital riesgo Andreessen Horowitz, Sequoia Capital, DST Global y SV Angel. También participó NFDG, una sociedad de inversión dirigida por Nat Friedman y el consejero delegado de SSI, Daniel Gross.

"Para nosotros es importante rodearnos de inversores que comprendan, respeten y apoyen nuestra misión, que es avanzar directamente hacia una superinteligencia segura y, en particular, dedicar un par de años a la I+D de nuestro producto antes de sacarlo al mercado", declaró Gross en una entrevista.

La seguridad de la IA, que se refiere a evitar que la IA cause daños, es un tema candente entre los temores de que una IA deshonesta pueda actuar en contra de los intereses de la humanidad o incluso causar la extinción humana.

Un proyecto de ley de California que pretende imponer normas de seguridad a las empresas ha dividido a la industria. Se oponen a ella empresas como OpenAI y Google, y la apoyan Anthropic y xAI de Elon Musk.

Sutskever, de 37 años, es uno de los tecnólogos más influyentes en IA. Cofundó SSI en junio con Gross, que anteriormente dirigió iniciativas de IA en Apple, y Daniel Levy, antiguo investigador de OpenAI.

Sutskever es jefe científico y Levy es científico principal, mientras que Gross es responsable de la potencia informática y la recaudación de fondos.

NUEVA MONTAÑA

Sutskever dijo que su nueva aventura tenía sentido porque "identificó una montaña un poco diferente de aquello en lo que estaba trabajando".

El año pasado, formó parte de la junta de la matriz sin ánimo de lucro de OpenAI, que votó a favor de destituir al director ejecutivo de OpenAI, Sam Altman, por una "ruptura de las comunicaciones".

A los pocos días, dio marcha atrás en su decisión y se unió a casi todos los empleados de OpenAI para firmar una carta en la que exigían el regreso de Altman y la dimisión de la junta. Pero el giro de los acontecimientos mermó su papel en OpenAI. Fue destituido del consejo y abandonó la empresa en mayo.

Tras la marcha de Sutskever, la empresa desmanteló su equipo de "Superalineación", que trabajaba para garantizar que la IA se mantuviera alineada con los valores humanos a fin de prepararse para el día en que la IA supere a la inteligencia humana.

A diferencia de la estructura corporativa poco ortodoxa de OpenAI, implantada por motivos de seguridad de la IA pero que hizo posible la destitución de Altman, SSI tiene una estructura regular con ánimo de lucro.

En la actualidad, SSI está muy centrada en contratar a personas que encajen en su cultura.

Gross dijo que pasan horas investigando si los candidatos tienen "buen carácter", y que buscan personas con capacidades extraordinarias en lugar de hacer demasiado hincapié en las credenciales y la experiencia en el campo.

"Una cosa que nos entusiasma es cuando encuentras gente interesada en el trabajo, que no está interesada en la escena, en el bombo", añadió.

SSI afirma que planea asociarse con proveedores de nubes y empresas de chips para financiar sus necesidades de potencia informática, pero aún no ha decidido con qué firmas trabajará. Las startups de IA suelen trabajar con empresas como Microsoft y Nvidia para cubrir sus necesidades de infraestructura.

Sutskever fue uno de los primeros defensores del escalado, una hipótesis según la cual los modelos de IA mejorarían su rendimiento con grandes cantidades de potencia de cálculo. La idea y su ejecución desencadenaron una oleada de inversiones en IA en chips, centros de datos y energía, sentando las bases para avances en IA generativa como ChatGPT.

Sutskever dijo que abordará el escalado de una forma diferente a la de su antiguo empleador, sin compartir detalles.

"Todo el mundo se limita a decir hipótesis de escalado. Todo el mundo se olvida de preguntar, ¿qué estamos escalando?", dijo.

"Algunas personas pueden trabajar muchas horas y seguirán el mismo camino más rápido. No es tanto nuestro estilo. Pero si haces algo diferente, entonces es posible que hagas algo especial".