Ilya Sutskever, cofundador y antiguo científico jefe de OpenAI, habría recaudado USD 1,000 millones para su empresa de inteligencia artificial, con un valor estimado de USD 5,000 millones.

La empresa, Safe Superintelligence Inc. (SSI), anunció la financiación en una actualización de su sitio web el 4 de septiembre. Según SSI, recaudó USD 1,000 millones de NFDG, a16z, Sequoia, DST Global y SV Angel.

Como Cointelegraph informó recientemente, Sutskever y el ingeniero Dan Levy dejaron OpenAI en junio de 2024, menos de un año después de que Sutskever formara el equipo de seguridad «Superalignment» de la firma. Mientras que Sutskever, en ese momento, dijo que se iba para buscar otras oportunidades, otros ex empleados habían insinuado desacuerdos entre el CEO Sam Altman y otros miembros de la firma y su junta. 

Seguridad de la inteligencia artificial

SSI parece ser un competidor directo de la anterior empresa de Sutskever, OpenAI, con una misión ligeramente modificada. El objetivo de SSI, según su página web, es construir un modelo de IA con más inteligencia que los humanos de forma segura. 

Esto puede sonar familiar porque Anthropic, otra empresa fundada por antiguos empleados de OpenAI, también afirma que su misión es construir modelos de IA seguros. De hecho, según el sitio web de OpenAI, también se centra exclusivamente en el desarrollo seguro de la IA en beneficio de la humanidad. 

En lo que SSI diverge, hasta ahora, es en su afirmación de que sólo desarrollará un producto: una superinteligencia segura. 

Superinteligencia

OpenAI y Anthropic ofrecen productos y servicios a empresas y al público en general. Cada una de ellas tiene productos estrella, ChatGPT y Claude, respectivamente, que ofrecen de forma limitada y gratuita a los consumidores, con la opción de suscribirse para obtener acceso adicional. 

Sin embargo, según las propias empresas, ninguno de los dos productos encajaría en ninguna definición de «superinteligencia». Cabe mencionar que «superinteligencia» es un término típicamente atribuido al filósofo Nick Bostrom. En su libro de 2014,

«Superinteligencia: Caminos, peligros, estrategias», Bostrom habla de un sistema de IA con capacidades cognitivas que superan con creces las de los humanos más inteligentes. Predijo, en ese momento, que tal entidad podría llegar tan pronto como «el primer tercio del próximo siglo».

No existe una definición científica o una medida definida para la «superinteligencia». Pero, basándonos en el contexto, cabe suponer que SSI está comprometida con la investigación y el desarrollo hasta que pueda estrenar un modelo de IA que sea demostrablemente más capaz que el humano medio. 

Tanto OpenAI como Anthropic afirmaron inicialmente que su único propósito era construir una IA de nivel humano al servicio de la humanidad. Pero construir los sistemas de IA más potentes del mundo cuesta miles de millones de dólares con los métodos y tecnologías actuales. 

Está por ver si SSI, una empresa con sólo 10 empleados, utiliza sus USD 1,000 millones de financiación para construir la primera superinteligencia del mundo o el próximo competidor de ChatGPT en el campo de los chatbots.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.