Cofundador de OpenAI quería construir un búnker para protegerse antes de hacer esto

Tales comentarios se habrían producido en verano de 2023 durante una reunión entre Sutskever y un grupo de investigadores de OpenAI.

El cofundador de OpenAI, Ilya Sutskever, supuestamente propuso construir un búnker que pudiera proteger a los mejores investigadores de la empresa como requisito previo al lanzamiento de una nueva forma de inteligencia artificial, conocida como inteligencia artificial general (AGI), capaz de superar las capacidades cognitivas de los seres humanos, recoge The Atlantic, citando un libro de la periodista estadounidense Karen Hao. 

Según la revista, tales comentarios se habrían producido en verano de 2023 durante una reunión entre Sutskever y un grupo de investigadores de OpenAI, cuando, hablando de la seguridad de la inteligencia artificial (IA), presuntamente indicó que todos ellos deberían estar dentro de un búnker como medida de protección.

Al ser preguntado de qué se trataba, habría respondido que "definitivamente" deberán construir un búnker antes de lanzar una AGI, tecnología poderosa, pero todavía hipotética, que se convertiría en un objeto de deseo para todos los gobiernos del mundo, precisa el medio. "Por supuesto, la decisión de entrar o no al búnker será opcional", habría dicho Sutskever, subrayando que todos los científicos clave que trabajan en esta invención deberían estar protegidos en caso de una situación de emergencia.

Otras fuentes de la revista confirmaron que Sutskever mencionaba dicho búnker en varias ocasiones. "Hay un grupo de personas –Ilya es una de ellas– que creen que construir la inteligencia artificial general provocará un éxtasis", sostuvo un investigador. 

Según informantes, Sutskever, considerado el "cerebro detrás de los grandes modelos lingüísticos" que ayudaron a crear ChatGPT, también empezó a preocuparse de que OpenAI pudiera siquiera mantener sus avances técnicos para alcanzar la AGI o asumir esa responsabilidad con Sam Altman a la cabeza.