La creación de sistemas de inteligencia artificial superinteligentes —cuyas capacidades excedan incluso las de la inteligencia artificial general (AGI, por sus siglas en inglés)— es solo cuestión de tiempo y podría presentar "un riesgo existencial" para la humanidad, que necesita actuar para mitigar los futuros desafíos, advirtieron este lunes los cofundadores de OpenAI.
"Tal y como vemos el panorama ahora, es concebible que en los próximos diez años los sistemas de IA superen el nivel de los expertos en la mayoría de los ámbitos y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad", escribieron en el blog de la empresa Sam Altman, Greg Brockman e Ilyá Sutskever.
Los altos directivos de OpenAI, que creó el revolucionario chatbot ChatGPT, agregaron que "la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado" y, además de ofrecernos un futuro mucho más próspero, tiene también un potencial inmensurablemente destructivo. "La energía nuclear comúnmente se utiliza como un ejemplo histórico de una tecnología con esta propiedad, la biología sintética es otro ejemplo", señalaron.
"Los sistemas que nos generan preocupación tendrán la potencia más allá de cualquier tecnología creada hasta ahora", indicaron, aseverando que, en su opinión, detener la creación de la superinteligencia sería "arriesgado y difícil", porque ya es una parte intrínseca del desarrollo tecnológico en curso, y "pararlo requeriría algo así como un régimen de vigilancia global, y ni siquiera hay garantías de que esto funcione".
Una de las propuestas de los cofundadores de OpenAI es coordinar los esfuerzos entre los principales desarrolladores de inteligencia artificial en un intento de garantizar la seguridad de las nuevas tecnologías, sobre todo cuando se trata de capacidades que igualen o excedan a las del cerebro humano. También plantean crear un ente regulador internacional para dicha industria, algo similar al Organismo Internacional de Energía Atómica (OIEA), que ayude a reducir el riesgo existencial para la humanidad.
La última sugerencia hace constancia de la necesidad de obtener la "capacidad técnica para hacer que la superinteligencia sea segura". Sin embargo, esto todavía es "una cuestión de investigación abierta", a la que el propio equipo de OpenAI está dedicando muchos esfuerzos, reconocieron los autores de la publicación.