El multimillonario Elon Musk advirtió este lunes sobre el impacto negativo que la inteligencia artificial (IA) podría tener en la humanidad y anunció sus planes para desarrollar una alternativa a ChatGPT.
"La IA es más peligrosa que, digamos, el diseño o el mantenimiento de la producción de aeronaves mal administrados o la mala producción de automóviles", ya que tiene el "potencial" para "destruir la civilización", afirmó el dueño de SpaceX y de Tesla en una entrevista con el presentador de Fox News, Tucker Carlson.
"Lo que sucede es que están entrenando a la IA para que mienta. Es malo... [La entrenan para] comentar sobre algunas cosas, no comentar sobre otras cosas. Pero no para decir lo que los datos realmente exigen que diga", aseveró.
En consecuencia, el magnate reiteró su propuesta para crear una alternativa a ChatGPT, el popular prototipo de 'chatbot'. "Voy a comenzar algo que llamo Truth GPT, o una IA máxima que busca la verdad y trata de comprender la naturaleza del universo", anunció.
"Creo que este [proyecto] podría ser el mejor camino hacia la seguridad, en el sentido de que una IA que se preocupa por comprender el universo es poco probable que aniquile a los humanos porque somos una parte interesante del universo", agregó.
Preocupación ante el avance de la IA
Hace ocho años Musk fue cofundador de OpenAI, la empresa que está detrás de ChatGPT, pero la dejó a principios de 2018 después de perder una lucha de poder contra su actual director ejecutivo, Sam Altman. Recientemente, el magnate se ha quejado de que la herramienta tiene un sesgo político y ha declarado que aboga por modelos de IA que "busquen más la verdad".
A fines de marzo, Musk, el cofundador de Apple Steve Wozniak y otros expertos firmaron una carta en la que instaban a los laboratorios de IA a "pausar inmediatamente" el entrenamiento de los sistemas de IA más potentes que el GPT-4, la nueva versión de ChatGPT, que "exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales".
"Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA", se lee en la misiva.