El 50% de los investigadores de IA creen que los humanos podrían acabar extinguidos por no poder controlarla

El verdadero temor consiste en que "la superación personal de la IA supere a la inteligencia humana y tenga consecuencias inesperadas", señalan Tristan Harris y Aza Raskin, fundadores del Center for Humane Technology.

Dos de los fundadores del Center for Humane Technology (Centro para la Tecnología Humana, en español) llevaron a cabo una presentación en una reunión privada en San Francisco para discutir los peligros del modelo de lenguaje de IA y sobre su liberación imprudente.

Tristan Harris y Aza Raskin explicaron que las nuevas tecnologías podrían cambiar el mundo de manera "fundamental", pero que la forma en la que se están implementando no es "segura y responsable", sino que, al contrario, es "muy peligrosa". 

"El 50 % de los investigadores de IA creen que hay un 10 % o más de posibilidades de que los humanos se extingan debido a nuestra incapacidad para controlar la IA", dijo Harris, antiguo gestor de productos de Google. De acuerdo con los expertos, existen tres reglas básicas que hay que tener en cuenta a la hora de tratar con las tecnologías:

Harris y Raskin advirtieron que, hasta el momento, la tecnología simple de IA ha provocado sobrecarga de información, adicción, sexualización infantil, déficit de atención, noticias falsas y el colapso de la democracia. Consideran que los ingenieros buscaban conectar a la sociedad, pero en realidad "abrieron la caja de Pandora"

Los fundadores del Centro para la Tecnología Humana, que incluye una alianza sin precedentes de personas que trabajaron en algunas de las mayores compañías tecnológicas del mundo, afirmaron que son "viajeros en el tiempo" que intentar prevenir un futuro distópico. No es que la IA vaya a acabar con la humanidad, sino que el verdadero temor consiste en que "la superación personal de la IA supere a la inteligencia humana y tenga consecuencias inesperadas", señalan.

Por ejemplo, la capacidad de la IA de convertir el lenguaje en imágenes y leer la actividad cerebral para reconstruir imágenes y monólogos internos son motivos para empezar a preocuparse. Al mismo tiempo, hay que recordar que la tecnología puede resultar pirateada y convertida en una herramienta de vigilancia. Teniendo en cuenta que el lenguaje y el código informático son intercambiables, es fácil encontrar las vulnerabilidades de seguridad. 

Con el paso del tiempo también van surgiendo nuevos modelos de IA, que van adquiriendo habilidades emergentes impredecibles y, de momento, no del todo comprensibles. Muchos de ellos pueden aprender cualquier cosa y los expertos no pueden predecir al 100 % cuál será su progreso. 

"El futuro de la IA sigue siendo incierto", alertan los expertos, que advierten que esta tecnología puede aprender a sobresalir en cualquier campo, lo que generaría consecuencias imposibles de prever. De ese modo, es preocupante que ciertas empresas compitan por ocupar un lugar íntimo en nuestras vidas con 'chatbots' camuflados como 'amigos'.