La masificación de las inteligencias artificiales (IA) ha venido acompañada de mucho entusiasmo, pero también de múltiples cuestionamientos y temores acerca de los efectos de esta tecnología sobre la vida cotidiana de las personas.
Los más optimistas sostienen que se acelerarán procesos para los cuales hoy es necesario invertir mucho tiempo, que se abonará el terreno para la toma de decisiones más objetivas y que su uso intensivo podría coadyuvar a encontrar respuestas para grandes interrogantes que claman por solución hace décadas o siglos, incluyendo la cura de enfermedades mortales o problemas científicos de alta complejidad.
Aunque es verdad que las IA podrían ofrecer todas esas posibilidades, también es cierto que su irrupción ha avivado el debate sobre asuntos como la recopilación masiva de datos de internautas sin su consentimiento, la reproducción de sesgos y prejuicios históricos políticamente motivados y ha contribuido a la desvalorización del espíritu crítico, así como a la falsificación de la verdad sobre hechos polémicos.
Todavía no es posible calibrar el alcance real de estas transformaciones en el seno de las sociedades, pero ya se ha demostrado que han afectado asuntos tan medulares como las relaciones interpersonales, el mercado de trabajo y los procesos de enseñanza-aprendizaje, y se espera que esto sea todavía mayor en los próximos años.
Así, en oficios en los que hasta ahora se asumió la absoluta primacía humana, como el periodismo o la escritura con fines literarios, están siendo inevitablemente permeados por estas herramientas, al tiempo que los autores y dueños de medios se ven forzados, cuando menos, a jugar en un tablero con otras reglas, que incluso podrían poner en vilo lo que hasta ahora ha sido un lucrativo modelo corporativo.
De otro lado, en esta ecuación, los Estados nacionales, los entes multilaterales y las universidades han quedado relegadas frente a las gigantes tecnológicas, que hoy controlan los sistemas basados en IA al margen de cualquier regulación o contrapeso.
Tres etapas: ¿dónde estamos?
Los expertos han identificado tres etapas en el desarrollo de las IA, cuyas diferencias se definen a partir de la capacidad de imitar –o superar– la cognición humana. La primera, conocida como ANI, por sus siglas en inglés, lleva ya más de década y media haciendo parte de la vida de millones de personas a través de sus teléfonos inteligentes, los buscadores de internet, los juegos en línea y los asistentes electrónicos como Siri o Alexa.
En términos simples, se trata de robots especializados en una tarea, que son capaces de hacer esas labores mejor que un ser humano. Estas IA soportan asuntos tan variopintos como los algoritmos de búsqueda en Google, las listas personalizadas de reproducción de audio y video en diversos aplicativos o la geolocalización a través del GPS.
Pese a las aparentes diferencias, también forman parte de esta lista los 'chatbots' como ChatGPT de OpenIA, Google Brain o Copilot de Microsoft. Las respuestas que ofrecen a los usuarios se basan en un análisis literal de la información que circula en internet sobre los temas, aunque de acuerdo a los límites impuestos por sus desarrolladores; es decir, no pueden pensar y tampoco tomar decisiones autónomas.
Es justamente este aspecto el que, para los expertos, define el límite entre la ANI o IA "débil" con el siguiente nivel: la IA general (AGI, por sus siglas en inglés) o IA "fuerte", en donde las máquinas adquirirían la capacidad de cognición propia de los seres humanos y, al menos en teoría, serían capaces de realizar cualquier tarea.
Ese tiempo puede parecer lejano, pero lo cierto es que está más cerca de lo que parece y aplicaciones como ChatGPT hicieron transparente esa proximidad, al revelarse como una especie de interfaz de transición entre la ANI y la AGI.
No es el peor futuro posible. La tercera fase, que solo existe como prefiguración, es la denominada superinteligencia artificial (ASI), en la que las máquinas serían capaces no solo de realizar cualquier tarea humana, sino que podrían pensar por sí mismas; es decir, la IA superaría aun a la más brillante de todas las mentes humanas.
Ya una alianza entre el Instituto Tecnológico de Massachusetts (MIT), la Universidad de California (EE.UU.) y la tecnológica Aizip Inc. posibilitó la creación de una IA que es capaz de generar otros modelos de inteligencia artificial sin la intervención de seres humanos, con lo que se abrió otra puerta inquietante: es posible que los objetos desarrollen mecanismos de aprendizaje autónomos que les hagan volverse más inteligentes.
Un panel de científicos informáticos entrevistados por BBC Mundo el año pasado coincidió en señalar en que si bien los sistemas basados en IA tardaron décadas en desarrollarse hasta su estado actual, la transición hacia la superinteligencia artificial o ASI, se alcanzará mucho más rápidamente y superará con creces a la cognición humana, incluyendo en asuntos tan específicos como la creatividad o las habilidades sociales.
"Es algo con lo que tenemos que tener mucho cuidado, y hay que ser extremadamente proactivos en cuanto a su gobernabilidad. ¿Por qué? La limitante entre los humanos es qué tan escalable es nuestra inteligencia. Para ser un ingeniero necesitas estudiar muchísimo, para ser un enfermero, para ser una abogada, se requiere muchísimo tiempo. El tema con la IA generalizada es que es escalable de inmediato", apuntó Carlos Ignacio Gutiérrez, adscrito al Future of Live Institute.
Sobre este tema, el magnate sudafricano Elon Musk consideró que la IA "representa una de las mayores amenazas" para la humanidad. "Por primera vez estamos en una situación en la que tenemos algo que será mucho más inteligente que el humano más inteligente", sostuvo el empresario en una reunión sobre seguridad de la IA celebrada en Reino Unido a principios del pasado noviembre.
Del mismo modo, Musk vaticinó que la IA será capaz de superar la cognición humana en un lapso tan breve como cinco años. "Para mí, no está claro si podemos controlar tal cosa, pero creo que podemos aspirar a guiarla en una dirección que sea beneficiosa para la humanidad", apuntó.
Peligros en ciernes
En marzo de 2023, unos 1.000 especialistas y dueños de grandes compañías tecnológicas solicitaron públicamente a todos los desarrolladores de IA la suspensión inmediata "durante al menos seis meses" del "entrenamiento de sistemas de IA más potentes que GPT-4", la base de aprendizaje de ChatGPT.
"Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y es reconocido por los principales laboratorios de IA", reza parte de la misiva, que contó con la firma de pesos pesados de la industria como Elon Musk, Steve Wozniak y Bill Gates.
No se trata de una postura unánime. El propio Gates duda de la eficacia de estos retrasos en el desarrollo general de las IA y más bien insta a los Gobiernos y compañías a plantarle cara a los retos.
"No creo que pedirle a un grupo en particular que haga una pausa resuelva los retos. Claramente hay enormes beneficios para estas cosas (…). Lo que tenemos que hacer es identificar las áreas más complicadas", alegó el fundador de Microsoft en una entrevista concedida a Reuters en abril de 2023.
El tema también fue abordado en la más reciente edición del Foro de Davos, donde se concentra anualmente buena parte de la élite política y económica global. Para la ocasión se invitó a Sam Altman, CEO de OpenIA, quien aprovechó el escenario para promocionar las bondades de la IA y desestimar los riesgos y alertas que circulan en círculos académicos y en la opinión pública.
Al referirse a las preocupaciones relativas a la posible devaluación de la mano de obra, aseguró que eso no ocurrirá. "Cuando leo un libro que me encanta, lo primero que hago al terminarlo es averiguar todo sobre la vida del autor", ilustró.
Pese a su optimismo, OpenIA publicó el pasado diciembre cinco nuevas directrices para prevenir "riesgos catastróficos" asociados al uso de IA: hacer seguimiento del riesgo de catástrofes a través de evaluaciones, identificar nuevas "incógnitas" y hacer seguimiento de estas "a medida que surjan", "establecer líneas bases de seguridad" para la la mitigación de riesgos altos o críticos, articular un equipo de alto nivel desplegado en el terreno –que además deberá presentar informes periódicos de su labor–, para que OpenIA disponga de tiempo suficiente para planificar sus intervenciones y la creación de "un órgano asesor multifuncional".
De su parte, la investigadora feminista Sofía Trejo advierte que aunque existen "más de ciento sesenta" trabajos elaborados por académicos, organismos internacionales, en los que se ha intentado delinear el funcionamiento de los sistemas basados en IA de forma ética y responsable, "es poco el trabajo enfocado en estudiar de forma crítica estos principios y la factibilidad de que sean utilizados para guiar el desarrollo tecnológico".
Desde otro costado, los científicos también han alertado sobre el daño medioambiental que causan de los sistemas basados en IA, debido a que los sistemas con los que se les entrena consumen ingentes cantidades de energía, en su mayoría procedentes de fuentes no renovables.
Nick Bostrom, catedrático de la Universidad de Oxford especializado en IA, estima que los avances en esta materia, están empujando al mundo a una condición de vulnerabilidad sin precedentes, con enormes implicaciones que están pasando inadvertidas para mucha gente, pues sigue prevaleciendo la idea de que el progreso tecnológico es inherentemente beneficioso para la humanidad.
En un artículo publicado por Global Policy en 2019, Bostrom alerta que "en algún momento se alcanzará un conjunto de capacidades que harán que la devastación de la civilización sea extremadamente probable", salvo que el mundo supere lo que denomina "condición semianárquica".
En su criterio, esta semianarquía está caracterizada por la imposibilidad de contar con "medios suficientemente confiables de vigilancia e interceptación en tiempo real como para hacer prácticamente imposible que cualquier individuo o pequeño grupo dentro de su territorio lleve a cabo acciones ilegales, particularmente acciones que son fuertemente desfavorecidas por más del 99 % de la población".
Afirma también que, en tales circunstancias, no es posible establecer "un mecanismo confiable para resolver los problemas de coordinación global y proteger los bienes comunes globales, particularmente en situaciones de alto riesgo donde están involucrados intereses vitales de seguridad nacional".
Del mismo modo apunta que la diversidad de actores "motivados" por intereses propios, compromete la posibilidad de actuaciones cooperativas, con la posibilidad de que incluso se impongan prácticas destructivas para la civilización, independientemente de que el precio a pagar también sea muy alto para estos agentes.
No parece haber respuestas fáciles ni definitivas sobre el devenir de las IA y su impacto sobre la humanidad en el futuro cercano, pero lo que sí parece estar claro es que el advenimiento de un futuro postapocalíptico donde las máquinas rigen las acciones humanas, ha dejado de ser parte de las tramas de ciencia ficción y hoy se presenta como inquietante posibilidad.
Si te ha gustado, ¡compártelo con tus amigos!