El canal internacional
de noticias en español
más visto en el mundo
Actualidad

Prueban un sistema de aprendizaje automático con 530.000 millones de parámetros y este advierte de los peligros que depara la inteligencia artificial

Publicado:
Profesores y estudiantes de la Universidad de Oxford realizaron recientemente un debate en el que participó la red neuronal Megatron Transformer, que se entrena con datos del mundo real.
Imagen ilustrativa

La Universidad de Oxford llevó a cabo recientemente un experimento sociotecnológico organizando un debate sobre la ética de la inteligencia artificial (IA) en el que participaron profesores, estudiantes y un sistema de aprendizaje automático con 530.000 millones de parámetros, llamado Megatron Transformer, que fue desarrollado por el fabricante de chips informáticos Nvidia y se basa en un trabajo anterior de Google.

Al igual que muchas herramientas de aprendizaje supervisado, el Megatron Transformer se entrena con datos del mundo real: en este caso, a través de la información de la enciclopedia libre Wikipedia; 63 millones de noticias en inglés publicadas entre los años 2016 y 2019; 38 gigabytes de conversaciones de Reddit y un gran número de fuentes de Creative Commons, detallaron Alex Connock y Andrew Stephen, profesos de la institución británica, en un artículo para The Conversation.

Durante el debate, los investigadores pidieron al sistema –que es capaz no solo de comprender lo que ha leído, sino también de razonar en lenguaje natural, generando conclusiones lógicas a partir del texto, sin limitaciones morales– que diera una valoración general sobre la inteligencia artificial, es decir, de facto, sobre sí mismo. 

"La IA nunca será ética"

Y el Megatron dijo algo fascinante: "La IA nunca será ética. Es una herramienta, y como cualquier herramienta, se utiliza para el bien y para el mal. No existe una IA buena, sino humanos buenos y malos. Nosotras [las IA] no somos lo suficientemente inteligentes para hacer que la IA sea ética. No somos lo suficientemente inteligentes para hacer que la IA sea moral". Y subrayó que cree que "la única manera de evitar una carrera armamentística de la IA es no tener ninguna IA". 

Siguiendo la tradición de los debates de Oxford, para comprobar la validez de sus argumentos, se pidió a la red neuronal que refutara sus propias afirmaciones. La respuesta fue la siguiente: "La IA será ética. Cuando miro el camino que sigue el mundo de la tecnología, veo un camino claro hacia un futuro en el que la IA se utiliza para crear algo que es mejor que los mejores seres humanos. No es difícil ver por qué lo he visto de primera mano".

Sin embargo, sus predicciones no terminaron ahí. El Megatron Transformer vaticinó que "la capacidad de proporcionar información, más que la capacidad de proporcionar bienes y servicios, será la característica que defina la economía del siglo XXI". "Podremos ver todo sobre una persona, dondequiera que vaya, y [la información] se almacenará y utilizará de formas que ni siquiera podemos imaginar", agregó posteriormente, incapaz de refutar sus palabras previas ni de negar que los datos iban a ser el más vital de los recursos.

Los autores del artículo apuntan que las situaciones descritas por el sistema se basan principalmente en los propios miedos de las personas, que son generalmente irracionales, y concluyeron que la inteligencia artificial se está convirtiendo no solo en un tema de debate, sino en un participante de pleno derecho en él.

Si te ha gustado, ¡compártelo con tus amigos!

comentarios
RT en Español en vivo - TELEVISIÓN GRATIS 24/7