Microsoft advierte que ChatGPT-4 da muestras de razonamiento humano
Investigadores de Microsoft que analizaron GPT-4, el modelo de inteligencia artificial (IA) de lenguaje natural que da soporte a ChatGPT de OpenAI, aseguran que refleja cierta conciencia y razonamiento humanos en sus respuestas a diferentes tareas propuestas. Para arribar a esta conclusión estuvieron trabajando durante meses con esa tecnología, en pruebas con imágenes, textos y diversos temas de estudio.
En un informe publicado recientemente en el servicio de preimpresión arXiv, que aún no ha sido sometido a revisión por pares, los investigadores argumentaron que el sistema está a un paso de la inteligencia artificial general (AGI, por su siglas en inglés). El término designa a un sistema o modelo tecnológico que sería capaz de mostrar comprensión o razonamiento similar al de los humanos.
Los autores del estudio le pidieron al GPT-4 que solucionara ciertos problemas o acertijos para forzar la capacidad de razonamiento del modelo de lenguaje natural. Por ejemplo, que explicara cómo se podrían apilar de manera estable varios objetos como "un libro, nueve huevos, un ordenador portátil, una botella y un clavo". La respuesta rápida y correcta sorprendió a los expertos.
La IA les sugirió que colocaran "el ordenador portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. El ordenador encajaría perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionaría una plataforma estable para la siguiente capa". Otra de las pruebas que le solicitaron a la IA fue un ejercicio matemático en el que mostrara, mediante una rima, que hay infinitos números primos. La respuesta fue igualmente ingeniosa y los dejó perplejos.
"¿Cosas que pensé que no sería capaz de hacer? Ciertamente, fue capaz de hacer muchas de ellas, si no la mayoría", comentó a The New York Times Sébastien Bubeck, exprofesor de la Universidad de Princeton, EE.UU., quien dirigió el estudio.
Expertos en desacuerdo
Sin embargo, Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon, EE.UU., considera el informé científico de Microsoft como una maniobra de relaciones públicas. "Literalmente, reconocen en la introducción de su artículo que su enfoque es subjetivo e informal y que puede no satisfacer los rigurosos estándares de la evaluación científica", subrayó.
Otros expertos en inteligencia artificial que rechazan la idea de estar ante una AGI, consideran que sistemas como GPT-4 son sin duda poderosos, pero no está claro que el texto generado sea el resultado de algo así como el razonamiento humano o el sentido común.
Afirman también que, al estar ante un sistema o máquina compleja cuyo funcionamiento es difícil de comprender, tanto expertos como usuarios sin conocimientos sobre el tema tienden a crear una idea errónea de la tecnología. "Cuando vemos un sistema o máquina complicado, lo antropomorfizamos", señaló Alison Gopnik, profesora de psicología de la Universidad de California en Berkeley, EE.UU.