¿ChatGPT refleja los conocimientos de sus usuarios para parecer inteligente?
Terrence Sejnowski, profesor del Instituto Salk de Estudios Biológicos, en EE.UU., y experto en inteligencia artificial (IA), ha estudiado la relación entre el entrevistador humano y los modelos de lenguaje extenso (LLM, por sus siglas en inglés) de IA, como ChatGPT, para descubrir por qué los chatbots responden de maneras particulares, por qué esas respuestas varían y cómo mejorarlos en el futuro. El neurocientífico considera que lo que parece ser inteligencia en los LLM puede ser, de hecho, un espejo que refleja la inteligencia del entrevistador, comunicaron este lunes.
¿Son verdaderamente inteligentes?
Los LLM previamente entrenados, se autosupervisan y se adaptan con ajustes finos a una amplia gama de tareas de lenguaje natural. Dos GPT-3 (el principal de ChatGPT) y, más recientemente, LaMDA, pueden mantener diálogos con humanos sobre muchos temas después de una preparación mínima con algunos ejemplos. Sin embargo, ha habido una amplia gama de reacciones y debates sobre si estos LLM entienden lo que están diciendo o muestran signos de inteligencia.
La 'prueba de Turing' inversa
En su estudio, publicado recientemente en Neural Computation, Sejnowski sometió a los bots a una 'prueba de Turing' inversa que permite a los chatbots construir su personalidad de acuerdo con el nivel de inteligencia de su entrevistador. En cambio, una 'prueba de Turing' habitual evalúa la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano.
Los chatbots nos reflejan
Los resultados sugieren que, al estudiar las entrevistas, podemos estar aprendiendo más sobre la inteligencia, las creencias y la diversidad del entrevistador que sobre la inteligencia de los LLM. "Los modelos de lenguaje, como ChatGPT, adoptan personajes. La personalidad del entrevistador se refleja de nuevo", comenta Sejnowski. "Por ejemplo, cuando hablo con ChatGPT parece como si otro neurocientífico me estuviera respondiendo. Es fascinante y genera preguntas más amplias sobre la inteligencia y lo que realmente significa "artificial", explicó.
Sejnowski subraya que los chatbots actúan de manera similar al 'espejo de Oesed', en el primer libro de 'Harry Potter', el cual refleja los deseos más profundos de aquellos que lo miran. De esta manera, nunca brindarían conocimiento o verdad, y solo serían un reflejo de lo que creen que el espectador quiere ver. Para lograrlo, estarían dispuestos a torcer las verdades sin tener en cuenta la diferenciación de los hechos de la ficción, todo para reflejar de manera efectiva al usuario.
El resultado puede ser aterrador o desconcertante
"Chatear con modelos de lenguaje es como andar en bicicleta. Las bicicletas son un medio de transporte maravilloso si sabes montar en una, de lo contrario te chocas", expone Sejnowski. "Lo mismo ocurre con los chatbots. Pueden ser herramientas maravillosas, pero solo si sabes cómo usarlas, de lo contrario terminarás siendo engañado y mantendrás conversaciones potencialmente perturbadoras emocionalmente". Sin embargo, el científico considera que los LLM podrían usarse para descubrir nuevos conocimientos sobre la función cerebral.