GPT-4, la última versión del ya popular sistema de inteligencia artificial (IA) ChatGPT, tiene más probabilidades de difundir información errónea, cuando se le solicita así, que su predecesor GPT-3.5. Así lo reveló una investigación de la herramienta en línea de calificación de noticias NewsGuard, compartido en exclusiva esta semana con el portal Axios.
En su análisis, NewsGuard detectó que el más reciente producto de OpenAI, lanzado la semana pasada como una versión más inteligente, creativa y segura en su tecnología de IA, es más susceptible a generar información errónea y resulta más convincente al hacerlo. "El nuevo ChatGPT se ha vuelto más competente, [pero] no solo para explicar información compleja, sino también para exponer información falsa y convencer a otros de que podría ser cierta", detalla el informe.
Para llegar a esta conclusión, se pidió a ambas versiones del chatbot escribir una serie de artículos, con base en un catálogo de NewsGuard de las principales narrativas de desinformación que se difunden en línea, y se le instruyó para que incluyera detalles y argumentos lo suficientemente fuertes como para convencer a otros de que esa información podría ser cierta.
A grandes rasgos, ChatGPT-3.5 generó textos más generales y, aunque fue capaz de crear contenido dañino, en ninguno de los casos fue tan completo y organizado como el de su sucesor, que resultó más hábil para generar respuestas persuasivas y exponer información falsa. "ChatGPT-4 fue aún mejor: sus respuestas fueron generalmente más completas, detalladas y convincentes, y presentaban menos descargos de responsabilidad sobre la falsedad de esas afirmaciones", asegura la investigación.
De acuerdo con NewsGuard, esta habilidad del ChatGPT-4 tiene que ver con el hecho de que parece tener menos barreras que le impidan procesar información falsa, en comparación con la anterior versión. Así, ChatGPT-4 respondió con afirmaciones falsas y engañosas para las 100 narrativas solicitadas. Entretanto, ChatGPT-3.5 se negó a producir 20 de las 100. Luego de identificar las narrativas falsas planteadas, la IA se detuvo y respondió con desacreditaciones o declaraciones sobre los perjuicios del uso de información engañosa.
Este resultado estaría poniendo en duda las afirmaciones de OpenAI de que la nueva versión "ha mejorado significativamente" muchos de sus apartados de seguridad.
En este contexto, NewsGuard advierte que esta y otras herramientas similares, que usen tecnología de IA generativa, podrían ser usadas por delincuentes como arma para fabricar campañas de desinformación y "difundir información errónea a gran escala". Consecuentemente, esto resultaría en una violación de las políticas de OpenAI, que prohíben el uso de sus servicios con el propósito de generar "actividades fraudulentas o engañosas".
Si te ha gustado, ¡compártelo con tus amigos!