La empresa OpenAI, desarrolladora de la famosa herramienta de síntesis de textos ChatGPT, ha lanzado este martes un clasificador para determinar si un texto fue escrito por un humano o generado por inteligencia artificial (IA).
Según sus desarrolladores, la nueva herramienta "no es totalmente fiable" y en las pruebas con los textos en inglés identificó correctamente solo un 26 % de los que fueron creados por IA, mientras que a la hora de etiquetar los textos escritos por personas reales erró en un 9 % de los casos.
Aunque OpenAI reconoce que "es imposible detectar de forma fiable todos los textos escritos con IA", cree que ese tipo de herramientas pueden servir para contrarrestar "las falsas afirmaciones de que el texto generado con IA ha sido escrito por un humano". Por ejemplo, en medio de las campañas automatizadas de desinformación, ante el uso de IA para la deshonestidad académica o el posicionamiento de un chatbot de IA como si fuera un humano.
Como el clasificador es nuevo y tiene "una serie de limitaciones importantes", la empresa subraya que "no debe utilizarse como herramienta principal para la toma de decisiones, sino como complemento de otros métodos para determinar el origen de un texto".
Limitaciones principales
La herramienta "es muy poco fiable" a la hora de chequear textos cortos de hasta 1.000 caracteres, e incluso puede etiquetar incorrectamente textos más largos.
Otra limitación importante es que de momento sirve solo para los textos en inglés, siendo su rendimiento "significativamente peor" en el caso de otros idiomas.
Tampoco puede identificar de forma fiable los textos "muy predecibles" y hay que tener en cuenta que los textos generados por IA siempre pueden ser editados para engañar la herramienta.
"Los clasificadores como el nuestro pueden ser actualizados y reentrenados sobre la base de los ataques exitosos, pero no está claro si la detección supone una ventaja a largo plazo", advirtió OpenAI.