Mientras el CEO de OpenAI, Sam Altman, se empeña en alertar sobre los peligros de la inteligencia artificial más avanzada e insta a regular toda la industria con el objetivo de "reducir el riesgo existencial para la humanidad", entre bastidores pasa todo lo contrario.
La compañía creadora de ChatGPT ha impulsado activamente la relajación de importantes puntos en la futura legislación europea en esa materia, que al día de hoy es la más integral del mundo, en un aparente intento por reducir la futura carga de los reguladores para sus propias operaciones en la región, revela TIME, que obtuvo los correspondientes documentos de la Comisión Europea a través de las solicitudes en virtud de la libertad de información.
En varios casos, OpenAI propuso enmiendas que posteriormente llegaron a formar parte del texto final de la norma de la Unión Europea en materia de inteligencia artificial, que fue aprobada por el Parlamento Europeo el pasado miércoles 14 de junio y actualmente se encuentra a la espera de una ronda final de debates antes de convertirse en ley.
Así, el año pasado la empresa argumentó en reiteradas ocasiones ante los funcionarios europeos que su próxima normativa sobre inteligencia artificial no debía considerar como "de alto riesgo" los sistemas de propósito general, como GPT-3, que fue el precursor del ChatGPT, o el generador de imágenes Dall-E 2. Esta designación los sometería a estrictos requisitos legales en términos de transparencia, trazabilidad y supervisión humana.
"Por sí mismo, GPT-3 no es un sistema de alto riesgo, pero posee capacidades que potencialmente pueden emplearse en casos de uso de alto riesgo", declaró la compañía en un documento inédito de siete páginas, publicado por la revista, que envió a los funcionarios de la Comisión Europea y el Consejo Europeo en septiembre de 2022.
El borrador final de la futura legislación europea ya no contenía las frases presentes en borradores anteriores que sugerían que los sistemas de inteligencia artificial de propósito general deben considerarse intrínsecamente de alto riesgo. En lugar de ello, en el texto acordado se exigió a los proveedores de los así llamados "modelos fundacionales" —potentes sistemas de IA entrenados con grandes cantidades de datos— que cumplieran con una menor cantidad de requisitos, como evitar la generación de contenidos ilegales, revelar si un sistema había sido entrenado con material protegido por derechos de autor y realizar evaluaciones de riesgos.
Un portavoz de la compañía confirmó a TIME que OpenAI apoyó la introducción tardía de los "modelos fundacionales" como categoría independiente en la legislación.