Los gigantes tecnológicos Google, Microsoft, OpenAI y Anthropic anunciaron este miércoles la creación de una plataforma de vigilancia para ayudar a regular el avance de la inteligencia artificial (IA).
En una declaración conjunta, las compañías presentaron el denominado Frontier Model Forum, "un organismo de la industria centrado en garantizar el desarrollo seguro y responsable de modelos de IA fronterizos", es decir, aquellos modelos que superan las capacidades que poseen los modelos más avanzados.
Los objetivos principales del foro consisten en hacer "avanzar la investigación sobre la seguridad de la IA" promoviendo un estándar para minimizar los riesgos, centrarse en desarrollar "las mejores prácticas" para el despliegue de modelos vanguardistas y "colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad".
Además, se centrará en abordar los "grandes desafíos de la sociedad", incluida la "mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las amenazas cibernéticas". "El Foro será un vehículo para debates y acciones entre organizaciones sobre seguridad y responsabilidad de la IA", reza el comunicado.
Se informa que en los próximos meses se creará una junta asesora destinada a dirigir "la estrategia y las propiedades" del grupo. Para poder formar parte de la iniciativa, las organizaciones deben ajustarse a los criterios predefinidos.
"Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que esta beneficie a toda la humanidad", comunicó Brad Smith, presidente de Microsoft.