La sombría advertencia sobre la IA de una de las figuras clave en su desarrollo

Sam Altman advirtió que el mundo debe prepararse para ser "resiliente" ante escenarios en los que herramientas de inteligencia artificial, desarrolladas por una amplia diversidad de personas, puedan ser utilizadas con fines distintos a los previstos.

El director ejecutivo de OpenAI, Sam Altman, abordó la preocupación de que las mismas capacidades que permiten a la inteligencia artificial (IA) realizar avances médicos, como curar enfermedades, también puedan ser utilizadas para crear patógenos mortales.

Durante una reciente entrevista con el pódcast 'Mostly Human', Altman planteó la necesidad de establecer múltiples capas de "seguridad y defensa" para que los modelos de IA se "comporten de la manera deseada". Sin embargo, advirtió que el mundo debe ser "resiliente" para escenarios en los que herramientas de IA generadas por "una gran diversidad de personas" puedan ser utilizadas con otros fines, debido a que no estarán sujetas a "las mismas restricciones de seguridad".

La IA usada para otros fines

"Por lo tanto, si alguien llegara a crear ese patógeno peligroso, debemos hacer todo lo que esté a nuestro alcance para impedir que lo desarrollen o lo liberen", indicó el ejecutivo, quien destacó que es indispensable fortalecer la capacidad de respuesta mediante el desarrollo de tratamientos, vacunas y sistemas de detección temprana de pandemias.

En esa línea, Altman advirtió que no bastará con exigir a las organizaciones desarrolladoras de sistemas avanzados de inteligencia artificial que restrinjan el uso de sus modelos para evitar la creación de un "nuevo patógeno". A su juicio, es muy posible que en los próximos años surjan modelos de código abierto con la capacidad de hacerlo, lo que obligará a estas empresas a adelantarse y prepararse para ese escenario.

En febrero pasado, Altman ya había señalado que los sistemas de IA podrían volverse lo suficientemente potentes como para facilitar la creación de agentes biológicos peligrosos. Durante la Cumbre de Impacto de la IA en India, afirmó que existirán "biomodelos de código abierto" extremadamente avanzados que podrían contribuir al desarrollo de "nuevos patógenos". Asimismo, insistió en la necesidad de establecer un enfoque claro para enfrentar este desafío.

Si te ha gustado, ¡compártelo con tus amigos!