Anthropic, la empresa detrás del desarrollo del 'chatbot' de inteligencia artificial Claude, expuso por accidente el código fuente de sus herramientas de programación, Claude Code, esta semana. Si bien la compañía tecnológica se apresuró a tomar medidas, en cuestión de horas la información había sido replicada y ha resultado difícil bloquear por completo la filtración, informó el diario The Wall Street Journal.
El incidente se produjo el martes, cuando Anthropic realizaba la actualización del asistente y publicó en el servicio de alojamiento de repositorios y colaboración para desarrolladores GitHub un archivo que enlazaba con el código completo original, que son las instrucciones que utiliza para dirigir a Claude Code, el cual, según el periódico, es un importante producto que "le ha dado a la empresa una ventaja entre desarrolladores y empresas".
Cualquier persona ajena a la empresa podía descargar e interpretar los datos. De este modo, Chaofan Shou, investigador de seguridad de Solayer Labs, se percató de la filtración y corrió la voz en la red social X. En cuestión de horas, la propagación del contenido ya era imparable. El miércoles, Anthropic lanzó solicitudes de retirada del código por derechos de autor para la eliminación de más de 8.000 copias y adaptaciones de este que habían sido compartidas en Github. Posteriormente, redujo su solicitud de eliminación a solo 96 copias y adaptaciones, alegando que su petición inicial había llegado a más cuentas de GitHub de las previstas, señala The Wall Street Journal.
La filtración dejó al descubierto información sensible (funcionalidades, características ocultas, etc.) que podrían aprovechar los competidores de Anthropic para clonar sus funcionalidades de forma más sencilla o mejorar sus propios productos. No obstante, el gigante tecnológico aseguró que no se vieron comprometidos ni expuestos los datos o credenciales de sus clientes y aclaró que fue una problema causado por un "error humano" y no resultado de una "brecha de seguridad".