Google ignoró fallas éticas de su nuevo chatbot en su afán por ganar la carrera de la IA
Bard, el nuevo chatbot de Google, está brindando información de baja calidad, dudosa y hasta peligrosa. En su afán por mantenerse en la carrera de la inteligencia artificial (IA), el gigante tecnológico estaría dando menos prioridad a la ética y prestando poca atención a los daños potenciales de sus nuevos productos.
Según 18 personas consultadas, entre empleados y exempleados de Google, y documentación interna revisada por Bloomberg, su modelo de IA generativa es "un mentiroso patológico" que puede llegar a ofrecer consejos que conducirían a un accidente o respuestas que "probablemente resultarían en lesiones graves o la muerte".
En febrero, antes del lanzamiento al público en marzo de Bard, otro miembro de la empresa ya había advertido que el 'software' era "peor que inútil" y había pedido no lanzarlo. Su mensaje, enviado por un chat interno, fue visto por casi 7.000 personas, muchas de las cuales coincidieron con que ofrecía datos contradictorios y hasta notoriamente incorrectos en consultas simples.
A pesar de los inconvenientes que pudiera presentar la herramienta, Google decidió acelerar el ritmo de su desarrollo, luego del debut del chatbot de su rival, OpenAI, en noviembre del 2022, y en medio del pánico por no tener el suyo. De este modo, sus altas directivas emitieron un "código rojo" y se asumió el riesgo de incorporar IA generativa en todos sus productos en cuestión de meses, comentaron sus trabajadores.
"La ética de la IA ha pasado a un segundo plano"
En este contexto, empleados aseguran que a los miembros del personal que son responsables de la seguridad y las implicaciones éticas de los nuevos productos se les ha dicho que no se interpongan en el camino ni intenten detener el desarrollo del cualquier IA generativa. "La ética de la IA ha pasado a un segundo plano", subraya Meredith Whittaker, exgerente de Google.
La líder de Innovación Responsable de la compañía, Jen Gennai, encargada de defender los principios de IA de la empresa, sugirió en una reunión este mes que era necesario modificar algunos compromisos para acelerar el ritmo de lanzamientos de productos. Así, si anteriormente debían superaran el 99% en métricas como la "equidad", ahora era suficiente "estar en 80-85% o algo así".
Al mismo tiempo, anuló una evaluación de riesgos presentada por miembros de su equipo, que afirmaba que Bard no estaba listo porque podría causar daño, y reformuló el lanzamiento del chatbot como un "experimento".
Google ha negado haber dado prioridad a cualquier otra cosa sobre la ética. Respondiendo a las preguntas de Bloomberg, el vocero Brian Gabriel recalcó que siguen "invirtiendo" en los equipos que trabajan en la aplicación de sus principios de IA en sus tecnologías. No obstante, Bloomberg resalta que la empresa despidió en enero al menos a tres miembros de su equipo de IA y que el grupo que continúa trabajando en las cuestiones éticas de Google "ahora está desempoderado y desmoralizado".