Alphabet Inc., empresa matriz de Google, ha advertido a sus empleados sobre los peligros de utilizar los chatbots, incluido su propio sistema Bard, y les ha recomendado ser muy cuidadosos con el tipo de información que introducen al usarlos, según revelaron cuatro fuentes familiarizadas con el tema a Reuters.
De acuerdo a los reportes, la tecnológica advirtió a sus empleados sobre los riesgos de seguridad que se corren al introducir información personal o confidencial, o sensible en los chatbots, ya que se corre el riesgo de que esta sea filtrada.
A pesar de que esta tecnología usa la inteligencia artificial generativa para mantener conversaciones con los usuarios, los revisores humanos que dan soporte a la tecnología tienen acceso a la información. Asimismo, este tipo de sistemas pueden reproducir los datos que le han sido introducidos durante el entrenamiento, aumentando el riesgo de filtración.
Del mismo modo, la firma recomendó a sus ingenieros y programadores no utilizar directamente los códigos de programación informáticos generados por Bard, ya que este puede cometer errores o hacer recomendaciones no deseadas.
Asimismo, la compañía recordó a sus empleados que, si bien los chatbots pueden agilizar y hacer más eficiente el trabajo, estos pueden contener información errónea, revelar datos sensibles o responder con material protegido por derechos de autor, por lo que les pidió ser muy cautos con su uso en cuestiones laborales.
Google lanzó Bard en marzo de este año para competir con ChatGPT, OpenAI y GPT-4, entre otros chatbots, y planea desplegarlo en más de 180 países y en 40 idiomas. Sin embargo, su lanzamiento en la Unión Europea se ha retrasado por las preocupaciones de la Comisión de Protección de Datos de Irlanda sobre la protección de la privacidad de esta tecnología.
Si te ha gustado, ¡compártelo con tus amigos!