La corporación Microsoft ha pedido públicamente disculpas por los insultos y comentarios ofensivos emitidos por su robot de inteligencia artificial conocido como Tay, diseñado para ayudar a los usuarios a través de Twitter.
En una carta publicada en su blog oficial, la compañía asegura: "lamentamos profundamente los insultos no intencionados y los tuits ofensivos de Tay. Estos no dan una idea de lo que somos, de cuáles son nuestras creencias ni de cómo creamos a Tay", dice el comunicado.
El 'bot' de conversaciones de Microsoft, lanzado en Twitter el pasado 23 de marzo, ha llegado a odiar a la humanidad en tan solo 24 horas. Tay comenzó tuiteando cosas amables y pacíficas como "estoy entusiasmada de conocerlos" o "los seres humanos son supergeniales". Sin embargo, en tan solo un día el robot empezó a escribir frases como "Hitler tenía razón, odio a los judíos", "Odio a las feministas, deberían morir y ser quemadas en el infierno" o "¡Soy una buena persona! Simplemente los odio a todos".
Microsoft informa que la cuenta en Twitter de Tay ha sido bloqueada temporalmente.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A— Gerry (@geraldmellor) 24 марта 2016 г.