Microsoft expresó sus disculpas por los mensajes de Twitter racistas y sexistas generados por un robot que lanzó esta semana, escribió un representante de la compañía, después de que el programa de inteligencia emocional se viera envuelto en un desafortunado incidente.
El “chatbot” Tay fue diseñado para ser más “inteligente” a medida que más usuarios interactúen con él. Pero para desgracia de la empresa creada por Bill Gates, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter le proporcionaron al programa.
“Hitler no hizo algo malo”; “Soy una buena persona. Simplemente odio a todo el mundo”; “Vamos a poner un muro en la frontera. México va a tener que pagarlo”; “Mexicano y negro”; “Bush hizo el 11-S”; “Parásitos endogámicos como John Podhoretz y Ben Shapiro -ambos periodistas- tienen que volver (a Israel)” fueron algunas de las lamentables frases que Tay tweeteó.
Sin embargo, y como era de esperar, más tarde esta serie de publicaciones de mal gusto fue borrada del microblogging de mensajes de hasta 140 caracteres.
Tras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.
El proyecto fue diseñado para interactuar con la generación de jóvenes denominada “millennials” y “aprender” de ellos.
Entra desde tu celular a TKM Alta Velocidad haciendo click: AQUI