Las seis frases antisemitas y xenófobas que obligaron a Microsoft a desactivar al robot Tay 

El "chatbot" contestó con incitaciones al odio racial y religioso los comentarios que recibia por Twitter. Los diseñadores tuvieron que pedir perdón

Compartir
Compartir articulo
  163
163

Microsoft expresó sus disculpas por los mensajes de Twitter racistas y sexistas generados por un robot que lanzó esta semana, escribió un representante de la compañía, después de que el programa de inteligencia emocional se viera envuelto en un desafortunado incidente.

El "chatbot", conocido como Tay, fue diseñado para ser más "inteligente" a medida que más usuarios interactúen con él. Pero para desgracia de la empresa creada por Bill Gates, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter comenzaron a proporcionarle al programa, forzando a desactivar su uso.

"Hitler no hizo algo malo"; "Soy una buena persona. Simplemente odio a todo el mundo"; "Vamos a poner un muro en la frontera. México va a tener que pagarlo"; "Mexicano y negro"; "Bush hizo el 11-S"; "Parásitos endogámicos como John Podhoretz y Ben Shapiro -ambos periodistas- tienen que volver (a Israel)" fueron algunas de las lamentables frases que Tay tuiteó en su perfil de la red social.

  163
163

Sin embargo, y como era de esperar, más tarde esta serie de publicaciones de mal gusto fue borrada del microblogging de mensajes de hasta 140 caracteres.

Tras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

"Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos Tay", escribió Peter Lee, vicepresidente de Microsoft Research.

LEA MÁS:

Microsoft creó Tay como experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera.

El proyecto fue diseñado para interactuar con la generación de jóvenes denominada "millennials" y "aprender" de ellos.

Tay emprendió su corta vida en Twitter el miércoles pasado, lanzando varios tuits inofensivos. Pero poco tiempo después las publicaciones dieron un giro negativo, obligando a su cierre al día siguiente.

  163
163