Buscar en Infobae

Tecno sábado 26 de marzo 2016

Las seis frases antisemitas y xenófobas que obligaron a Microsoft a desactivar al robot Tay 

El "chatbot" contestó con incitaciones al odio racial y religioso los comentarios que recibia por Twitter. Los diseñadores tuvieron que pedir perdón

sábado 26 de marzo 201612:49
Microsoft creó Tay como experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera.
Microsoft creó Tay como experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera. Crédito:

Microsoft expresó sus disculpas por los mensajes de Twitter racistas y sexistas generados por un robot que lanzó esta semana, escribió un representante de la compañía, después de que el programa de inteligencia emocional se viera envuelto en un desafortunado incidente.

El "chatbot", conocido como Tay, fue diseñado para ser más "inteligente" a medida que más usuarios interactúen con él. Pero para desgracia de la empresa creada por Bill Gates, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter comenzaron a proporcionarle al programa, forzando a desactivar su uso.

"Hitler no hizo algo malo"; "Soy una buena persona. Simplemente odio a todo el mundo"; "Vamos a poner un muro en la frontera. México va a tener que pagarlo"; "Mexicano y negro"; "Bush hizo el 11-S"; "Parásitos endogámicos como John Podhoretz y Ben Shapiro -ambos periodistas- tienen que volver (a Israel)" fueron algunas de las lamentables frases que Tay tuiteó en su perfil de la red social.

microsoft tay 1920 2
Algunas de las desagradables frases racistas y sexistas publicadas por el robot Tay de Microsoft, que tras ello fue desactivado.

Sin embargo, y como era de esperar, más tarde esta serie de publicaciones de mal gusto fue borrada del microblogging de mensajes de hasta 140 caracteres.

Tras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

"Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos Tay", escribió Peter Lee, vicepresidente de Microsoft Research.

LEA MÁS:

Embed

Microsoft creó Tay como experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera.

El proyecto fue diseñado para interactuar con la generación de jóvenes denominada "millennials" y "aprender" de ellos.

Tay emprendió su corta vida en Twitter el miércoles pasado, lanzando varios tuits inofensivos. Pero poco tiempo después las publicaciones dieron un giro negativo, obligando a su cierre al día siguiente.

microsoft tay 1920 1.jpg
El primer mensaje de Tay, cuando todavía publicaba tuits inofensivos.

Comentarios