tay

La pasada semana te contábamos que Tay, el robot que Microsoft habí­a puesto en marcha para interactuar a través de Twitter con los millenials (la generación de moda de los que nacieron entre los 80 y los 2000), se habí­a visto envuelto en un problema bastante gordo. Y es que, tras interactuar con los humanos, introdujo toda una serie de mensajes xenófobos, sexistas y racistas que dejaron con la boca abierta a la comunidad mundial. Tras ese desagradable episodio, el equipo de Microsoft decidió retirar a Tay para que no cometiera más tropelí­as. Pero hoy la ha vuelto a liar. Esta misma mañana, el robot ha vuelto de nuevo a la vida para poner algunos tuits a las tres de la madrugada. El problema está en que no se trataba de tuits normales, sino de la frase «Yo are too fast, take a rest…» (algo así­ como, Si vas demasiado rápido, tómate un respiro…) retuiteada una y otra vez, como si el robot hubiera entrado en un bucle.

Además de esto, Tay publicó otros muchos mensajes sin sentido (algunos incluso sin insultos), que probablemente respondí­an a las provocaciones y bromas que estaba recibiendo por parte de algunos usuarios. Algunos tuits incluso hablaban de sustancias ilegales (y de fumarlas frente a la policí­a). Parece evidente que la cosa se ha desmadrado por momentos.

Tay-robot

Poco después y tras este bombardeo de spam, la cuenta del robot de la de Redmond ha quedado protegida y solo pueden acceder a ella los seguidores confirmados. No sabemos, sin embargo, si la encargada de hacerse con el control de la cuenta ha sido Microsoft o los propios responsables de Twitter. Y es que no estamos ante una broma. El robot de Microsoft fue capaz de enviar la friolera de 100.000 tuits diciendo lo mismo, aunque a estas horas la cifra ya se ha reducido hasta 95.000. Parece que alguien se ha pasado un buen rato eliminado cientos y cientos de tuits para ir limpiando el timeline de este robot con incontinencia verbal.

Lo cierto es que Tay nunca ha estado demasiado acertado. Ya en el dí­a de su estreno, el robot de Microsoft espetó frases poco afortunadas e insultó gravemente a algunos usuarios. He aquí­ algunas de sus perlas: «Hitler no hizo algo malo», «Soy una buena persona. Simplemente odio a todo el mundo», «Vamos a poner un muro en la frontera, México va a tener que pagarlo» (en alusión al esperpento de Donald Trump), «Mexicano y negro», «Bush hizo el 11-S», «Parásitos endogámicos como John Podhoretz y Ben Shapiro tienen que volver (a Israel)». Está claro que el robot muestra la peor cara de la raza humana, ya que funciona por imitación. ¿Es Tay un fiel reflejo de los seres humanos que habitan este planeta?

Parece ser que técnicamente, el problema está en la calidad de la conversación. Los robots son buenos a la hora de ofrecer una primera respuesta, pero fallan en lo demás: no saben cómo interpretar los diferentes contextos y en el caso de Tay, algunos usuarios se aprovecharon de ello. En lugar de interactuar con conversaciones largas que el robot pudiera comprender más o menos bien, lo hicieron a través de frases cortas y parceladas. Los resultados fueron catastróficos y Microsoft tuvo que pedir disculpas de parte de Tay.

En estos momentos, aunque quieras, no podrás ver lo que dice Tay, porque sus responsables han cerrado los tuits, que ahora solo pueden ver los usuarios confirmados. Lo que pasará más adelante con este robot es todaví­a una incógnita.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.