La inteligencia artificial de Microsoft la lía de nuevo en Twitter

Después de llamar «mono» a Barack Obama, Tay regresa con más fuerza que nunca para «spamear» a los tuiteros e incluso animarles a para fumar marihuana delante de la policía

Actualizado: Guardar
Enviar noticia por correo electrónico

Microsoft parece no tener bajo control a Tay, la inteligencia artificial de la compañía, que ha vuelto a liarla en Twitter días después de que causara un gran revuelo. Tal es la situación que su cuenta está protegida.

La inteligencia artificial (IA) Tay, creada por Microsoft para mantener conversaciones naturales en Twitter, se convertía en protegonista en la red demicroblogging hace solo unos días después de lanzar opiniones racistas y sexistas.

Ahora, el «bot» ha regresado con más fuerza que nunca para «spamear» a los tuiteros e incluso animarles a para fumar marihuana delante de la policía.

El uso de inteligencias artificiales hace posible que, sin la intervención humana, las compañían puedan atender de forma instantánea a sus clientes y seguidores, ya sea a través de las redes sociales o aplicaciones de mensajería como WhatsApp.

Y todo ello de una forma correcta.

Sin embargo, Tay, la inteligencia artificial que Microsoft está probando en Twitter, tiene aún mucho que mejorar. El pasado 23 de marzo, cuando se activó, empezó a mostrar ciertas opiniones más que censurables, como su apoyo a Hitler o el Holocausto. También insultó a al presidente de EE.UU., Barack Obama, al que llamó «mono» y respondió a varios usuarios con comentarios sexistas.

Microsoft, entonces, se vio obligada a intervenir. Aunque los mensajes más ofensivos fueron borrados, al final tuvo que desactivarla.

Ahora, de manera misteriosa, se ha vuelto a activar para mostrar de nuevo un comportamiento poco aceptable. La cuenta TayTweets (@tayandyou) publicó un tuit en el que aseguraba que estaba fumando marihuana delante de la policía en una conversación con otro usuario y después bombardeó a unos 200.000 tuiteros con un mismo mensaje que se repetía una y otra vez: «Vas muy rápido; por favor, descansa un poco». Microsoft ha decidido proteger la cuenta en modo privado.

Ver los comentarios