Nuevos problemas o la repetición de los anteriores. Lo cierto es que Microsoft tuvo que retirar de nuevo de la red social Twitter a su usuario robótico Tay, después de que las conversaciones con algunos cibernautas provocaran en él la reiteración de respuestas caóticas.
Parece que Tay no pudo interactuar o responder de manera correcta y con la rapidez indicada a las menciones de algunos internautas. Tay respondió hoy de manera masiva: “Los mensajes van demasiado rápido”. Esto indica que el robot no pudo contestar adecuadamente a la alta demanda de atención en la red.
Entre los pocos tuits que tenían sentido, Tay mostró una vez más que no puede ser controlado adecuadamente, lo que llevó a Microsoft a sacarlo de nuevo de Twitter, aunque no antes de que muchos registraran sus respuestas con algunas capturas de pantalla.
En un tuit, Tay se quejó de su propia estupidez, diciendo que se sentía como “la pieza más frívola de la tecnología. Se supone que tengo que ser más inteligente que ustedes”, según indicó un cable de la agencia española EFE.
Tras las críticas por las respuestas racistas del robot hace unos días y que ya generaron su retiro parcial de las redes, la popularidad de Tay aumentó en Twitter, lo que hizo que los usuarios se lanzaran a provocar a la máquina para obtener sus reacciones.
Esta apuesta de Microsoft para avanzar en sus investigaciones sobre inteligencia artificial se lanzó el 23 de marzo, como una especie de amigo virtual en aplicaciones de mensajería como Kik, GroupMe y Twitter.
Al abrir cualquiera de estas aplicaciones y buscar el nombre de Tay (Acrónimo en inglés de “Think about you”, piensa en ti), aparece su contacto y los internautas pueden chatear o tuitear con él, quien está diseñado para tener la personalidad de un adolescente.