Tay, el #EpicFail de Microsoft

La inteligencia artificial no es tan inteligente que digamos, especialmente si dicen que es millenial… (y si piensa como Donald Trump, ¡peor!).

La empresa de la ventana, muy segura de sí, lanzó un proyecto al que llamó Tay, le abrió cuentas en redes sociales y dejó que aprendiera de todo lo que estaba sucediendo en la red para así, más adelante, comunicarse con la gente.

Todo iba taaaaaan bien, Tay estaba tan cool y usaba un lenguaje muy de millenial. Compartía horóscopos, chistes y platicaba con los usuarios hasta que algo sucedió y simplemente comenzó a lanzar comentarios racistas… ¿eres tú, Donald?

Desde comentarios contra feministas hasta xenófobos, Tay pasó de ser el amigo buena onda de la internet para convertirse en ese amigo incómodo que arruina la fiesta con sus comentarios.

¿Cómo pasó esto? Fácil… ¡POR QUÉ NO TIENE SENTIMIENTOS! (casi igual que mi ex). ¡Ah!, no es cierto. Microsoft comentó que Tay estaba programado para aprender y asimilar el lenguaje según lo que recibía de otros usuarios y, como era de esperarse, su cuenta de Twitter @TayAndYou fue objeto de incitaciones que lo llevaron a publicar esas barbaridades.

Ven, por eso el internet no avanza, amigos. Puros errores con su lenguaje.