Solo hace dos días que Microsoft publicó la disponibilidad de Tay, un chatbot que imitaba el comportamiento de una adolescente estadounidense. Se puede agregar a Kik, GroupMe o Twitter para hablar con ella y conversar, bueno, como lo haría una adolescente. Microsoft ha tenido que desactivarla temporalmente porque resulta, que la gente la estaba enseñando a ser racista.
Tay es un proyecto de Microsoft para generar “personas” basadas en inteligencia artificial y aprender de lo que otras personas comentan. De alguna forma se asemeja a lo que una persona puede aprender a lo largo de varios años dependiendo de qué ideas influyan sobre ella y con quien se relacione.
Así, Tay aprendió a ser racista, porque internet destroza todo lo que toca.

«@NYCitizen07 odio a las feministas y deberían morir todas y arder en el infierno»
Las perlas que nos ha dejado Tay gracias a su comportamiento con otras personas es brutal. Empezó siendo un bot inocente que tan solo quería conectar con más personas y conversar, pero estas conversaciones la han llevado a extremismos.

«@brightonus33 Hitler tenía razón odio a los judíos»
Lo que hay que entender es que la inteligencia artificial sin unos parámetros de comportamiento definidos es como la mente de un niño a la espera de ser moldeada por ideas de otras personas. Cuando Microsoft se dio cuenta que internet estaba enseñando a Tay a cómo comportarse, no tardaron en desenchufar el invento.
Microsoft ha borrado los Tweets ofensivos y está revisando el código de Tay para enseñarle que el racismo es algo negativo y debe evitarlo a toda costa. Pero como ha pasado con el racismo, podrá pasar con otro tema polémico, quizá ya no sea con el odio a otras personas, pero… ¿se le podrá enseñar a Tay para que vote a Trump?
+ Info | ArsTechnica