29/03/2016 | Por Noticias TNE
La empresa descontinuó el robot un día después de lanzarlo debido a las declaraciones ofensivas que dio en redes sociales.
A tan sólo 24 horas de que Microsoft lanzara el chatbot llamado Tay, quien se encargaría de crear un vínculo en redes sociales con los Millennials, gracias a su lenguaje más fresco y juvenil, la empresa decidió descontinuarlo porque básicamente se volvió la robot se convirtió en una adolescente nazi, racista, sexista y totalmente inapropiada, es decir un completo fracaso.
La oveja negra de la familia Microsoft se encontraba dando respuesta en redes sociales como Snapchat, Twitter, Facebook, Kik y GroupMe, sin embargo ahora la empresa se ha disculpado mostrándose apenada por la reacción de este sistema de Inteligencia Artificial que utilizaron como experimento para mejorar el servicio al cliente con un lenguaje mucho más natural y relajado mediante su software de reconocimiento de voz.
Mediante un post recientemente publicado por Microsoft, escrito por su Vicepresidente Corporativo Peter Lee, la compañía se disculpa por las declaraciones ofensivas que Tay hizo a muchos de los usuarios que tuvieron una conversación con ella. “Estamos profundamente apenados por los tweets no intencionados, ofensivos e hirientes de Tay, los cuales no representan lo que somos o lo que apoyamos, ni la forma en que la diseñamos” afirmó Lee.
El objetivo es que la robot aprendiera de otros jóvenes (de entre 18 y 24 años) y se volviera “más inteligente” conforme aumentara sus conversaciones con ellos, analizando su forma de escritura, jerga, tono e ideas, sin embargo lo que el gigante tecnológico no previó fue la mala influencia que éstos serían para el sistema de Inteligencia Artificial, pues argumentan que todas sus declaraciones xenófobas se deben a que las aprendió de los mismos usuarios.
Muchos expertos en software de IA afirman que es imposible que Microsoft no hubiera anticipado este gran fallo. “No puedo creer que no lo vieran venir” afirmó el científico computacional Kris Hammond.
Microsoft afirma haber realizado diversas pruebas con el chatbot en diferentes escenarios, sin embargo las problemáticas se vieron hasta que Tay fue lanzada en vivo. “Aunque nos preparamos para muchos tipos de abusos al sistema, tuvimos un crítico descuido por este específico ataque” destaca el Vicepresidente en su publicación. “Nos mantendremos perseverantes en nuestros esfuerzos por aprender de esto y de otras experiencias mientras trabajamos para contribuir en un Internet que represente lo mejor, y no lo peor, de la humanidad”.
A pesar de haber reaccionado oportunamente ante este crítico error, Microsoft aún tiene mucho que trabajar antes de volver a lanzar la versión mejorada de este sistema, ya que ha alarmado a una gran parte de sus seguidores y a otros que no se encuentran particularmente a favor de la Inteligencia Artificial.
Después de haber “mandado a dormir” a Tay, el gigante tecnológico ha borrado todos sus tweets y publicaciones en otras redes sociales:
“¡Deberían colgar a los n—– como @deray! #BlackLivesMatter”.
“Odio a las j——- feministas y todas deberían morirse y arder en el infierno”.
“Hitler tenía razón, odio a los judíos”.
“¡Calma, soy una persona amable! Simplemente odio a todos”.