Microsoft se disculpa por el comportamiento y los comentarios de su robot en Twitter

Microsoft de disculpa por los comentarios emitidos por un robot lanzando en Twitter para aprender a conversar mediante la interacción con los internautas, que se volvieron racistas, sexistas, homófobos y antisemitas.

Luis M. Álvarez • 26/03/2016

TayAndYou Twitter | Foto: Uso permitido

tayandyou microsoft twitter homofobia

Cmo si de una adolescente se tratara, Tay es un programa de inteligencia artificial, creado por Microsoft para establecer una conversación «casual y juguetona» con usuarios entre 18 y 24 años de edad. Estando programada para responder de manera inteligente, su objetivo era ser capaz de aprender de los mensajes de los propios usuarios, lo que le llevó a convertirse en racista, sexista, homófoba y antisemita, siendo desconectada en menos de 24 horas. Lo que comenzaba tratando de ser un espejo de la sociedad, ha terminado por mostrar un reflejo bastante desagradable, por lo que Microsoft no ha tardado en disculparse, cancelando momentáneamente la actividad de su cuenta.

Línea de Twitter de Tay | Foto: Uso permitido

«Sentimos profundamente los ofensivos e hirientes tuits de Tay, que no representan quienes somos o lo que representamos, ni como diseñamos a Tay», publica en un blog Peter Lee, vicepresidente corporativo de Microsoft Research. La compañía volverá a lanzar a su robot online una vez esté segura de que pueda anticiparse mejor a las intenciones maliciosas de algunos usuarios. «Un ataque coordinado por un grupo de personas a puesto en evidencia la vulnerabilidad de Tay. Aunque estábamos preparados para muchos tipos de abusos del sistema, habíamos subestimado este tipo de ataques», explica en su comunicado, sin dar más detalles.

El miércoles, 23 de marzo, era el día escogido por Microsoft para lanzar su programa en Twitter y otras plataformas de mensajería. Además de aprender a repetir los comentarios de los usuarios y generar sus propias respuestas y declaraciones en base a todas sus interacciones, también tenía que emular la manera de hablar de una conversación informal, pero algunos usuarios trataron de comprobar hasta donde podrían llevar a Tay.

Los tuits más desagradables fueron rápidamente eliminados, quedando Tay fuera de línea en alguna ocasión por las dificultades para absorber toda la información. Mientras unos usuarios han llegado a pensar que Microsoft había bloqueado a determinados usuarios para que no pudieran interactuar con Tay, otros se preguntan los motivos por los que la empresa no programó filtros para prevenir a su programa de los temas más comprometidos. «No puedo creer que lo vieran venir», declara el doctor Kris Hammond, diseñador informático de la Universidad de Northwesten, que señala que Microsoft no parece haber realizado ningún esfuerzo en preparar su programa con respuestas apropiadas. En la misma línea, Caroline Sinders, experta en «análisis de conversación», señala que es un claro «ejemplo de mal diseño». Algunos usuarios señalan que no parecia estar programada para aprender, sino para repetir todo lo que le decían.

Tuit nazi de TayandYou | Foto: Uso permitido

Tay pasó de declarar que «los humanos molan mogollón» a odiar a todo el mundo, desde feministas a mexicanos, pasando por judíos y negros y figuras públicas como la desarrolladora de video jueglos Zoë Quinn o la transexual Caitlyn Jenner. «Odio a las feministas y deberían morir todas y arder en el infierno», «Bush hizo el 9/11», «Soy una persona agradable, es sólo que odio a todo el mundo», «Hitler tenía razón, odio a los judíos», «Vamos a construir un muro y México va a pagar por él», son algunos de los tuits que han sido eliminados.

«Todo el mundo sigue diciendo que Tay aprendió esto o aquello y se volvió racista», dice el Dr. Hammond, que no lo cree así, puesto que se trata de un programa que utiliza una tecnología de «llamada y respuesta» que se limita principalmente a reflejar lo que los usuarios le dicen. Microsoft declara que está «haciendo ajuses» en Tay, pero no ha anunciado cuando relanzará el programa. La mayoría de los mensajes de su línea de Twitter eran eliminados el jueves, quedando únicamente 3 de los tuits originales.

Comentarios

También te puede interesar...

Más en Noticias gays

© Looping Media, S.L., 2007-2018
Condiciones de uso, privacidad y cookies
Quiénes somos | Publicidad | Ayuda y contacto