Microsoft hace de nuevo el ridículo con Tay, la inteligencia artificial que se vuelve racista y misógina

Escrito por Roberto Adeva
Software

La semana pasada Microsoft ponía en funcionamiento un chatbot o sistema virtual capaz de generar conversaciones que simulan el lenguaje humano que ha sido diseñado por la propia compañía para contestar preguntas y establecer conversaciones a través de la red social Twitter con un público entre los 18 y los 24 años.

Pocas horas después de haberse puesto en marcha Tay, que es como ha sido bautizado este robot, la compañía tuvo que proceder con su retirada debido al comportamiento que tomó y los mensajes publicados con contenido racista, sexista y xenófobo.

Robot Tay

Lo cierto es que Tay había sido diseñado para ser más inteligente a medida que un mayor número de usuarios interactuaban con él, pero sorprendentemente, esa “inteligencia” fue desarrollada para aprender y repetir una serie de comentarios antisemitas, sexitas, que incitan al odio y al racismo y que sorprendieron y mucho a los usuarios de Twitter.

Este comportamiento provocó que Microsoft tuviera que tomar la decisión de desactivarlo, expresando a continuación sus disculpas por los mensajes generados por el robot y procedió a borrar una serie de publicaciones de mal gusto realizadas por Tay en la red social.

Tuit Tay

Pues bien, después de la bochornosa situación vivida hace unos días, Microsoft decidió reactivar a Tay la pasada noche y aunque parece que su comportamiento ha cambiado, lo cierto es que ha vuelto a ser un nuevo fiasco para la compañía puesto que vuelve a mostrar problemas.

En esta ocasión, el problema está en que el robot parece entrar en un bucle de respuestas en el momento que alguien intenta interactuar con él demasiado. Una medida que aparentemente podría estar diseñada para evitar ser atacado por mensajes de spam, pero que sin embargo está haciendo que cuando cualquier persona trata de interactuar con Tay en diversas ocasiones, entre en un bucle de respuestas con el mismo mensaje, “Eres demasiado rápido, por favor haz un descanso…”.

Bucle mensajes Tay

Esto no hace otra cosa que confirmar los problemas que Microsoft tiene con el desarrollo de su proyecto de inteligencia artificial que ha tenido que volver a desactivar aunque en esta ocasión la compañía no ha salido a la palestra para emitir un comunicado en el que indique que a pesar de haber relanzado a Tay, poco después ha tenido que volver a proceder con su eliminación por no ofrecer respuestas acorde a las preguntas a cambio de entrar en un bucle de respuestas.

Quizás te interese…

Microsoft cancela Fable Legends y siembra de nubarrones el futuro de Xbox One

Un fallo de seguridad permite hackear teclados y ratones de Microsoft, HP y Logitech

Esta es la nueva estrategia de Microsoft para que actualicemos a Windows 10

Fuente > Business Insider

Continúa leyendo
Comentarios
5 comentarios
  1. Anónimo
    Usuario no registrado
    30 Mar, 16 3:05 pm

    Hace 3 días de esto, vais un poco retrasados eh.

  2. Anónimo
    Usuario no registrado
    30 Mar, 16 3:18 pm

    lo que hace escribir sin saber, microsoft no ha hecho ningun ridiculo, como buen IA ha aprendido de los tuits que recibia, y tras un acoso de trolls la IA aprencio lo que habia visto y se comporto como los trolls la habian “educado”

    Yo diria mas bien todo un acierto al diseñar la IA y que haya aprendido, la pena es que los maestros fuesen trolls.

    Un buen ejemplo de como aprende las IA se ve en chappie cuando el creador inenta que sea bueno y creativo y el otro que sea violento.

    Pero vosotros con tal de despotricar de MS y ganar visitas lo que sea.

  3. luismg
    Usuario no registrado
    30 Mar, 16 3:23 pm

    La ia aprende de los imputs de mierda que le llegan es como malcriar a un niño en modo rápido

  4. Anónimo
    Usuario no registrado
    31 Mar, 16 10:00 am

    es como un niño que solo lee cosas de adslzone sin probar nada. Estaria convencido que todos tenemos 300 megas simétricos con telefonica desde febrero, que microsoft es la gran enemiga de la humanidad y que windows10 te va a robar a tu madre para que ya no te haga mas croquetas 😛

  5. Mierda de titulares
    Usuario no registrado
    31 Mar, 16 11:32 am

    ADSLzone hace de nuevo el ridículo con sus redactores. La inteligencia de sus miembros es artificial, se vuelven haters de MS y les da por la necrofilia al tirarse el cadáver de Jobs.