Microsoft hace de nuevo el ridículo con Tay, la inteligencia artificial que se vuelve racista y misógina

La semana pasada Microsoft ponía en funcionamiento un chatbot o sistema virtual capaz de generar conversaciones que simulan el lenguaje humano que ha sido diseñado por la propia compañía para contestar preguntas y establecer conversaciones a través de la red social Twitter con un público entre los 18 y los 24 años.
Pocas horas después de haberse puesto en marcha Tay, que es como ha sido bautizado este robot, la compañía tuvo que proceder con su retirada debido al comportamiento que tomó y los mensajes publicados con contenido racista, sexista y xenófobo.
Esto no hace otra cosa que confirmar los problemas que Microsoft tiene con el desarrollo de su proyecto de inteligencia artificial que ha tenido que volver a desactivar aunque en esta ocasión la compañía no ha salido a la palestra para emitir un comunicado en el que indique que a pesar de haber relanzado a Tay, poco después ha tenido que volver a proceder con su eliminación por no ofrecer respuestas acorde a las preguntas a cambio de entrar en un bucle de respuestas.