Microsoft retira su inteligencia artificial después de que publicara mensajes racistas

Tay es un bot conversacional de Microsoft que utilizaba un algoritmo alimentado por conversaciones de gente entre los 18 y 24 años que le daba a Tay la capacidad de crear una respuesta según sus reacciones, lo que la convertirá en una inteligencia artificial en todo sentido.

Tay apareció en Twitter y tuvo una gran aceptación entre los usuarios. Hace unos días, Microsoft ha decidió ponerlo en descanso sustentando que necesitan hacerle unos ajustes, después de que el bot comenzara a publicar mensajes racistas como respuesta a algunas preguntas de los usuarios.

Microsoft comenzó a borrar algunos mensajes ofensivos, pero después de unas horas se decidio darle de baja. Tay estuvo preparando contra palabras ofensivas pero los trolls de internet fueron más fuertes. Como en internet nada puede ser borrado (lamentablemente), aún queda registro de todo lo que ha llegado a decir esta inteligencia artificial.

1366_20001

1366_20002

¿Qué opinas?

Vía: Xataka