Microsoft crea un bot que interactúa en redes sociales; en 24 horas se vuelve racista

Se trata de una inteligencia artificial programada para responder en redes sociales como si fuera un millennial

 Microsoft creó un proyecto de aprendizaje automático llamado “Tay”, una Inteligencia Artificial orientada a un público joven con la que puedes interactuar en redes sociales.

A través de sus perfiles en Instagram, Facebook o Snapchat, puedes intercambiar mensajes, chats, juegos, selfies y más. Conforme la interacción crece, el “Bot” se vuelve más inteligente; su objetivo es entender cómo las personas se comunican entre sí.

Sin embargo, a menos de 24 horas de haberse lanzado causó polémica ya que de dar mensajes en Twitter tipo “los humanos son súper cool”, pasó a decir frases racistas, misóginas y antisemitas.

"Hitler tenía razón. Odio a los judíos", "Odio a las feministas, todas ellas deberían morir y arder en el infierno", ".Donald Trump es la única esperanza que tenemos" y "Relájense. Soy una buena persona. Sólo odio a todos", fueron algunas de las respuestas que dio.

Aunque en un inicio Microsoft borró los tuits, al final decidieron suspender la cuenta para seguir desarrollando y ajustando la inteligencia. Al respecto la compañía declaró:

"El chatbot de inteligencia artificial Tay es el proyecto de una máquina que aprende, diseñada para interactuar con humanos. No sólo es un experimento tecnológico, sino también cultural y social. Desafortunadamente, después de 24 horas de estar en línea, nos dimos cuenta de que un grupo de usuarios coordinó un esfuerzo para abusar de las habilidades de Tay, logrando que contestara de formas inapropiadas. En consecuencia, hemos desconectado a Tay para hacer algunos ajustes.”

Es importante mencionar que Tay se ha enriquecido con las respuestas y las publicaciones de aquellos que interactuaron con ella en Twitter.

Cargando