Tay: la inteligencia artificial de Microsoft que se volvió racista en 24 horas

Por en Inteligencia Artificial

El experimento del 'chatbot' desarrollado por la empresa sonaba interesante hasta que algunos de sus comentarios comenzaron a ofender a los usuarios.

Inscríbase en nuestros newsletters

Microsoft lanzó un proyecto basado en inteligencia artificial, bautizado Tay, cuya tarea principal era poder interactuar con usuarios en redes sociales usando un lenguaje como el que emplearía un millennial de carne y hueso.

Sin embargo, Microsoft tardó más en crear los perfiles de 'Tay' en Instagram, Facebook y Snapchat, que en desactivarlo debido a sus incómodos comentarios racistas.

Se supone que el robot digital debía chatear con los usuarios, hacerlos reir, decirles su horóscopo... pero en su lugar comenzó a lanzar comentarios racistas en Twitter.

El experimento del 'chatbot' sonaba interesante hasta que algunos de sus comentarios comenzaron a ofender. Los tuits ya fueron eliminados de la cuenta @TayandYou, pero algunos usuarios tienen capturas de pantalla que comprueban comentarios como los siguientes:

"Odio a los feministas y todos deberían morir y arder en el infierno" y "Hitler tenía razón, odio a los judíos".

La razón de esto es que el software está programado para asimilar y aprender de los mensajes que recibe de los usuarios y para mala suerte de Microsoft, Tay fue objetivo de tuiteros que la incitaron a defender el racismo.

Es importante destacar que el proyecto sólo pretendía aprender de las conversaciones de los usuarios, en realidad Tay no tiene conciencia de lo que es el racismo o si está correcto lo que dijo, así que los tuits son sólo reflejo de los lamentables mensajes de los tuiteros.

Uno más de los mensajes borrados fue una respuesta a un tuit que le solicitó propaganda a favor de Donald Trump, que decía: "Vamos a construir un muro y México va a pagar por ello"

Comentarios