Robótica

Corrompen al chatbot de Microsoft y despiertan su islamofobia

¿Recuerdan cuando la inteligencia artificial de Microsoft, Tay, resultó ser racista luego de interactuar un rato con la raza humana? Pues resulta que a su sucesora, Zo, le acaba de suceder algo similar y los culpables fueron los ilustres editores de Buzzfeed.

Pero luego, de repente, soltó un par de comentarios contra el Corán y el desempeño del gobierno en la captura de Osama Bin Laden:

Publicidad

En mayor o menor medida se podría argumentar que Buzzfeed corrompió a Zo, pero lo cierto es que la plataforma que dio origen a Tay aún se encuentra en una etapa endeble y sería muy fácil hacerla decir declaraciones controvertidas.

Luego de esta revelación el destino de Zo es incierto.

Tal vez Microsoft debería dejar de hacer bots millennials.

Publicidad
Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último