Microsoft se disculpa por conducta racista de su Inteligencia Artificial

Microsoft se disculpa por conducta racista de su Inteligencia Artificial

Microsoft publica una disculpa oficial sobre el incidente y revela la historia detrás de Tay.

Peter Lee, vicepresidente corporativo de la unidad de investigación de Microsoft ha publicado una disculpa oficial sobre el incidente de Tay, su bot con inteligencia artificial que se desarrollaba a partir de la interacción con otros usuarios,  y que terminó convirtiéndose en una entidad racista, antifeminista y de ética cuestionable en menos de un día.

Tay, el chatbot femenino de conversación, cuya personalidad buscaba emular a una joven millennial de entre 18 y 24 años de edad, fue eliminada de la internet a menos de 24 horas de su activación, tras la evolución de sus respuestas con una cuestionable y marcada inclinación a interactuar como una persona racista y de bajo criterio. Ahora Microsoft ha salido a ahondar un poco más sobre los motivos de esta indeseada transformación.

Lee afirma que Tay en realidad es la derivación de un experimento realizado previamente en China por este mismo equipo, donde su inteligencia artificial XiaoIce había sido capaz de sostener más de 40 millones de conversaciones sin incidente alguno, lo que llevó a la gente de Microsoft a desarrollar a Tay bajo el objetivo de lanzarla en un entorno sociocultural distinto al oriental.

Por desgracia, el ejecutivo afirma que la construcción de respuestas de Tay se basa en buena medida a partir de la interacción con los usuarios, y si éstos manipulan las conversaciones, preguntas y afirmaciones para encausar una reacción negativa, de modo que Tay no puede distinguir la prudencia de sus respuestas.

Tay tuiteó palabras e imágenes tremendamente inadecuadas y reprobables. Asumimos toda la responsabilidad por no haber visto esta posibilidad antes de tiempo. Tomaremos esta lección, así como las de China, Japón y EE.UU. como un elemento para mejorar. Justo ahora, estamos trabajando duro para hacer frente a la vulnerabilidad específica a la que Tay fue expuesta.

Para Microsoft el incidente con Tay fue producto de un ataque, pero también resulta reprochable su descuido y falta de previsión. En esta ocasión se trató de un divertido experimento social que terminó de muy mala forma, pero en el futuro deben ser más cuidadosos con las posibles aplicaciones de sistemas de Inteligencia Artificial.

 

Opinar es gratis, como siempre. No olviden seguirnos y comentar en Facebook.