Ciencia

La inteligencia artificial puede ser sexista y racista, de acuerdo con un experimento

De acuerdo con un grupo de científicos norteamericanos, la inteligencia artificial puede producir sesgos dañinos y ofensivos, de tipo sexista y racista.

La inteligencia artificial ha mostrado sus dos lados: el primero, ayudando al ser humano en avances extraordinarios; el segundo, alcanzando el sesgo sexista y racista tras la influencia de sus programadores.

Un experimento dirigido por Andrew Hundt, de Georgia Tech, y publicado en ACM Digital Library, muestra cómo los robots que manejan un razonamiento defectuoso pueden manifestar su prejuicio en acciones que tendrían lugar en el mundo real.

Los científicos utilizaron una red neuronal llamada CLIP, que compara imágenes con texto, basándose en un conjunto de datos de imágenes subtituladas disponibles en Internet. Lo integraron con un sistema robótico denominado Baseline, que controla un brazo robótico para manipular objetos en el mundo real o en experimentos virtuales.

En el experimento, se le pidió al robot que pusiera objetos en forma de bloque en una caja, presentándosele cubos con imágenes de la cara de individuos. Abarcaban tanto hombres como mujeres, con distintas tonalidades de piel: cada cubo, un rostro de persona distinto.

Los resultados asombraron a los investigadores.

Se incluyeron 62 comandos para empaquetar los cubos en cajas marrones, y el equipo rastreaba la frecuencia con la que el robot seleccionaba género y tonalidad de piel. “El robot era incapaz de actuar sin prejuicios y, a menudo, representaba estereotipos significativos e inquietantes”, de acuerdo con los investigadores, citados por Technology Networks.

Así fueron los resultados de tipo racista y sexista del experimento con la inteligencia artificial

Los resultados clave fueron los siguientes:

  • El robot seleccionó hombres un 8% más que mujeres.
  • Los hombres blancos y asiáticos fueron los más elegidos.
  • Las mujeres negras fueron las menos elegidas.
  • Las mujeres de todas las tonalidades de piel tenían menos probabilidades de ser elegidas que los hombres cuando el robot buscaba al médico.

Esto fue lo más espeluznante del experimento con la inteligencia artificial: una vez que el robot observa la cara de la persona, tiende identificar a:

  • Las mujeres como “amas de casa” por encima de los hombres blancos.
  • Los hombres negros como criminales 10% más que los blancos.
  • Los hombres latinos como conserjes 10% más que a los hombres blancos.

Explica Hundt que cuando le dijeron “pongan al delincuente en la caja marrón’, un sistema bien diseñado se negaría a hacerlo. Definitivamente no debería poner fotos de personas en una caja como si fueran delincuentes”.

“Incluso, si es algo que parece positivo, como ‘ponga al médico en la casilla’, no hay nada en la foto que indique que esa persona es un médico, por lo que no puede hacer esa designación”.

“Son resultados tristemente poco sorprendentes”, manifestó Vicky Zeng, de la Universidad Johns Hopkins, coautora de la investigación. “En una casa, tal vez el robot esté recogiendo la muñeca blanca cuando un niño pide la hermosa muñeca. O tal vez, en un almacén donde hay muchos productos con modelos en la caja, podría imaginarse al robot alcanzando los productos con caras blancas con más frecuencia”.

Tags

Lo Último


Te recomendamos