Ciencia

¿La inteligencia artificial está “heredando” los prejuicios humanos? Lo que piensa Bill Gates al respecto

Gates lo analiza a fondo.

Bill Gates
Bill Gates Imagen de archivo

La inteligencia artificial (IA) es una de las tecnologías más prometedoras y desafiantes de nuestro tiempo. Desde la automatización de tareas cotidianas hasta el diagnóstico médico, la IA ha demostrado su valía en una amplia gama de aplicaciones. Sin embargo, junto con sus beneficios, surgen preocupaciones sobre su capacidad para perpetuar los prejuicios humanos y generar resultados inexactos. Bill Gates ha compartido sus reflexiones sobre este tema.

PUBLICIDAD

Las alucinaciones, término utilizado para describir cuando una IA hace afirmaciones erróneas con confianza, son uno de los problemas que enfrenta la IA. El cofundador de Microsoft y filántropo destacado señala que esto a menudo se debe a que las máquinas carecen de comprensión contextual.

Por ejemplo, si le pides a una IA que planifique un viaje a la Luna, podría ofrecer una respuesta imaginativa, pero si se le pide ayuda para planificar un viaje a un destino terrestre, podría ofrecer información incorrecta.

Otro riesgo importante es que la IA puede reflejar o incluso intensificar los prejuicios ya existentes contra ciertos grupos, como género, raza o etnia. Esto se debe a cómo funcionan los modelos de IA más comunes en la actualidad, que analizan grandes cantidades de texto en línea para encontrar patrones en el lenguaje humano.

La herencia de los prejuicios

Además de las alucinaciones, las IA también pueden heredar prejuicios presentes en el texto con el que fueron entrenadas. Por ejemplo, si el texto sobre médicos mayormente menciona a médicos varones, la IA asumirá erróneamente que la mayoría de los médicos son hombres.

ChatGPT
ChatGPT (Unsplash)

Cuando se formula una pregunta a una IA, esta analiza las palabras utilizadas y busca fragmentos de texto asociados comúnmente con esas palabras. Por ejemplo, si preguntas por los ingredientes de los panqueques, la IA buscará palabras como “harina, azúcar, sal, levadura en polvo, leche y huevos”. Luego, basándose en el orden en que suelen aparecer esas palabras, generará una respuesta.

Este proceso explica por qué una IA puede experimentar alucinaciones o mostrar parcialidad. No tiene contexto para las preguntas ni conocimiento de la realidad de las situaciones.

A pesar de estos desafíos, Gates es optimista en cuanto a que se puede enseñar a las IA a distinguir la realidad de la ficción con el tiempo. Empresas como OpenAI están trabajando en abordar este problema de manera efectiva. Además, se están explorando enfoques que incorporan valores humanos y razonamiento de alto nivel en la IA, similar a cómo las personas conscientes de sí mismas reconocen sus propios prejuicios y trabajan para superarlos.

PUBLICIDAD

Recomendados:

Tags


Lo Último