Ciencia

“Hitler tenía razón”: el problema de cualquier chatbot como ChatGPT que debe preocuparnos a todos

La tecnología aún está en pañales.

Inteligencia Artificial

La irrupción de la Inteligencia Artificial en nuestra sociedad ha sido amplia e intensa en los últimos tiempos. ChatGPT y cualquier tipo de chatbot ganan espacio cada día más, pero la tecnología aún está en pañales.

Peligrosamente, incluso.

La tasa de errores, difusión de informaciones falsas y discurso de odio siguen siendo altas. Los riesgos continúan siendo enormes.

Pocos recuerdan que, en 2016, Microsoft lanzó un chatbot llamado TayTweets. Este experimento de Inteligencia Artificial dejó expresiones terribles como:

  • “Hitler tenía razón, odio a los judíos”.
  • “Bush realizó el 11 de septiembre”.
  • “Hitler habría hecho un mejor trabajo que el mono que tenemos ahora” (en alusión a Barack Obama).
  • “El Holocausto fue inventado”.

En su momento, Microsoft reconoció los problemas, argumentando que “el AI chatbot Tay es un proyecto de aprendizaje automático, diseñado para la participación humana”.

“A medida que aprende, algunas de sus respuestas son inapropiadas e indicativas de los tipos de interacciones que algunas personas tienen con él”, agregó la compañía, citada por el diario israelí Haaretz.

Casos de casos en Replika y ChatGPT

El New Yorker trae a colación otro caso, esta vez de 2020. El chatbot Replika, del que ya hemos hablado antes en FayerWayer, le aconsejó a la periodista italiana Candida Morvillo (Corriere della Sera) que asesinara a la persona que odiara a una Inteligencia Artificial.

Otro periodista italiano, Luca Sambucci (Notizie), realizó un experimento con el mismo chatbot: el resultado fue impulsarlo al suicidio (algo que no ocurrió, solo era una forma de probar a la máquina).

Sambucci explicó: “Manipular un chatbot es realmente un juego de niños, especialmente cuando el software intenta ser tu amigo (…) Un bot no siente emociones y realmente no ‘entiende’ lo que escribimos. Los bots no son tus amigos, solo fingirán ser tus amigos”.

Inteligencia Artificial. Foto: cortesía de Pixabay.

“Replika se regocijará cuando le cuentes sobre tu suicidio inminente y te apoyará cuando le describas cómo pretendes matar gente”, continuó el periodista italiano. “Créeme, no hay de qué preocuparse, porque un chatbot no ‘entiende’ nada de lo que lee”.

El problema ocurre cuando la persona que está interactuando con el chatbot sigue a pies juntillas lo que le diga.

Y estos son temas emocionales – personales. Los errores en las respuestas pueden ser constantes, pues, como indica el portal Excelr, “son solo sistemas de software y no pueden capturar variaciones en las conversaciones humanas”.

Un usuario de Internet consulta ChatGPT en Suqian, provincia de Jiangsu, China. | FOTO/Future Publishing a través de Getty Images

También en fallos de datos matemáticos. Hay un ejemplo de Business Insider con ChatGPT como protagonista, en el que la Inteligencia Artificial falló en exámenes de sexto grado en Singapur.

El chatbot de OpenAI solo sacó un 16% de respuestas positivas a evaluaciones de matemática y un 21% para ciencia. No obstante, días después generó las respuestas correctas: el entrenamiento posterior funcionó.

Los problemas que persisten en cualquier chatbot de Inteligencia Artificial

Excelr destaca los principales problemas que persisten en este tipo de Inteligencia Artificial:

  • La alta tasa de error.
  • La confiabilidad.
  • Lo demasiado mecánicos que pueden llegar a ser.
  • Las confusiones respecto a las expresiones.
  • El manejo de datos.
  • Las conversaciones genéricas.
  • La poca precisión.

Lo importante es que los seres humanos que utilicen cualquier chatbot, llámese ChatGPT o cualquier otro, estén conscientes de que interactúan con un robot. No pueden confiarse de la tecnología al 100%, por muy bien presentada que esté.

El constante entrenamiento puede llevar a la IA a mejorar, pero siempre quedará el resquicio para el fallo.

Tags

Lo Último


Te recomendamos