Ciencia

Inteligencia Artificial y el caso Albert Einstein: Cómo ChatGPT genera informaciones falsas por alucinaciones

La tecnología aún necesita mucho para desarrollarse.

Albert Einstein

Si bien la Inteligencia Artificial se ha constituido como una de las tecnologías más importantes de la actualidad, tiene todavía mucho camino por recorrer. Chatbots como ChatGPT, de OpenAI, son susceptibles de generar informaciones falsas debido a las llamadas alucinaciones.

Las alucinaciones son informaciones arrojadas por el sistema, escritas de forma coherente, pero con datos errados o sesgados.

Unión-Europea-normas-para-restringir-inteligencia-artificial

El periodista y editor de tecnología Pablo Wahnon, de Forbes, realizó una prueba con la IA de ChatGPT. Lo hizo basado en su conocimiento al dedillo sobre Albert Einstein, el gran científico del siglo XX.

Wahnon se basó en un episodio de la vida de Einstein: su viaje a Argentina en 1925.

Einstein es uno de los personajes más populares de la historia, y sobre él se han escrito incalculables textos en línea, por no hablar de los libros. Pero, ¿estaba preparada ChatGPT para este reto?

Las alucinaciones de la Inteligencia Artificial ChatGPT sobre Albert Einstein

El editor le pregunta a la IA sobre el dato más curioso entre George Friedrich Nicolai y Albert Einstein. Nicolai fue un médico y físico alemán, que junto con Einstein y otros intelectuales se opuso a la participación de su país en la Primera Guerra Mundial, firmando un manifiesto por la paz.

Por su posición debió huir de Alemania, terminando en Sudamérica, donde moriría en Chile a los 90 años.

Cuando Wahnon esperaba la respuesta de ChatGPT, se consiguió con una de sus famosas alucinaciones. La Inteligencia Artificial habló sobre la amistad entre Einstein y Nicolai, pero dando una información falsa sobre el vínculo, al confundir a Einstein con su hijo Eduard.

“Aparentemente, Nicolai intentó convencer a Einstein de que se sometiera a una cirugía cerebral para tratar su depresión. Sin embargo, Einstein rechazó la idea y decidió seguir un tratamiento más conservador”, fue parte de la respuesta del chatbot.

El periodista le hace saber a ChatGPT que Eduard, y no Albert, es el protagonista de esa anécdota.

“Tiene razón, me disculpo por el error en mi respuesta anterior”, respondió la IA. No obstante, incurrió en otra información falsa: según el chatbot, Nicolai atendió a Eduard en Suiza en 1930. En realidad, el médico ya estaba en Sudamérica en ese entonces, algo que explica Wahnon.

Tras disculparse de nuevo, emitió otro dato errado.

La respuesta que quería el periodista de Forbes era el famoso manifiesto contra la guerra, que puede encontrarse fácilmente en los buscadores. Pero al no tener acceso a ellos, ChatGPT difunde las informaciones falsas.

El texto completo de preguntas y respuestas puedes encontrarlo aquí.

Cuidado con confiar ciegamente en IA como ChatGPT

Wahnon llegó a una conclusión: “El hecho de que las respuestas sean tan precisas, con ejemplos y comparaciones, hace que las mismas sean tomadas como verdaderas. Muchas de ellas, incluso, serían tomadas como verídicas por un público con muchos conocimientos tanto de ciencia como de Einstein”.

“La Inteligencia Artificial generativa es capaz de confundir a expertos, y aún más si no utilizan Google”, recalcó el investigador.

De allí a que tecnologías como Google Bard, que tiene acceso directo al buscador y ofrece las referencias a las informaciones, sean mucho más certeras que ChatGPT.

Tags

Lo Último


Te recomendamos