Ciencia

ChatGPT es “peligrosamente estúpido”, dice un experto en Inteligencia Artificial: sus motivos suenan muy válidos

La Inteligencia Artificial aún se encuentra en pañales, pero su peligro es enorme, dice Gary Marcus.

Open AI

Uno de los modelos de Inteligencia Artificial más populares en la actualidad es ChatGPT. Desarrollado por la empresa OpenAI, es un sistema de chat con más de 175 millones de parámetros, usando algoritmos que abarcan desde la traducción hasta la generación de texto.

Su grado de evolución genera todo tipo de opiniones, por la capacidad de dar respuestas completísimas. Pero investigadores como Gary Marcus encienden las alarmas: ChatGPT es “peligrosamente estúpido”.

La expresión la utilizó en una entrevista con el portal español El Confidencial.

Pero, ¿quién es Gary Marcus y por qué considera una estupidez el chat de Inteligencia Artificial de OpenAI?

Gary Marcus, investigador

Nacido en Baltimore, Estados Unidos, en 1970, Marcus investiga en el marco de la psicología, enfocándose en lenguaje, biología y mente. Ha escrito libros como The Algebraic Mind: Integratind Connectionism and Cognitive Science (2001) y Kluge: The Haphazard Construction of the Human Mind (2008), entre otros.

Psicólogo y científico de Inteligencia Artificial Gary Marcus

En la actualidad, además de trabajar con investigaciones sobre Inteligencia Artificial, es profesor en el Departamento de Psicología de la Universidad de Nueva York y es director del NYU Center for Child Language.

Marcus ha visto caer varios de estos chats de Inteligencia Artificial, como Galactica (Meta) y Tay (Microsoft). Con el ascenso de ChatGPT considera: “Funciona mejor, va a tener un impacto en la sociedad, pero tenemos el mismo problema: es un sistema peligrosamente estúpido”.

“Para el usuario medio no es fácil distinguir cuán inteligente es uno de estos sistemas (de Inteligencia Artificial General), pero ChatGPT no soluciona ninguno de los problemas básicos”.

Los problemas de la Inteligencia Artificial de ChatGPT

El investigador apunta a tres situaciones:

  • No es muy fiable, ya que “para una misma pregunta, a veces da información correcta, otras veces no”.
  • Sus alucinaciones, inventándose información, “y no hay ninguna señal que avise de que se esté inventando algo. Inventa incluso referencias bibliográficas”.
  • La falta de límites: “Cuando hablamos de Inteligencia Artificial General, hablamos de un sistema que está limitado por la realidad, y ChatGPT no lo está”.

Para Marcus, “el peligro de un sistema así puede venir de cuán inteligente es, pero también del poder que se le otorga. Si ChatGPT lleva a una persona ingenua a creer que es inteligente cuando no lo es, ese en sí es el peligro”.

La creación de OpenAI toma trozos de texto de un lado y otro, los pega y los reproduce, pero no entiende la relación entre esos trozos.

“No creo que estemos cerca de obtener sistemas inteligentes de verdad, quizás en 10 años estemos bastante cerca”, resalta Marcus. Y mientras, herramientas que pueden ser utilizadas para desinformación continúan sumando espacios.

Tags

Lo Último


Te recomendamos