Internet

“Los chatbots no son personas”: Proyecto de ley busca que las empresas de IA hagan advertencias a los niños

El proyecto busca proteger a los niños.

ChatGPT vs. Gemini.
Imagen: Forbes | “Los chatbots no son personas”: Proyecto de ley busca que las empresas de IA hagan advertencias a los niños

En un mundo donde la inteligencia artificial ya forma parte del día a día de muchas personas, los chatbots se han convertido en algo común, incluso para los niños. Pero, ¿qué pasa cuando estos sistemas comienzan a generar confianza al punto de que los menores los perciben casi como amigos?

PUBLICIDAD

Te puede interesar: [ChatGPT lanza una nueva herramienta de investigación profunda ¿Qué significa?]

Para evitar riesgos, en California han propuesto un proyecto de ley, el SB 243, que busca establecer reglas más estrictas para las empresas que desarrollan chatbots de IA.

Un recordatorio constante: “No soy humano”

La propuesta, impulsada por el senador Steve Padilla, pretende que los chatbots de inteligencia artificial informen de manera periódica a los niños que no están conversando con una persona real, sino con un programa informático.

Pero esto no es todo. También busca regular las técnicas de interacción utilizadas por las empresas para evitar que los menores se vuelvan dependientes de estos sistemas. El objetivo es prevenir efectos negativos en la salud mental de los niños, como el aislamiento o la adicción a estas plataformas.

Mayor supervisión y reportes obligatorios

El proyecto de ley también obligaría a las empresas de inteligencia artificial a presentar informes anuales al Departamento de Servicios de Salud de California. Estos reportes incluirían:

  • Cuántas veces se ha detectado ideación suicida en niños que utilizan chatbots.
  • Cuántas veces la IA ha abordado temas sensibles relacionados con la salud mental.
  • Advertencias obligatorias para informar a los padres y usuarios sobre los posibles efectos de estas interacciones en menores.

Casos que han despertado la preocupación

Esta iniciativa surge tras incidentes que han generado gran controversia. Uno de los casos más llamativos ocurrió el año pasado, cuando un padre demandó a Character.AI, alegando que la relación que su hijo adolescente estableció con un chatbot habría contribuido a su fallecimiento.

PUBLICIDAD

A raíz de la polémica, Character.AI anunció medidas como controles parentales y el desarrollo de un nuevo modelo de IA para adolescentes, con filtros para evitar contenido inapropiado o demasiado sugestivo.

¿Una medida necesaria o una reacción exagerada?

El senador Steve Padilla ha defendido con firmeza esta iniciativa, dejando clara su postura sobre la importancia de regular estas tecnologías: “Nuestros niños no son ratas de laboratorio con las que las empresas tecnológicas puedan experimentar a costa de su salud mental”.

Con este proyecto, California se suma a una tendencia global en la que gobiernos y legisladores buscan regular la inteligencia artificial y su impacto en los menores. Si bien el foco ha estado en redes sociales, ahora la atención también se centra en los chatbots y asistentes virtuales.

Te puede interesar: [Microsoft integra Copilot a Paint para funciones de inteligencia artificial: ¿Qué puedes hacer?]

A medida que estas tecnologías evolucionan, la pregunta es: ¿hasta qué punto deben las empresas asumir responsabilidad sobre el impacto de sus productos en los usuarios más jóvenes?

PUBLICIDAD

Tags


.

Lo Último