Internet

Unión Europea se prepara para establecer el alcance de la ley que impondrá reglas sobre tecnologías de inteligencia artificial

Se vienen regulaciones para la IA.

UE
UE (Unsplash)

La Unión Europea (UE) está trabajando para establecer el alcance de nuevas reglas estrictas sobre varias tecnologías de inteligencia artificial (IA) como ChatGPT, ya que aún no tiene regulaciones para las mismas.

PUBLICIDAD

Hace dos años, la Comisión de la UE preparó la primera propuesta legislativa para el marco de nuevas reglas sobre IA y la presentó a los estados miembros y al Parlamento Europeo, como recuerda AA.

Esta propuesta introduciría algunas limitaciones y reglas de transparencia en el uso de sistemas de inteligencia artificial. Si la propuesta se convierte en ley, los sistemas de inteligencia artificial como ChatGPT también deberán usarse de acuerdo con estas reglas.

Las nuevas leyes para la IA, que se espera que se apliquen de la misma manera en todos los estados miembros, utilizan un enfoque basado en el riesgo. En la propuesta de la comisión, los sistemas de IA se clasifican en cuatro grupos principales: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo.

Posibles prohibiciones

Los sistemas de IA que se consideran una clara amenaza para la seguridad de la vida, los medios de subsistencia y los derechos de las personas se encuentran en el grupo de riesgo inaceptable. Se espera que se prohíba el uso de sistemas en estas áreas.

También están prohibidos los sistemas o aplicaciones de IA que vayan en contra del libre albedrío de las personas, manipulen el comportamiento humano o realicen puntuaciones sociales.

ChatGPT
ChatGPT (Unsplash)

A continuación, se incluyen en el grupo de alto riesgo áreas tales como infraestructura crítica, educación, cirugía, evaluación de CV para contratación, calificaciones crediticias, pruebas, inmigración, asilo y gestión de fronteras, verificación de documentos de viaje, sistemas de identificación biométrica y procesos judiciales y democráticos.

PUBLICIDAD

Se impondrían requisitos estrictos a los sistemas de IA en el grupo de alto riesgo antes de su lanzamiento al mercado. Estos sistemas deben ser no discriminatorios y los resultados deben ser observables y sujetos a una supervisión humana adecuada.

Según las reglas, las unidades de seguridad podrán utilizar sistemas de identificación biométrica en áreas públicas en casos especiales como terrorismo y delitos graves. Sin embargo, dichos usos de los sistemas de IA serán limitados y estarán sujetos a la autorización de las autoridades judiciales.

En la propuesta, los chatbots como ChatGPT también están en el grupo de riesgo limitado. El objetivo es hacer que los usuarios que conversan con chatbots sepan que están interactuando con una computadora.

PUBLICIDAD

Tags


.

Lo Último