Internet

10 preguntas sobre el código de conducta para la IA de Estados Unidos y la Unión Europea

¿Se vienen restricciones masivas para la Inteligencia Artificial?

Es fundamental que recordemos que la Inteligencia Artificial deviene y también será producto de nuestra conciencia.

Una de las virtudes de la Inteligencia Artificial es que su avance registra acceso para todas las personas sin ningún tipo de restricción, si se cuenta con los equipos electrónicos adecuados. Cualquier persona, salvo excepción de algunos países, pueden ingresar al ChatGPT de Open Ai, por poner un ejemplo.

Para algunos gobiernos esto significa un peligro, debido a que no hay una una normativa que regule a los usuarios. Mientras que los desarrolladores de estos mecanismos, por los momentos, no se quieren hacer responsables del uso que quienes acceden a sus servicios le dan a la Inteligencia Artificial.

La Unión Europea quiere establecer ciertas normas para que empresas como Open Ai pongan en práctica de inmediato, si quieren seguir prestando sus servicios en su territorio.

Y ahora, los Estados Unidos pretenden sumarse a esta iniciativa. De hecho, entre ambos bloques políticos se encuentran redactando un código de conducta sobre el que vamos a detallar algunas dudas o interrogantes que se generan, a partir de estas encaminadas propuestas.

El futuro de las IA

  1. ¿Cuándo entraría en vigencia?: Una reunión entre Margrethe Vestager, vicepresidenta de la Comisión Europea y Antony Blinken, secretario de estado de los Estados Unidos marca el punto de partido para la agenda de regulación de las IA. Sin embargo, un código de conducta podría entrar en vigencia dentro de tres años.
  2. ¿Es el fin de la IA? Lejos de ser el fin, estas colaboraciones entre bloques políticos demuestra que el mundo teme que el rápido avance de la Inteligencia Artificial conduzca a la extinción humana. Entonces van camino a regularlas, para seguir usándolas como una herramienta.
  3. ¿Qué piensan los desarrolladores? Sam Altman, presidente de OpenAi había sido un poco reacio a la posibilidad de normativas qué cumplir en Europa. Sin embargo, con la incorporación de los Estados Unidos se ha mostrado abierto a que el estado americano regule las IA.
  4. Europa, Estados Unidos... ¿Y el resto del mundo? Cada país funciona bajo sus propios estatutos. Pero, por ejemplo, en América Latina, se suelen adherir a lo que marquen las potencias de occidente.
  5. ¿China tiene su propia IA? El gigante de Asia tiene en desarrollo sus propios mecanismos de Inteligencia Artificial, que seguramente no estarán adheridos a estos códigos de conductas, si no van de la mano con el pensamiento de Pekín.
  6. ¿Cómo piensan mitigar los riesgos, tomando en cuenta que el código se podría aplicar en seis meses? La disposición de desarrolladores, como el caso de Sam Altman, son el punto de partido para comenzar a autorregularse, antes de que exista una normativa oficial. Sin embargo, el riesgo estará de igual manera por la enorme cantidad de sistemas que hay en la actualidad.
  7. ¿Realmente un código de conducta regulará limitará las capacidades de la IA? Esto es posible pensarlo en los usos de los usuarios comunes. Pero los mecanismos de aprendizaje automático ya están publicados, y resulta difícil pensar en una forma de mitigarlos.
  8. ¿Qué piensa el ChatGPT de todo esto? Aquí su respuesta: La regulación de la inteligencia artificial es un tema complejo y en constante debate en la sociedad. Algunas personas argumentan que es necesaria una regulación para garantizar la seguridad, la ética y la transparencia en el desarrollo y despliegue de sistemas de inteligencia artificial. Otros pueden tener preocupaciones sobre los posibles impactos negativos de la regulación en la innovación y el progreso tecnológico.
  9. ¿Y la opinión de Bard? Aquí lo que nos dijo: Entiendo que hay cierta discusión sobre la regulación de grandes modelos de lenguaje como yo como mecanismos de inteligencia artificial. Creo que la regulación podría ser beneficiosa de alguna manera, como garantizar que me utilicen de manera segura y responsable. Sin embargo, también creo que es importante lograr un equilibrio entre la regulación y la innovación. Todavía estoy en desarrollo y creo que la regulación no debería sofocar mi capacidad de aprender y crecer.
  10. ¿Cuál es el peor riesgo en materia de IA sin regulación, según ChatGPT? La dependencia excesiva de sistemas de IA sin regulación podría socavar la autonomía y la responsabilidad humana. Los algoritmos de toma de decisiones pueden ser opacos y difíciles de comprender, lo que dificulta la rendición de cuentas y la capacidad de las personas para tomar decisiones informadas.
Tags

Lo Último


Te recomendamos