Software

¿Cuál es el riesgo que las inteligencias artificiales decidan por nosotros?

El atropello por parte de un coche autónomo, junto al escándalo de Cambridge Analytica, han abierto un intenso debate sobre el futuro de estas tecnologías.

No hay duda que las inteligencias artificiales están tomando cada vez más terreno y están cambiando la forma en que entendemos muchos trabajos. Sin embargo, los algoritmos de aprendizaje también dan pie a que confiemos cada vez más en sus decisiones. ¿Qué tan peligroso es que ellas decidan por nosotros?

Las inteligencias artificiales o algoritmos de aprendizaje automático (machine learning), utilizan bases de datos para tomar decisiones. Ya sea en pequeña porciones o grandes volúmenes de datos (big data), estos algoritmos analizan, buscan patrones y entregan respuestas dependiendo de la información que recojan.

Las aplicaciones son muchísimas: cuando le hablamos a nuestros teléfonos, cuando queremos crear un perfil y la maquina nos das recomendaciones, cuando queremos llegar a un lugar más rápido, etc. Incluso hay expertos que aseveran que la medicina debe necesariamente avanzar en la complementación de estas tecnologías para precisar la prevención o tratamiento de enfermedades.

Publicidad

Durante el evento Data & AI Experience 2018 LATAM de Microsoft, Diego Bekerman, gerente general de Microsoft Argentina, señaló a los avances de la IA como “la amplificacion del ingenio humano”, mencionando que esta ciencia va resolver algunas de la problemáticas más grandes de la humanidad.

Sin embargo, recientemente nos enteramos de que un automóvil autónomo de Uber atropelló a un peatón, aun contando con un software que le posibilita manejar sin una persona. ¿Un simple fallo o una decisión dejada en las “manos” equivocadas?

Bases de datos y consentimiento

La gran cantidad de información que recogen los dispositivos que tenemos a nuestro alrededor e incluso la que voluntariamente depositamos en internet o redes sociales, también ha sido objeto de debate. Ciertamente, la bases de datos son fundamentales para que los algoritmos de aprendizaje puedan encontrar patrones y tomar decisiones. No obstante, el público no siempre está consciente de la información que genera.

Sensores, extracción de datos de páginas e incluso la misma información que voluntariamente entregamos, son sustanciales para las inteligencias artificiales. A pesar de ello, el escándalo de Cambridge Analytica, por ejemplo, ha abierto un intenso debate el espacio que están tomando estos algoritmos en la toma de decisiones, incluso políticas. En Chile tenemos el caso de Instagis, que fue utilizado en la campaña de Sebastián Piñera para obtener un mayor número de votantes.

Para Matías Quaranta, experto en bases de datos y expositor durante el Data & AI Experience 2018 de la plataforma Cosmos DB, siempre tiene que haber consentimiento de quien toma eso datos y decide utilizarlos, aunque hay un margen que también depende del usuario.

Claramente, en el caso de Facebook hubo una violación condenable a los dato de los usuarios, quienes a pesar de depositar sus datos en la plataforma, vieron transgredida su privacidad. Si en algo concuerdan los expertos es que cada vez es más necesaria una ética clara para con los usuarios sobre el respeto a la privacidad.

Mientras tanto, el desarrollo de estas tecnologías avanza a pasos agigantados. Así lo destacó Pablo Castro, argentino experto en IA, durante el encuentro:

Publicidad

¿Hasta qué punto crees que el rol humano debiese estar presente en las IA?

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último