¿Cuál es el riesgo que las inteligencias artificiales decidan por nosotros?

¿Cuál es el riesgo que las inteligencias artificiales decidan por nosotros?

El reciente atropello de peatón por un coche autónomo, junto al escándalo de Cambridge Analytica, han abierto un intenso debate sobre el futuro de estas tecnologías.

No hay duda que las inteligencias artificiales están tomando cada vez más terreno y están cambiando la forma en que entendemos muchos trabajos. Sin embargo, los algoritmos de aprendizaje también dan pie a que confiemos cada vez más en sus decisiones. ¿Qué tan peligroso es que ellas decidan por nosotros?

Las inteligencias artificiales o algoritmos de aprendizaje automático (machine learning), utilizan bases de datos para tomar decisiones. Ya sea en pequeña porciones o grandes volúmenes de datos (big data), estos algoritmos analizan, buscan patrones y entregan respuestas dependiendo de la información que recojan.

Las aplicaciones son muchísimas: cuando le hablamos a nuestros teléfonos, cuando queremos crear un perfil y la maquina nos das recomendaciones, cuando queremos llegar a un lugar más rápido, etc. Incluso hay expertos que aseveran que la medicina debe necesariamente avanzar en la complementación de estas tecnologías para precisar la prevención o tratamiento de enfermedades.

Durante el evento Data & AI Experience 2018 LATAM de Microsoft, Diego Bekerman, gerente general de Microsoft Argentina, señaló a los avances de la IA como “la amplificacion del ingenio humano”, mencionando que esta ciencia va resolver algunas de la problemáticas más grandes de la humanidad.

Todos los electrodomésticos inteligentes producen datos que pueden utilizarse con algoritmos: hoy está todo eso disponible. Lo más importante entender el impacto de todo esto; desde los negocios, pero también desde el bien común, desde el impacto ambiental, la educación y los desafíos que tiene el mundo.

Sin embargo, recientemente nos enteramos de que un automóvil autónomo de Uber atropelló a un peatón, aun contando con un software que le posibilita manejar sin una persona. ¿Un simple fallo o una decisión dejada en las “manos” equivocadas?

Bases de datos y consentimiento

La gran cantidad de información que recogen los dispositivos que tenemos a nuestro alrededor e incluso la que voluntariamente depositamos en internet o redes sociales, también ha sido objeto de debate. Ciertamente, la bases de datos son fundamentales para que los algoritmos de aprendizaje puedan encontrar patrones y tomar decisiones. No obstante, el público no siempre está consciente de la información que genera.

Sensores, extracción de datos de páginas e incluso la misma información que voluntariamente entregamos, son sustanciales para las inteligencias artificiales. A pesar de ello, el escándalo de Cambridge Analytica, por ejemplo, ha abierto un intenso debate el espacio que están tomando estos algoritmos en la toma de decisiones, incluso políticas. En Chile tenemos el caso de Instagis, que fue utilizado en la campaña de Sebastián Piñera para obtener un mayor número de votantes.

Para Matías Quaranta, experto en bases de datos y expositor durante el Data & AI Experience 2018 de la plataforma Cosmos DB, siempre tiene que haber consentimiento de quien toma eso datos y decide utilizarlos, aunque hay un margen que también depende del usuario.

Yo creo que depende del caso y del contexto. Sobre el consentimiento de la información es responsabilidad del cliente como tal, quien en este caso contrata un servicio como Cosmos DB y guarda la información.

Claramente, en el caso de Facebook hubo una violación condenable a los dato de los usuarios, quienes a pesar de depositar sus datos en la plataforma, vieron transgredida su privacidad. Si en algo concuerdan los expertos es que cada vez es más necesaria una ética clara para con los usuarios sobre el respeto a la privacidad.

Mientras tanto, el desarrollo de estas tecnologías avanza a pasos agigantados. Así lo destacó Pablo Castro, argentino experto en IA, durante el encuentro:

En el espacio de deep learning, los equipos siguen encontrando nuevos problemas y entregando soluciones. Una secuencia de entrada predice una secuencia distinta de salida, y resulta que eso se puede aplicar a todos tipos de problemas en dominios muy distintos. Por ahí va a haber mucho progreso. Se están evidenciando muchos aspectos donde se puede ocupar IA, y que años pasado se había descartado. Podemos reconsiderar el reconocer regiones, visión, lenguaje.

¿Hasta qué punto crees que el rol humano debiese estar presente en las IA?