FW Pregunta

Martin Hilbert: El algoritmo es tan peligroso como una medicina o una comida tóxica para la salud

El profesor de la Universidad de California y doctor en Comunicación y Ciencias Económicas y Sociales, habló del “algoritmo” y de cómo es necesario regular eso. Adelantó con Fayerwayer su charla en el Congreso del Futuro.

El algoritmo y cómo se comporta en el nuevo entramado social-digital es algo que inquieta y apasiona a la vez a Martin Hilbert. Para este investigador, si no hay control de este “proceso que ejecuta tareas”, esto podría desembocar en graves problemas para la democracia y su legitimidad como modelo.

Este profesor de comunicaciones de la Universidad de California, doctor en Ciencias Económicas y Sociales, asesor de Naciones Unidas y que ha colaborado con muchas publicaciones periodísticas, es uno de los invitados del “Congreso del Futuro 2019”.

Fayerwayer habló con Martin, quien nos cuenta cómo visualiza fenómenos como Facebook, Google, los algoritmos, y la digitalización del Estado.

Fayerwayer: Hace un tiempo atrás dijiste que Facebook y Google son “la máquina capitalista más feroz del mundo”. Podrías explicar más ese concepto.

Martin Hilbert: Facebook y Google son la máquina capitalista más feroz del mundo. Son los dos elefantes en la sala, son dos empresas que dependen 100% de ingresos comerciales y de marketing. Los jóvenes que crearon estas empresas, Google en 1998 y Facebook en 2004, tuvieron una visión casi socialista de que la información tenía que ser gratis para todo el mundo y por eso crearon modelos de negocios que no requieren pagar nada finalmente con moneda financiera, pero que se basaron en marketing. El resultado de eso es que hicieron un trato “faustiano” con el diablo de la publicidad y con eso se financian 100%. Eso se traduce en que la gente paga por eso, y paga todavía con sus datos. El modelo de negocios que uno elige para financiarse, es equivalente al modelo de negocios que uno ofrece a los usuarios y ese modelo tiene que ver con la publicidad.

FW: ¿Crees que la gente estaría dispuesta a pagar para tener Facebook? Eso resolvería el problema para Zuckerberg?

MH: Sharyl Sandberg de Facebook ha dicho varias veces que la plataforma debería tener una opción de pago. Y creo que harta gente estaría dispuesta a hacerlo, dependiendo del valor que tendrá esta suscripción. Crear algo similar a lo que hace Amazon con Amazon Primer o Apple o Microsoft. Si ellos me aseguran que tengo un canal limpio de comunicación, sin intereses comerciales, yo estaría dispuesto a tenerlo. Deberían dar las dos opciones: uno que se financie por publicidad y otro que sea un servicio de comunicación.

FW: ¿Debemos confiar en los algoritmos y sus recomendaciones?

MH: Como usuarios hay que ser conscientes de que la comunicación en las redes está distorsionada por intereses comerciales y eso es muy diferente a las mismas motivaciones que teníamos hace algunos años atrás, cuando teníamos nuestros teléfonos fijos y pagábamos una mensualidad, pero con eso asegurábamos que el canal de comunicación entre nosotros era pasivo, limpio, neutral. Ahora cuando tú te vas a Instagram, cuando vas a hacer una búsqueda en Google o te vas a Youtube, estos canales no son neutrales, son distorsionados al final con fines comerciales. Y de eso tenemos que tener mucha consciencia, eso es lo que pagamos.

FW: En ese sentido, ¿es viable la digitalización de los gobiernos y de los procesos públicos. O sea más datos bajo el control del Estado?

MH: El Gobierno ejecuta la ley, en un Estado hay tres poderes, y es en el Legislativo donde está la representación real de la gente, es el que hace las leyes, y ahí debemos ver cómo una ley que se ejecuta se digitaliza. Con un algoritmo por ejemplo, que por definición es un proceso que ejecuta algún programa y una ley es un programa y por tanto como el gobierno ejecuta, entonces eso es posible digitalizarlo y hacerlo con IA y algoritmos. Eso nos da muchas oportunidades, mientras estos algoritmos estén abiertos y sepamos bien lo que hacen estos algoritmos, se puede dar mucha más transparencia al proceso de ejecución de la ley.

Uno no se puede meter dentro del cerebro de un político para saber cuánta motivación tiene para sacar una ley, o conflictos de intereses tiene, sin embargo, un algoritmo sí se puede ver.

Tú deberías tener el derecho de preguntar qué está haciendo o decidiendo un algoritmo por ti, cómo ha llegado a esta conclusión.

Ejemplo: Un gobierno no debe saber la receta de un medicamento o un alimento para saber si eso hace daño a la sociedad, no hace falta entender el secreto del negocio para definir si es dañino, y eso pasa con los algoritmos.

Los algoritmos son tan peligrosos como una medicina o una comida tóxica para la salud, así como también beneficiosos. Por eso deben ser regulados.

FW: En un estudio en su sitio web dices que las redes sociales pueden predecir elecciones políticas en algunos países. ¿Ves esto posible en Latinoamérica y en Chile?

MH: Cómo usamos el ruido de las redes sociales para reemplazar las encuestas que predicen las elecciones. Y cómo bien sabemos, las encuestas en las últimas elecciones no fueron muy buenas. Podríamos aprovechar mejor el ruido y el chisme de lo que se habla en redes sociales. Eso obviamente no es fácil, porque, ¿cómo medimos eso?: ¿Por el volumen de menciones de un partido o un candidato? Entonces uno ahí hace un análisis semántico, de redes, para ver qué se habla y sobre quién y quién comunica qué.

Funciona muy bien, y mejor que las encuestas, pero nos dimos cuenta mientras lo hacíamos que una vez que una vez que tu encuentras cómo usar las redes sociales para poder predecir elecciones, estos métodos también los puedes usar para manipular las elecciones. Como siempre en la ciencia y la tecnología, es una espada de doble filo, se puede usar para bien o para mal. Es una herramienta.

FW: ¿Crees que la democracia está en riesgo por la utilización maliciosa del big data, de los fake news, de las redes sociales y de la IA?

MH: La democracia representativa está en peligro por la revolución digital. La transparencia digital ha cambiado los principios básicos sobre los cuáles hemos diseñado la democracia representativa en muchos países del mundo. Hay que ver cómo podemos rediseñar la democracia, porque la democracia es un proceso de comunicación y las tecnologías cambian este proceso de comunicación y hay que ver cómo se ajustan. Por ejemplo, Aristóteles en la Grecia antigua siempre argumentó que la democracia nunca puede funcionar más allá de setenta kilómetros, porque la información no podía viajar más de 70 kilómetros en un tiempo razonable. Por eso en Grecia fue posible hacer democracia en la antigüedad por ciudades y esto cambió recién con la aparición del tren. Cuando Abraham Lincoln salió presidente en Estados Unidos en 1860, la gente en California no sabía por una semana quién había salido presidente, porque alguien tenía que atravesar a caballo Estados Unidos para contar la noticia.

Hoy la información viaja a la velocidad de la luz y hay que ver cómo se puede rediseñar la democracia. No es la democracia de la ciudad, no es la democracia representativa y si no hacemos un cambio, entonces el desajuste entre la realidad comunicativa y la institución democrática será abusada, tal como lo estamos viendo.

La verdad es que no hemos creado tecnología que fomente la democracia, no la hemos desarrollado mucho. Las mentes más brillantes en este negocio de la comunicación digital están dedicados a dos tareas:

  1. Silicon Valley, optimizando la publicidad
  2. Y los otros en las famosas agencias de tres letras: NSA, de la seguridad nacional.

Nadie hasta ahora ha puesto las “lucas” sobre la mesa para emplear unos 200 programadores que masivamente fomenten fines democráticos, en vez de fines comerciales o de seguridad nacional.

No es culpa de la tecnología este desarrollo comercial o de seguridad nacional, es decisión humana, como sociedad debemos decidir eso.

Tags

Lo Último


Te recomendamos