Ciencia

Este modelo matemático puede ayudar a detectar la desinformación en redes sociales como Twitter

Las matemáticas pueden ser útiles para combatir la desinformación

Viajantes usan su celular o teléfono inteligente en la estación Hamburgo del Metrobús. Personas usando celulares (Moisés Pablo)

Vivir en una época en que tenemos todo tipo de información a nuestra disposición no quiere decir ni que a todos nos interese conocerla, ni que toda esa información esté basada en evidencias.

PUBLICIDAD

Por supuesto en medio de la pandemia tenemos muchísimos ejemplos de ese tipo de desinformación que se expande por las redes sociales prácticamente a la velocidad de la luz.

Estudio revela porqué algunas personas prefieren buscar información y otras noOpens in new window ]

Existe información incorrecta o engañosa tanto sobre el desarrollo de la pandemia, como de las vacunas o los medios efectivos de bajar el riesgo de contagio de covid-19.

Recomendados

Así que sin duda todos los medios posibles para combatir esa desinformación son útiles en estos momentos.

Redes sociales (Marcelo Camargo/Agência Brasil)

Matemáticas contra la desinformación

Un grupo de investigadores en matemáticas y ciencias de la computación desarrollaron un modelo estadístico para que una computadora pueda detectar información falsa o engañosa en publicaciones en redes sociales, en eventos como una pandemia o un desastre natural.

Para eso utilizaron métodos estadísticos en lugar de los de aprendizaje automático, o machine learning, como se conocen en inglés.

Los investigadores, encabezados por el Profesor Zois Boukouvalas de la American University, decidieron no usar machine learning, pues aunque los algoritmos que utilizan pueden resultar útiles para este tipo de propósitos, muchas veces dan un resultado que sale como de una “caja negra”: es decir que no se conoce por completo los pasos que el sistema tomó para llegar a la decisión final.

Con los métodos estadísticos este proceso es más transparente e incluso los investigadores y programadores pueden comparar si las decisiones que toma el sistema son similares a las que toma una persona para decidir que algo es desinformación.

Tal como dice Boukouvalas: “queremos saber qué está pensando una máquina cuando toma decisiones, y cómo y por qué eso está de acuerdo con los humanos que la entrenaron”.

En este caso para saber si la conclusión a la que llega una computadora sobre si un tuit es desinformación, se apega a lo que las personas entendemos como desinformación.

Como concluye Boukouvalas: “no queremos bloquear la cuenta de redes sociales de alguien porque el modelo toma una decisión sesgada”.

La decisión está en los humanos

Para usar un modelo como el que desarrollaron estos investigadores, primero se debe “entrenar” al sistema para que a partir de eso pueda tomar decisiones.

El funcionamiento del modelo será tan bueno, como sea la información que lo alimente para que este “aprenda”, en este caso a reconocer la desinformación. Por supuesto en este procedimiento muchas veces se pueden introducir sesgos, que tengan las personas que están alimentando los datos.

Para evitar esos sesgos, en este caso los investigadores crearon para ellos una serie de reglas para etiquetar los tuits como desinformación e incluso usaron la asesoría de una especialista en sociolingüística para evitar que los estilos de lenguaje con los que estaban escritos los tuits influyera en la decisión de etiquetarlos como desinformativos.

Una vez que los desarrolladores tuvieron claras estas reglas y los ejemplos, se los presentaron al sistema para que este aprendiera a identificar por sí mismo la desinformación en otras publicaciones.

El modelo se probó en un conjunto de 112 tuits con información real y desinformación: y logró logró identificar los tuits con información engañosa en un 90% de los casos.

Aunque la muestra es pequeña, es significativo que se haya logrado un resultado alto de precisión, con un modelo estadístico que es mucho más transparente en cuánto a la forma en que la máquina toma ciertas decisiones.

Sin embargo tal como comenta Boukouvalas, este tipo de modelos pueden ser un apoyo para evitar la desinformación, pero la tarea principal sigue siendo humana: “a través de nuestro trabajo, diseñamos herramientas basadas en el aprendizaje automático para alertar y educar al público con el fin de eliminar la información errónea, pero creemos firmemente que los humanos deben desempeñar un papel activo para no difundir información errónea en primer lugar”.

Tags

Lo Último