¿Tienes alguna? Mozilla comparte horrorosas historias sobre el algoritmo de YouTube

¿Tienes alguna? Mozilla comparte horrorosas historias sobre el algoritmo de YouTube

Google tiene explicaciones que dar y mucho trabajo que hacer.

El algoritmo de YouTube y sus recomendaciones, a pesar de haber mejorado mucho con el tiempo, tiene fallos imperdonables y que demuestran la fragilidad de la inteligencia de Google.

La Fundación Mozilla comparte 28 historias de errores horrorosos que la gente ha compartido con ellos, y es más, hace un llamado a que compartas la tuya para generar conciencia sobre lo dañino que puede llegar a ser.

La primera historia tiene que ver con cosas tan simples como buscar "fail videos", para después tener sugerencias de choques automovilísticos tan sensibles que incluso muestran fatalidades.

Después sigue con una niña de 10 años, que al querer buscar videos de tap, después se encuentra con un espiral de videos de contorsionistas que recomiendan que debes "trabajar para comer y trabajar para beber", generando daño psicológico en la menor.

youtube mozilla

Otro que es entusiasta de los caballos termina viendo erecciones de potros, mientras otra persona que vio el video de una drag dando consejos positivos, terminó por tener en sus recomendaciones por meses mensajes de odio anti LGBTQ.

Todo esto sin contar los "hoyos de conejo" de infinitos videos de conspiraciones y que, de hecho, son los culpables de mucha gente creyendo en cosas absurdas como el terraplanismo o siendo anti vacunas.

Google tiene un serio problema con la curación de su información y pareciera no hacer nada para solucionarlo. Al menos en Mozilla quieren generar conciencia de que es un sistema con graves fallas y que los padres deben estar atentos, mientras que los adultos saber qué esperar de esta "inteligencia artificial".