Cómo los algoritmos de YouTube radicalizan a las personas

Adaptive S.A.S
|
25 de Octubre de 2019
Cómo los algoritmos de YouTube radicalizan a las personas

En la época de los fake news (noticias falsas) y radicalización, el verdadero enemigo no es el contenido, es el algoritmo que recomienda estos contenidos a los usuarios.

Esto es dicho por el ingeniero de software Guillaume Chaslot, el cual trabajó en un equipo de ingeniería en Google ads (Quienes son dueños de YouTube). “Tenemos que tener clara la diferencia entre libertad de hablar y libertad de alcanzar al publico objetivo. Tu eres libre de decir lo que quieras, pero no hay libertad para amplificar esto.” Chaslot dijo en una conferencia en London.

Además, agrego que el contenido extremo no es el problema. El de hecho está a favor de tener mucho contenido posible en las plataformas actuales. Sin embargo, YouTube está siendo criticado por su mal manejo de contenido potencialmente dañino, lo que resulta como prioridad en eliminar videos que violen sus políticas.

Al mismo tiempo, la plataforma tiene que realizar un balance delicado entre moderación de contenido y libertad de expresión. La CEO Susan Wojcicki escribió en una carta a YouTubers: “Un compromiso con la libertad de habla no es fácil. A veces significa dejar contenido que está fuera de la corriente popular, controvertido o incluso ofensivo".

El debate sobre la moderación de contenido no es nuevo. Pero para Chaslot, el problema ahora es que las compañías no solo publican contenido, sino que aplican algoritmos a este.

“Los algoritmos son construidos para potencializar el contenido, y eso típicamente ocurre a través del aumento de vistas en videos radicales. Alguien puede llegar a ser radicalizado viendo horas de videos de YouTube y desde el punto de vista del algoritmo ese es el objetivo” le dijo a ZDNet.

Cuando el trabajó en Google, sugirió incluir más diversidad de videos en el algoritmo de recomendación de YouTube. Los directivos lo miraron con escepticismo por lo cual el dejo la compañía y empezó a estudiar el algoritmo para encontrar a que lo llevaría. Esto y las elecciones presidenciales de USA en 2016, lo guiaron a encontrar que YouTube empujaba a los usuarios a ver videos más radicales.

Su investigación fue publicada el año pasado y creó un sitio web donde se puede simular el algoritmo de YouTube para encontrar que videos la plataforma es más propensa a recomendar.

“No sabemos con exactitud cuánto puede la plataforma promover ideas radicales como el terrorismo”, dijo Chaslot

Un portavoz de YouTube le dijo a ZDNet estar en desacuerdo con la metodología, datos y lo más importante con la conclusión de la investigación de Chaslot.

Según Chaslot dice que ahora es necesario crear una legislación eficiente para controlar este problema.

“Es similar a cuando decíamos que el tabaco mata gente”, dijo. “Primero necesitábamos evidencia científica que demostrara que el tabaco es dañino y ahora, necesitamos evidencia de que YouTube promueve el extremismo”.

Chaslot dijo que solo con esta evidencia se debería crear la preocupación publica con respecto a este tema, y asi crear una legislación, agregando: “Nosotros hacemos reglas para detener a las personas de que fumen en espacios públicos, no para que todos dejen de fumar”, señalando también “Debemos hacer algo similar con el contenido”.

Lastimosamente con las leyes actuales, nada obliga a las plataformas online para compartir la información que habilita la investigación científica en primer lugar.

Como resultado, el mundo es gobernado por algoritmos secretos que deciden en el 70% que deben ver los consumidores de contenido en YouTube, y el 100% de lo que se lee en Facebook por lo que Chaslot dice que es un “poco loco”.

Fuente: www.zdnet.com y www.theguardian.com