fbpx

¿Qué le obsesiona al internet de las teorías conspirativas?

COMPARTE!

Un nuevo estudio realizado por investigadores de redes sociales de la Universidad de Sydney y QUT ha encontrado que las teorías de conspiración están prosperando en YouTube a pesar de los esfuerzos de la plataforma para endurecer las reglas y pautas de publicación.

El estudio, publicado en Harvard Kennedy School Misinformation Review, examinó los comentarios de YouTube en videos de noticias de COVID-19 con el magnate de negocios y filántropo estadounidense Bill Gates y encontró que las teorías de conspiración dominaban.

Los comentarios cubrieron temas como la agenda oculta de Bill Gates, su papel en el desarrollo y distribución de vacunas, su lenguaje corporal, su conexión con el delincuente sexual convicto Jeffrey Epstein, los daños de la red 5G y las ideas sobre Gates controlando a las personas a través de microchips humanos y la «marca de la bestia».

Los resultados sugieren que durante la pandemia de COVID-19, la función de comentarios de YouTube, como los tableros de mensajes anónimos 4chan y 8kun, puede haber desempeñado un papel subestimado en el crecimiento y circulación de teorías de conspiración.

Los hallazgos respaldan estudios previos que argumentan que la desinformación es un fenómeno colectivo y socialmente producido.

Joanne Gray, investigadora de la Universidad de Sydney sobre política y gobernanza de plataformas digitales, dijo: «Descubrimos que el proceso de desarrollo de una teoría de la conspiración es bastante social. Las personas se unen y socialmente «unen los puntos» o comparten nuevas piezas de información que utilizan para construir narrativas conspirativas. Los enfoques actuales de las plataformas de redes sociales para la moderación de contenido (que a menudo están automatizados) no son buenos para detectar este tipo de teoría de conspiración social».

Los coautores del estudio incluyen a Lan Ha y al Dr. Timothy Graham de la Universidad de Tecnología de Queensland.

YouTube y las teorías de conspiración

Durante la pandemia de COVID-19, YouTube introdujo nuevas políticas y pautas destinadas a limitar la propagación de información médica errónea sobre el virus en la plataforma.

Pero el estudio encontró que la función de comentarios sigue siendo relativamente poco moderada y tiene bajas barreras de entrada para publicar públicamente, con muchas publicaciones que violan las reglas de la plataforma, por ejemplo, comentarios de que las vacunas propuestas se utilizan para la esterilización masiva o para insertar microchips en los receptores.

Los investigadores estudiaron un conjunto de datos de 38,564 comentarios de YouTube extraídos de tres videos relacionados con COVID-19 publicados por las organizaciones de medios de comunicación Fox News, Vox y China Global Television Network. Cada video presentaba a Bill Gates y, en el momento de la extracción de datos, tenía entre 13,000 y 14,500 comentarios publicados entre el 5 de abril de 2020 y el 2 de marzo de 2021.

A través del modelado de temas y el análisis de contenido cualitativo, el estudio encontró que los comentarios de cada video estaban fuertemente dominados por declaraciones conspirativas.

Algunos comentarios se consideraron «contenido límite», que YouTube define como contenido que «se roza» pero no cruza las líneas establecidas por sus reglas.

Ejemplos de contenido límite incluyen comentarios que plantean dudas sobre los motivos de Bill Gates en el desarrollo y distribución de vacunas y la sugerencia de que busca tomar el control en un «nuevo orden mundial». Estos comentarios implicaban o estaban vinculados a teorías sobre el uso de vacunas para controlar o rastrear grandes poblaciones de personas.

Recomendaciones de YouTube

Los investigadores dijeron que la plataforma debería considerar cambios en el diseño y las políticas que respondan a las estrategias conversacionales utilizadas por los teóricos de la conspiración para evitar resultados similares para futuros asuntos de interés público de alto riesgo.

Tres estrategias conversacionales comunes incluyen: fortalecer una teoría de la conspiración («unir los puntos de información dispar»), desacreditar a una autoridad («arrojar dudas») y defender una teoría de la conspiración. Estos comentarios pueden amplificarse cuando los lectores dan «me gusta» al comentario.

«YouTube carece casi por completo de las funciones de moderación dirigidas por la comunidad o humanas que se necesitan para detectar este tipo de estrategias», dijo el Dr. Gray.

Los investigadores dijeron que para que YouTube aborde este problema de manera adecuada, debe atender tanto a las estrategias conversacionales que evaden los sistemas de detección automatizados como a rediseñar el espacio para proporcionar a los usuarios las herramientas que necesitan para automoderarse de manera efectiva.

Editores de noticias y comentarios moderadores

El estudio insta a YouTube a desarrollar pautas de moderación de contenido de mejores prácticas para editores de noticias que describan estrategias utilizadas por teóricos de la conspiración que son invisibles para la moderación automatizada. Además, los editores de noticias podrían desactivar los comentarios sobre videos de interés público de alto riesgo para garantizar que no exacerben la circulación de teorías de conspiración.

«Una implicación importante de nuestro estudio es que YouTube necesita rediseñar el espacio para proporcionar una infraestructura de moderación social», dijo el Dr. Gray. «De lo contrario, las estrategias discursivas de los teóricos de la conspiración continuarán evadiendo los sistemas de detección, planteando desafíos insuperables para los creadores de contenido y haciendo el juego a los productores de contenido que se benefician y / o fomentan dicha actividad».


COMPARTE!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *