
Facebook bloquea el acceso de los investigadores a los datos sobre la cantidad de desinformación que aloja
noviembre 3, 2021
Los documentos internos filtrados sugieren que Facebook, que recientemente se rebautizó como Meta, lo está haciendo mucho peor de lo que afirma, minimizando la información errónea sobre la vacuna COVID-19 en la plataforma de redes sociales Facebook.
La información errónea en línea sobre el virus y las vacunas es una gran preocupación. En un estudio, los encuestados que recibieron algunas o todas sus noticias de Facebook tenían muchas más probabilidades de resistirse a la vacuna COVID-19 que aquellos que recibieron sus noticias de los principales medios de comunicación.
Como investigador que estudia los medios sociales y cívicos, creo que es extremadamente importante comprender cómo se propaga la información errónea en línea. Pero es más fácil decirlo que hacerlo. El simple hecho de contar los casos de desinformación encontrados en una plataforma de redes sociales deja dos preguntas clave sin respuesta: ¿qué probabilidad hay de que los usuarios encuentren desinformación y qué probabilidades hay de que determinados usuarios se vean afectados por la desinformación? Estas preguntas son el problema del denominador y el problema de la distribución.
El estudio de desinformación COVID-19, «El algoritmo de Facebook: una amenaza importante para la salud pública», publicado por el grupo de interés público Avaaz en agosto de 2020, informó que las fuentes que comparten con frecuencia desinformación sobre la salud (82 sitios web y 42 páginas de Facebook) tenían un total estimado de 3.8 mil millones de visitas en un año.
A primera vista, es un número sorprendentemente grande. Pero es importante recordar que este es el numerador. Para comprender lo que significan 3.800 millones de visitas en un año, también debe calcular el denominador. El numerador es la parte de una fracción por encima de la línea, que se divide por la parte de la fracción por debajo de la línea, el denominador.
Obtén una perspectiva
Un posible denominador son 2.900 millones de usuarios activos de Facebook por mes, en cuyo caso, en promedio, cada usuario de Facebook ha estado expuesto a al menos una pieza de información de estas fuentes de desinformación sobre salud. Pero eso es 3.8 mil millones de visitas de contenido, no usuarios discretos. ¿Cuánta información encuentra el usuario medio de Facebook en un año? Facebook no divulga esta información.
Los investigadores de mercado estiman que los usuarios de Facebook pasan de 19 minutos por día a 38 minutos por día en la plataforma. Mientras que los 1,93 mil millones de usuarios activos diarios de Facebook ven un promedio de 10 publicaciones en sus sesiones diarias, una estimación muy conservadora, el denominador de esos 3.8 mil millones de piezas de información por año es 7.044 mil millones (1, 93 mil millones de usuarios diarios multiplicados por 10 publicaciones diarias. 365 días al año). Esto significa que aproximadamente el 0,05% del contenido de Facebook son publicaciones de estas páginas sospechosas de Facebook.
La cifra de 3.800 millones de visitas abarca todo el contenido publicado en esas páginas, incluido el contenido de salud inofensivo, por lo que la proporción de publicaciones de Facebook que son información errónea sobre la salud es menos de una vigésima parte de un año: uno por ciento.
¿Es preocupante que haya suficiente información errónea en Facebook como para que todos probablemente hayan encontrado al menos un caso? ¿O es reconfortante que el 99,95% de lo que se comparte en Facebook no provenga de los sitios contra los que advierte Avaaz? O.
Difusión de desinformación
Además de estimar un denominador, también es importante considerar la distribución de esta información. ¿Es probable que todos los usuarios de Facebook encuentren información errónea sobre la salud? ¿O es más probable que las personas que se identifican como antivacunas o que buscan información sobre “salud alternativa” se encuentren con este tipo de información errónea?
Otro estudio de redes sociales que se centra en el contenido extremista de YouTube ofrece un método para comprender la propagación de la desinformación. Utilizando datos del navegador de 915 usuarios de Internet, un equipo de la Liga Anti-Difamación reclutó una muestra grande y demográficamente diversa de usuarios de Internet de EE. UU. Y realizó un muestreo excesivo de dos grupos: usuarios intensivos de YouTube e individuos que mostraban signos de fuertes prejuicios raciales o de género negativos en una serie de preguntas. . solicitado por los investigadores. El sobremuestreo implica encuestar a un pequeño subconjunto de una población más que su proporción de la población con el fin de registrar mejor los datos sobre el subconjunto.
Los investigadores encontraron que el 9.2% de los participantes vieron al menos un video de un canal extremista y el 22.1% vio al menos un video de un canal alternativo, durante los meses cubiertos por el estudio. Un contexto importante a tener en cuenta: un pequeño grupo de personas fue responsable de la mayoría de las vistas en estos videos. Y más del 90% de las vistas de videos extremistas o «alternativos» fueron registrados por personas que informaron un alto nivel de resentimiento racial o de género durante la encuesta previa al estudio.
Mientras que aproximadamente 1 de cada 10 personas encontraron contenido extremista en YouTube y 2 de cada 10 encontraron contenido de provocadores de derecha, la mayoría de las personas que encontraron tal contenido lo “rebotaron” y se fueron a otra parte. El grupo que encontró contenido extremista y buscó más de él fueron personas que presumiblemente tenían un interés: personas con fuertes actitudes racistas y sexistas.
Los autores concluyeron que «el consumo de este contenido potencialmente peligroso está bastante concentrado entre los estadounidenses que ya están muy enojados con el racismo», y que los algoritmos de YouTube pueden reforzar este patrón. En otras palabras, el simple hecho de conocer la fracción de usuarios que encuentran contenido extremo no le dice cuántas personas lo consumen. Para ello también necesitas conocer la distribución.
¿Superspreaders o Whack-a-mole?
Un estudio ampliamente publicitado por el grupo de defensa del discurso de odio Center for Counter Digital Hate titulado Pandemic Profiteers mostró que de los 30 grupos de Facebook antivacunas examinados, 12 celebridades antivacunas eran responsables del 70% del contenido difundido en estos grupos, y el los tres más importantes fueron responsables de casi la mitad. Pero, de nuevo, es fundamental hacer preguntas sobre los denominadores: ¿Cuántos grupos antivacunas están alojados en Facebook? ¿Y qué porcentaje de usuarios de Facebook encuentran el tipo de información compartida en estos grupos?
Sin información sobre denominadores y distribución, el estudio revela algo interesante sobre estos 30 grupos de Facebook antivacunas, pero nada sobre la desinformación médica en Facebook en su conjunto.
Este tipo de estudios plantea la pregunta: «Si los buscadores pueden encontrar este contenido, ¿por qué las plataformas de redes sociales no pueden identificarlo y eliminarlo?» El estudio Pandemic Profiteers, que sugiere que Facebook podría resolver el 70% del problema de la desinformación médica eliminando solo diez cuentas, aboga explícitamente por la des-plataforma de estos distribuidores de desinformación. Sin embargo, descubrí que 10 de los 12 influencers anti-vacunas que aparecen en el estudio ya han sido eliminados por Facebook.
Considere a Del Bigtree, uno de los tres principales divulgadores de información errónea sobre vacunación en Facebook. El problema no es que Bigtree esté reclutando nuevos seguidores anti-vacunas en Facebook; es que los usuarios de Facebook siguen a Bigtree en otros sitios web y contribuyen con su contenido a sus comunidades de Facebook. No son 12 personas y grupos que publican información errónea sobre la salud en línea; probablemente sean miles de usuarios individuales de Facebook que comparten información errónea que se encuentra en otras partes de la web, con estas docenas de personas. Prohibir a miles de usuarios de Facebook es mucho más difícil que prohibir a 12 celebridades antivacunas.
Es por eso que los problemas de denominador y distribución son esenciales para comprender la desinformación en línea. El denominador y la distribución permiten a los investigadores preguntar qué tan comunes o raros son los comportamientos en línea, y quién participa en esos comportamientos. Si millones de usuarios se enfrentan ocasionalmente con información médica incorrecta, las etiquetas de advertencia pueden ser una respuesta eficaz. Pero si la desinformación médica es consumida principalmente por un grupo más pequeño que busca y comparte activamente este contenido, es muy probable que estas etiquetas de advertencia sean innecesarias.
Obtenga los datos correctos
Tratar de descubrir la desinformación contándola, independientemente de los denominadores o la distribución, es lo que sucede cuando las buenas intenciones chocan con las malas herramientas. Ninguna plataforma de redes sociales permite a los investigadores calcular con precisión la importancia de un contenido en particular en su plataforma.
Facebook limita a la mayoría de los buscadores a su herramienta Crowdtangle, que comparte información sobre la participación de contenido, pero no es lo mismo que las vistas de contenido. Twitter prohíbe explícitamente a los investigadores el cálculo de un denominador, ya sea el número de usuarios de Twitter o el número de tweets compartidos en un día. YouTube hace que sea tan difícil saber cuántos videos están alojados en su servicio que Google solicita regularmente a los candidatos a entrevistas que estimen la cantidad de videos de YouTube alojados para evaluar sus habilidades cuantitativas.
Los ejecutivos de las plataformas de redes sociales han argumentado que sus herramientas, a pesar de sus problemas, son buenas para la sociedad, pero este argumento sería más convincente si los investigadores pudieran verificar de forma independiente esta afirmación.
A medida que los impactos sociales de las redes sociales se vuelven más importantes, es probable que aumente la presión sobre las grandes plataformas tecnológicas para publicar más datos sobre sus usuarios y su contenido. Si estas empresas responden aumentando la cantidad de información a la que pueden acceder los investigadores, fíjese bien: ¿permitirán que los investigadores estudien el denominador y la distribución del contenido en línea? Y si no es así, ¿tienen miedo de lo que encontrarán los investigadores?
Artículo de Ethan Zuckerman, profesor asociado de políticas públicas, comunicaciones e información, Universidad de Massachusetts Amherst
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.