El modelo informático intenta explicar la propagación de la desinformación y sugerir contramedidas.

El modelo informático intenta explicar la propagación de la desinformación y sugerir contramedidas.

enero 13, 2022 0 Por RenzoC

Comienza con un súper orador y se abre camino a través de una red de interacciones, sin dejar a nadie intacto. Aquellos que han estado expuestos previamente pueden experimentar solo efectos leves.

No, no es un virus. Es la propagación contagiosa de desinformación y desinformación, desinformación que pretende engañar.

Ahora, los investigadores de la Universidad de Tufts han creado un modelo informático que refleja en gran medida cómo se propaga la desinformación en la vida real. El trabajo podría brindar información sobre cómo proteger a las personas del actual contagio de desinformación que amenaza la salud pública y la salud de la democracia, dicen los investigadores.

«Nuestra sociedad ha estado lidiando con creencias generalizadas sobre conspiraciones, una creciente polarización política y desconfianza en los resultados científicos», dijo Nicholas Rabb, Ph.D. estudiante de informática en la Escuela de Ingeniería Tufts y autor principal del estudio, publicado el 7 de enero en la revista Public Library of Science ONE. «Este modelo podría ayudarnos a comprender cómo se propagan la desinformación y las teorías de conspiración, para ayudar a diseñar estrategias para contrarrestarlas».

Los científicos que estudian la difusión de información a menudo toman la página de los epidemiólogos, modelando la propagación de falsas creencias sobre cómo se propaga una enfermedad a través de una red social. La mayoría de estos modelos, sin embargo, tratan a las personas en las redes como si todos aceptaran por igual cualquier nueva creencia que les transmitan los contactos.

En cambio, los investigadores de Tufts basaron su modelo en la idea de que nuestras creencias preexistentes pueden influir fuertemente si aceptamos nueva información. Muchas personas rechazan la información fáctica respaldada por evidencia si se alejan demasiado de lo que ya creen. Los profesionales de la salud han comentado sobre la fuerza de este efecto, señalando que algunos pacientes que mueren a causa de la COVID se aferran a la creencia de que la COVID no existe.

Para explicar esto en su modelo, los investigadores asignaron una «creencia» a cada individuo en la red social artificial. Para hacer esto, los investigadores representaron las creencias de los individuos en el modelo de computadora con un número del 0 al 6, donde 0 representa una fuerte incredulidad y 6 una fuerte creencia. Los números podrían representar el espectro de creencias sobre cualquier tema.

Por ejemplo, uno podría pensar que el número 0 representa la fuerte incredulidad de que las vacunas contra el COVID ayudan y son seguras, mientras que el número 6 podría ser la fuerte creencia de que las vacunas contra el COVID son realmente seguras y efectivas.

Luego, el modelo crea una gran red de personas virtuales, así como fuentes institucionales virtuales que originan gran parte de la información que fluye en cascada a través de la red. En la vida real, podrían ser los medios de comunicación, las iglesias, los gobiernos y las personas influyentes en las redes sociales, básicamente los súper difusores de información.

El modelo parte de una fuente institucional que inyecta información a la red. Si una persona recibe información cercana a sus creencias, como un 5 sobre su 6 actual, es más probable que actualice esa creencia a un 5. Si la información entrante difiere significativamente de sus creencias actuales, diga un 2 sobre su creencia actual. 6, es probable que lo rechacen por completo y mantengan su creencia en el nivel 6.

Otros factores, como la proporción de sus contactos que les envían la información (básicamente, la presión de los compañeros) o el nivel de confianza en la fuente, pueden afectar la forma en que las personas actualizan sus creencias. Un modelo de red a nivel de población de estas interacciones proporciona una visión activa del poder de propagación y persistencia de la desinformación.

Las mejoras futuras del modelo tendrán en cuenta nuevos conocimientos de la ciencia de redes y la psicología, además de comparar los resultados del modelo con encuestas de opinión del mundo real y estructuras de redes a lo largo del tiempo.

Si bien el modelo actual sugiere que las creencias solo pueden cambiar gradualmente, se podrían modelar otros escenarios que provoquen un cambio más grande en las creencias, como un salto de 3 a 6 que podría ocurrir cuando le sucede un evento dramático a un influencer y pide a los seguidores que cambien de opinión. .

Con el tiempo, el modelo de computadora puede volverse más complejo para reflejar con precisión lo que está sucediendo en el campo, dicen los investigadores, quienes además de Rabb incluyen a su asesora docente Lenore Cowen, profesora de ciencias de la computación; el informático Matthias Scheutz; y JP deRuiter, profesor de psicología e informática.

«Se está volviendo demasiado claro que la mera transmisión de información fáctica puede no ser suficiente para impactar la mente del público, particularmente entre aquellos que están atrapados en un sistema de creencias que no se basa en hechos». dijo Cowen. «Nuestro esfuerzo inicial para incorporar esta información en nuestros modelos de los mecanismos de desinformación que se propagan en la sociedad podría enseñarnos cómo hacer que la conversación pública vuelva a los hechos y la evidencia».

COMENTARIOS: Háganos saber lo que piensa a través de Twitter o Facebook