Por qué los humanos y la IA están atrapados por las noticias falsas

Por qué los humanos y la IA están atrapados por las noticias falsas

marzo 17, 2021 0 Por RenzoC



Las noticias falsas son una plaga para la comunidad mundial. A pesar de nuestros mejores esfuerzos para combatirlo, el problema es más profundo que simplemente verificar los hechos o eliminar publicaciones especializadas en desinformación. El pensamiento actual todavía tiende a respaldar una solución basada en inteligencia artificial, pero ¿qué significa esto realmente?

Según una investigación reciente, incluido este artículo de científicos de la Universidad de Tennessee y el Instituto Politécnico Rensselaer, necesitaremos algo más que algoritmos inteligentes para corregir nuestro habla interrumpida.

El problema es simple: la IA no puede hacer nada que una persona no pueda. Bien sûr, il peut faire beaucoup de choses plus rapidement et plus efficacement que les gens – comme compter jusqu’à un million – mais, à la base, l’intelligence artificielle ne fait que mettre à l’échelle ce que les gens peuvent déjà hacer. Y la gente está realmente preocupada por identificar noticias falsas.

Según los investigadores antes mencionados, el problema radica en lo que se denomina «sesgo de confirmación». Básicamente, cuando una persona cree que ya sabe algo, es menos probable que se deje llevar por una etiqueta de «noticias falsas» o una descripción de «fuente dudosa».

Según el artículo del equipo:

En dos estudios secuenciales, utilizando datos recopilados de consumidores de noticias a través de Amazon Mechanical Turk (AMT), investigamos si existen diferencias en su capacidad para identificar correctamente noticias falsas en dos condiciones: cuando la intervención se dirige a nuevas situaciones de actualidad y cuando la intervención se adapta. . a heurísticas específicas. Descubrimos que en situaciones nuevas y actuales, los usuarios son más receptivos a los consejos de la IA y, además, en esta condición, los consejos personalizados son más efectivos que los genéricos.

Esto hace que sea increíblemente difícil diseñar, desarrollar y entrenar un sistema de inteligencia artificial para detectar noticias falsas.

Alors que la plupart d’entre nous peuvent penser que nous pouvons repérer les fausses nouvelles quand nous les voyons, la vérité est que les mauvais acteurs qui créent de la désinformation ne le font pas dans le vide: ils sont meilleurs pour mentir que nous pour decir la verdad. Al menos cuando dicen algo, ya creemos.

Los científicos descubrieron que las personas, incluidos los trabajadores independientes de Amazon Mechanical Turk, eran más propensos a ver erróneamente un artículo como falso si contenía información contraria a lo que creían que era cierto.

Por otro lado, era menos probable que las personas cometieran el mismo error cuando las noticias presentadas se consideraban parte de una nueva situación. En otras palabras: cuando pensamos que sabemos lo que está pasando, es más probable que estemos de acuerdo con las noticias falsas que coinciden con nuestras ideas preconcebidas.

Si bien los investigadores están identificando varios métodos mediante los cuales podemos usar esta información para fortalecer nuestra capacidad de informar a las personas cuando se les presentan noticias falsas, la conclusión es que la precisión no es el problema. Incluso cuando la IA lo hace bien, es menos probable que creamos verdadero Artículo de prensa cuando los hechos no se correspondan con nuestros prejuicios personales.

No es sorprendente. ¿Por qué debería alguien confiar en una máquina construida con gran tecnología en lugar de la palabra de un periodista humano? Si piensas: porque las máquinas no mienten, estás completamente equivocado.

Cuando un sistema de inteligencia artificial está diseñado para identificar noticias falsas, generalmente debe capacitarse en datos preexistentes. Para enseñarle a una máquina a reconocer y reportar noticias falsas en la naturaleza, necesitamos alimentarla con una mezcla de artículos reales y falsos para que pueda aprender a detectar quién es quién. Y los conjuntos de datos utilizados para entrenar la IA suelen estar etiquetados a mano por humanos.

A menudo, esto significa que los derechos de etiquetado para el crowdfunding se entregan a una empresa de mano de obra de bajo costo de terceros como Mechanical Turk de Amazon o una serie de almacenes de datos que se especializan en ensamblajes, datos, no en las noticias. Los humanos que deciden si una historia determinada es falsa o no pueden tener o no experiencia o pericia periodística real y los trucos que los malos actores pueden utilizar para crear noticias falsas convincentes y difíciles de detectar.

Y, mientras los humanos sean parciales, seguiremos viendo prosperar las noticias falsas. El sesgo de confirmación no solo nos dificulta diferenciar los hechos con los que no estamos de acuerdo de las mentiras que contamos, sino que la perpetuación y aceptación de mentiras descaradas y desinformación de celebridades, miembros de nuestra familia, compañeros, jefes y el cargo político más alto lo hace difícil convencer a la gente de lo contrario.

Si bien los sistemas de inteligencia artificial ciertamente pueden ayudar a identificar afirmaciones extremadamente falsas, especialmente cuando las realizan organizaciones de noticias que habitualmente se involucran en información falsa, el hecho es que si un artículo de prensa no es realmente un problema para los mas gente.

Tomemos, por ejemplo, la red de cable más vista en la televisión: Fox News. A pesar de que los abogados de Fox News han dicho repetidamente que muchos programas, incluido el segundo programa más visto en su red, presentado por Tucker Carlson, son de hecho noticias falsas.

Según un fallo en un caso de difamación contra Carlson, la jueza de distrito estadounidense Mary Kay Vyskocil, una persona designada por Trump, falló a favor de Carlson y Fox después de discernir que las personas razonables no tomarían la retórica diaria del facilitador como veraz:

El ‘tenor general’ del programa debe informar al espectador que [Carlson] no “declara los hechos reales” sobre los temas que discute y, en cambio, se entrega a la “exageración” y los “comentarios no literales”.[…]Fox argumenta de manera convincente que, dada la reputación de Carlson, cualquier espectador razonable «llega con una cantidad adecuada de escepticismo».

Y es por eso que, en el paradigma actual de las noticias, puede resultar imposible crear un sistema de inteligencia artificial capaz de determinar definitivamente si una determinada nota de prensa es verdadera o falsa.

Si las propias organizaciones de noticias, el público en general, los funcionarios electos, las grandes tecnologías y los supuestos expertos no pueden decidir si un artículo de noticias determinado es verdadero o falso sin prejuicios, no hay forma de confiar en un sistema de inteligencia artificial para hacerlo. . Mientras la verdad sea tan subjetiva como la política de cualquier lector, estaremos inundados de noticias falsas.

¡Saludos humanoides! ¿Sabías que tenemos un boletín informativo de IA? Puedes suscribirte aquí.

Publicado el 16 de marzo de 2021-21: 57 UTC