Wikipedia recurre a un aliado sorprendente en la lucha contra la desinformación: Meta

Wikipedia recurre a un aliado sorprendente en la lucha contra la desinformación: Meta

julio 11, 2022 0 Por RenzoC


Wikipedia es una fuente única de conocimiento libre, pero la enciclopedia más popular del mundo. no siempre es exacto.

El modelo de edición participativa del sitio es propenso al vandalismo y la parcialidad. Aunque su reputación de precisión mejoradoincluso Wikipedia no se consideran a sí mismos una fuente confiable

La Fundación Wikimedia, la organización sin fines de lucro que supervisa Wikipedia, explora nuevas soluciones a estas deficiencias. Su último esfuerzo aprovecha el poder de la IA.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

La fundación se asoció recientemente con Meta para mejorar las citas de Wikipedia. Estas referencias se utilizan para corroborar la información de colaboración colectiva en el sitio, pero a menudo faltan, están incompletas o son inexactas.

Mientras los voluntarios de Wikipedia revisan las notas al pie, les resulta difícil mantenerse al día cuando hay más Cada mes se agregan 17,000 artículos nuevos. Esta escala hace que el problema sea un caso de uso convincente para el aprendizaje automático.

La propuesta de Meta verifica las referencias. El equipo dice que es el primer modelo que puede escanear automáticamente cientos de miles de cotizaciones a la vez para verificar su precisión.

Código fuente

La fuente de conocimiento del modelo es un nuevo conjunto de datos de 134 millones de páginas web públicas. Apodado Esfera, dice Meta la biblioteca de código abierto es más grande y más complejo que cualquier corpus utilizado para tal investigación.

Nuestro trabajo puede contribuir a los esfuerzos de verificación de hechos.

Para encontrar fuentes adecuadas en el conjunto de datos, los investigadores entrenaron sus algoritmos en 4 millones de citas de Wikipedia. Esto permitió que el sistema descubriera una sola fuente para validar cada declaración.

Un modelo de clasificación de evidencia compara fuentes alternativas con la referencia original.

Si una cita parece irrelevante, el sistema recomendará una mejor fuente, junto con un pasaje específico que respalde la acusación. Un editor humano puede revisar y aprobar la sugerencia.

Para ilustrar cómo funciona esto, los investigadores utilizaron el ejemplo de un Página de Wikipedia sobre el boxeador retirado Joe Hipp.

La entrada describe el Tribu Blackfoot miembro como primer nativo americano en competir por la AMB Título mundial de peso pesado. Pero la modelo reveló que la cita para ese reclamo era una página web que ni siquiera mencionaba a Hipp o al boxeo.

Luego, el sistema buscó en el corpus de Sphere una referencia de reemplazo. Desenterró este pasaje de un artículo de 2015 en el Tribuna de las Grandes Cataratas:

En 1989, en el ocaso de su carrera, [Marvin] Camel luchó contra Joe Hipp de Blackfeet Nation. Hipp, quien se convirtió en el primer nativo americano en pelear por el campeonato mundial de peso pesado, dijo que la pelea fue una de las más raras de su carrera.

Aunque el pasaje no menciona explícitamente el boxeo, el modelo infirió el contexto de las pistas. Estos incluían el término «peso pesado» y la palabra «desafío» como sinónimo de «competir», que apareció en la entrada original de Wikipedia.


Verificación de hechos futuros

El equipo ahora tiene como objetivo convertir su investigación en un sistema completo. Eventualmente, planean crear una plataforma que los editores de Wikipedia puedan usar para detectar y solucionar problemas de citas de manera sistemática.

Meta también tiene proyecto de código abiertolo que podría brindar a los investigadores externos nuevas herramientas para desarrollar sus propios sistemas de lenguaje de IA.

“Nuestros resultados indican que se podría usar un sistema basado en IA, junto con humanos, para mejorar la verificabilidad de Wikipedia”, dijo el los autores del estudio escribieron.

“De manera más general, esperamos que nuestro trabajo pueda usarse para ayudar en los esfuerzos de verificación de hechos y aumentar la confiabilidad general de la información en línea”.

La investigación puede profundizar los temores de que la verificación de datos automatizada y las grandes empresas tecnológicas se conviertan en árbitros de la verdad. La visión más optimista es que Meta finalmente ha encontrado una forma de utilizar su experimento de desinformación para bien.