
La obsesión de Elon Musk con los bots no hará nada para detener el spam en Twitter
mayo 24, 2022
Twitter informa que menos del 5% de las cuentas son falsas o remitentes de spam, comúnmente conocidos como «bots». Desde que se aceptó su oferta de compra de Twitter, Elon Musk ha cuestionado repetidamente estas estimaciones, llegando incluso a desestimar Respuesta pública del Director Gerente Parag Agrawal.
almizcle tardío puso el caso en suspenso y exigió más pruebas.
Entonces, ¿por qué la gente discute sobre el porcentaje de cuentas bot en Twitter?
Como creadores de Botometer, una herramienta de detección de bots ampliamente utilizada, nuestro grupo del Social Media Observatory de la Universidad de Indiana ha estado estudiando las cuentas no auténticas y la manipulación en las redes sociales durante más de 100 años. Destacamos el concepto de «bot social» y estimamos por primera vez su prevalencia en Twitter en 2017.
Con base en nuestro conocimiento y experiencia, creemos que estimar el porcentaje de bots en Twitter se ha convertido en una tarea muy difícil, y debatir la precisión de la estimación podría perder el sentido. Este es el por qué.
¿Qué es exactamente un bot?
Para medir la prevalencia de cuentas problemáticas en Twitter, es necesaria una definición clara de los objetivos. Términos comunes como «cuentas falsas», «cuentas de spam» y «bots» se usan indistintamente, pero tienen significados diferentes. Las cuentas falsas o falsas son aquellas que se hacen pasar por personas. Las cuentas que producen en masa contenido promocional no solicitado se definen como spammers. Los bots, por otro lado, son cuentas controladas en parte por software; pueden publicar contenido o realizar interacciones simples, como retuitear, automáticamente.
Estos tipos de cuentas a menudo se superponen. Por ejemplo, puede crear un bot que finja ser humano para publicar correo no deseado automáticamente. Tal cuenta es a la vez un bot, un spammer y una falsificación. Pero no todas las cuentas falsas son bots o spammers, y viceversa. Llegar a una estimación sin una definición clara solo produce resultados engañosos.
Definir y distinguir los tipos de cuentas también puede informar las intervenciones apropiadas. Las cuentas falsas y los correos electrónicos no deseados degradan el entorno en línea y violento. política de la plataforma. Los bots maliciosos se utilizan para difundir información errónea, inflar la popularidad, exacerbar conflictos a través de contenido negativo e incendiario, manipular opiniones, influir en elecciones, realizar fraudes financieros e interrumpir la comunicación. Sin embargo, algunos bots pueden ser inofensivos o incluso útiles, como ayudar a difundir información, transmitir alertas de desastres y realizar investigaciones.
Simplemente prohibir todos los bots no es lo mejor para los usuarios de las redes sociales.
Para simplificar, los investigadores usan el término «cuentas no auténticas» para referirse a la colección de cuentas falsas, spammers y bots maliciosos. Esta es también la definición que Twitter parece estar usando. Sin embargo, no está claro qué tiene Musk en mente.
dificil de contar
Incluso cuando se llega a un consenso sobre una definición, quedan desafíos técnicos para estimar la prevalencia.
Los investigadores externos no tienen acceso a los mismos datos que Twitter, como direcciones IP y números de teléfono. Esto dificulta la capacidad del público para identificar cuentas no auténticas. Pero incluso Twitter reconoce que la cantidad real de cuentas no auténticas podría ser más alta de lo estimado, porque la detección es difícil.
Las cuentas no auténticas evolucionan y desarrollan nuevas tácticas para evadir la detección. Por ejemplo, algunas cuentas falsas use caras generadas por IA como perfiles. Estos rostros pueden ser indistinguibles de los reales, incluso para los humanos. Identificar estas cuentas es difícil y requiere nuevas tecnologías.
Otra dificultad la plantean las cuentas coordinadas que parecen ser normales individualmente pero actúan de manera tan similar entre sí que es casi seguro que están controladas por una sola entidad. Sin embargo, son como agujas en el pajar de cientos de millones de tweets diarios.
Finalmente, las cuentas no auténticas pueden evadir la detección a través de técnicas como el intercambio de identificadores o la publicación y eliminación automática de grandes volúmenes de contenido.
La distinción entre cuentas no auténticas y genuinas se está volviendo cada vez más borrosa. Las cuentas se pueden piratear, comprar o alquilar, y algunos usuarios «dan» sus credenciales a organizaciones que publican en su nombre. Como resultado, las llamadas cuentas «cyborg» están controladas tanto por algoritmos como por humanos. Del mismo modo, los spammers a veces publican contenido legítimo para disfrazar su actividad.
Observamos un amplio espectro de comportamientos que mezclan características de bots y personas. Estimar la prevalencia de cuentas no auténticas requiere aplicar una clasificación binaria simplista: cuenta auténtica o no auténtica. No importa dónde se dibuje la línea, los errores son inevitables.
Falta la descripción general
El enfoque del debate reciente en estimar la cantidad de bots de Twitter simplifica demasiado el tema y pasa por alto la importancia de cuantificar el daño causado por el abuso y la manipulación en línea por parte de cuentas no auténticas.
Kaicheng yang
La evidencia reciente sugiere que las narrativas no auténticas pueden no ser las únicas responsables de la difusión de información errónea, discurso de odio, polarización y radicalización. Estos problemas generalmente involucran a muchos usuarios humanos. Por ejemplo, nuestro análisis muestra que las cuentas verificadas y de alto perfil han difundido abiertamente información errónea sobre el COVID-19 en Twitter y Facebook. Gracias a BotAmp, una nueva herramienta de la familia Botometer que cualquier persona con una cuenta de Twitter puede usar, descubrimos que la presencia de actividad automatizada no se distribuye uniformemente. Por ejemplo, el chat de criptomonedas tiende a mostrar más actividad de bots que el chat de chat. Por lo tanto, que la prevalencia general sea del 5 % o del 20 % hace poca diferencia para los usuarios individuales; sus experiencias con estas cuentas dependen de las personas a las que siguen y de los temas que les interesan.
Incluso si fuera posible estimar con precisión la prevalencia de cuentas no auténticas, esto haría poco para resolver estos problemas. Un primer paso significativo sería reconocer la naturaleza compleja de estos temas. Esto ayudará a las plataformas de redes sociales y a los formuladores de políticas a elaborar respuestas significativas.
Artículo de Kai-Cheng Yang, estudiante de doctorado en informática, Universidad de Indiana y Filippo Menczer, profesor de informática y ciencias de la computación, Universidad de Indiana
Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.