Deepfakes se están apoderando de TikTok: así es como puedes detectarlos

Deepfakes se están apoderando de TikTok: así es como puedes detectarlos

julio 21, 2022 0 Por RenzoC


Una de las plataformas de redes sociales más populares del mundo, TikTok, ahora alberga un flujo constante de videos falsos.

Deepfakes son videos en los que la cara o el cuerpo de un sujeto se ha alterado digitalmente para parecerse a otra persona, generalmente una persona famosa.

Un ejemplo notable es la cuenta de TikTok @deeptomcriuse, que publicó docenas de videos falsos en los que se hacía pasar por Tom Cruise y obtuvo unos 3,6 millones de seguidores.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

Deepfakes captó la atención de los medios el año pasado, con videos que se hacen pasar por el actor de Hollywood Tom Cruise que se vuelven virales.

En otro ejemplo, el CEO de Meta, Mark Zuckerberg, parece confesar el intercambio de datos conspirativos. Más recientemente, ha habido una serie de videos tontos con actores como Robert Pattinson y Keanu Reeves.

Aunque los deepfakes a menudo se usan de forma creativa o por diversión, se utilizan cada vez más en campañas de desinformación, suplantación de identidad y desacreditación de figuras públicas y celebridades.

Y si bien la tecnología necesaria para hacerlos es sofisticada, se está volviendo cada vez más accesible, dejando atrás el software de detección y la regulación.

Una cosa es segura: los deepfakes llegaron para quedarse. Entonces, ¿qué podemos hacer con ellos?

Varios roles

La manipulación de texto, imágenes y secuencias ha sido durante mucho tiempo la base de la interactividad. Y los deepfakes no son una excepción; son el resultado de un profundo deseo de participar en la cultura, la narración, el arte y el remix.

La tecnología es ampliamente utilizada en las artes digitales y la sátira. Proporciona técnicas más refinadas (y más baratas) para las inserciones visuales, en comparación con las pantallas verdes y las imágenes generadas por computadora.

La tecnología deepfake también puede permitir resurrecciones auténticas de actores fallecidos y recreaciones históricas. Incluso pueden desempeñar un papel en ayudar a las personas a llorar a sus seres queridos fallecidos.

El comediante Jordan Peele proporciona la voz en off para un deepfake con el expresidente estadounidense Barack Obama.

Pero también están disponibles para mal uso.

Al mismo tiempo, se cree que la tecnología deepfake tiene varios problemas sociales como:

  • Deepfakes se utilizan como «pruebas» para otras noticias falsas e información errónea.
  • Deepfakes se utilizan para desacreditar a las celebridades y otras personas cuyos medios de vida dependen de compartir contenido mientras mantienen una reputación.
  • Dificultades para proporcionar imágenes verificables para comunicación política, mensajes de salud y campañas electorales.
  • Los rostros de las personas se utilizan en la pornografía deepfake.

El último punto es de especial interés. En 2019, la empresa de software de detección de deepfakes Deeptrace descubrió que el 96 % de los 14 000 deepfakes eran de naturaleza pornográfica. Se han utilizado aplicaciones gratuitas, como la ahora desaparecida DeepNude 2.0, para mostrar mujeres desnudas vestidas en imágenes, a menudo con fines de venganza pornográfica y chantaje.

En Australia, las aplicaciones deepfake incluso han permitido a los perpetradores eludir las leyes de «pornografía de venganza», un problema que se espera que se agrave pronto.

Más allá de eso, los deepfakes también se utilizan en el robo de identidad y las estafas, especialmente en forma de mensajes de video de un «colega» o «pariente» de confianza que solicita una transferencia de dinero. Un estudio encontró que el fraude de identidad por manipulación digital le costó a las instituciones financieras de EE. UU. $ 20 mil millones en 2020.

Una preocupación creciente

Los creadores de deepfakes señalan el tiempo y el esfuerzo que se necesita para que estos videos se vean realistas. Tomemos como ejemplo a Chris Ume, el artista de efectos visuales e inteligencia artificial detrás de la cuenta de TikTok @deeptomcruise. Cuando esta cuenta apareció en los titulares el año pasado, Ume le dijo a The Verge que «no puedes hacerlo con solo presionar un botón».

Pero hay buena evidencia de que los deepfakes son cada vez más fáciles de fabricar. Investigadores de la iniciativa Global Pulse de las Naciones Unidas han demostrado cómo se pueden simular discursos de manera realista en solo 13 minutos.

A medida que se desarrollan más y más aplicaciones deepfake, podemos esperar que personas menos capacitadas produzcan más y más deepfakes genuinos. Piensa en cómo se ha disparado la edición de fotos en la última década.

Las leyes, las reglamentaciones y el software de detección luchan por mantenerse al día con los avances de la tecnología deepfake.

En 2019, Facebook fue criticado por no eliminar un video manipulado de la política estadounidense Nancy Pelosi después de que no cumplió con su definición de falsificación profunda.

En 2020, Twitter prohibido compartir medios sintéticos que puedan engañar, confundir o dañar a las personas (a menos que se coloque una etiqueta). TikTok hizo lo mismo. Y YouTube ha prohibido las falsificaciones profundas relacionadas con las elecciones federales de EE. UU. de 2020.

Pero incluso si se trata de políticas bien intencionadas, es poco probable que los moderadores de la plataforma puedan responder a los informes y eliminar los deepfakes lo suficientemente rápido.

En Australia, los abogados de la firma Ashurst de Nueva Gales del Sur dijeron que las leyes existentes sobre derechos de autor y difamación pueden no proteger a los australianos contra las falsificaciones profundas.

Y aunque los intentos de hacer leyes han comenzado en el extranjero, se centran en la comunicación política. Por ejemplo, California ha declarado ilegal publicar o distribuir contenido manipulado digitalmente de un candidato durante una elección, pero no tiene protecciones para los no políticos o las celebridades.

Cómo detectar un deepfake

Uno de los mejores remedios contra los deepfakes dañinos es que los usuarios se equipen con tantas habilidades de detección como sea posible.

Por lo general, la primera señal de una falsificación profunda es que algo se va a sentir «fuera de lugar». Si es así, mire más de cerca la cara del sujeto y pregúntese:

  • ¿El rostro es demasiado liso o hay sombras inusuales en los pómulos?
  • ¿Los movimientos de los párpados y la boca parecen inconexos, forzados o poco naturales?
  • ¿El cabello se ve falso? La tecnología deepfake actual lucha por conservar el aspecto original del cabello (especialmente el vello facial).

El contexto también es importante:

  • Pregúntate qué está diciendo o haciendo el personaje. ¿Rechazan las vacunas o protagonizan un clip porno? Cualquier cosa que parezca fuera de lugar o contraria al conocimiento común será relevante aquí.
  • Busque en línea palabras clave sobre el video o la persona en él, ya que muchos deepfakes sospechosos ya habrán sido desacreditados.
  • Intente juzgar la confiabilidad de la fuente: ¿parece auténtica? Si está en una plataforma de redes sociales, ¿se verifica la cuenta del cartel?

Mucho de lo anterior es alfabetización digital básica y requiere buen juicio. Donde falla el sentido común, hay formas más profundas de tratar de detectar falsificaciones profundas. Puedes:

  • Busque las palabras clave utilizadas en el video para ver si hay una transcripción pública de lo que se dice; los medios a menudo cubren citas de políticos y celebridades de alto perfil dentro de las 72 horas.
  • Tome una captura de pantalla del video que se está reproduciendo y realice una búsqueda inversa de imágenes en Google. Esto puede revelar si existe una versión original del video, que luego puede comparar con la versión dudosa.
  • Transmita directamente cualquier video sospechoso que muestre a un «compañero de trabajo» o «pariente» de esa persona.

Finalmente, si logras detectar un deepfake, no te lo guardes. Presiona siempre el botón de cambio.La conversación

Artículo de Rob Cover, Profesor de Comunicación Digital, Universidad RMIT

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.