
¿Quieres detectar una videollamada deepfake? Pídeles que se pongan de lado.
agosto 12, 2022
Los investigadores han descubierto una forma sorprendentemente simple de detectar videollamadas falsas: pedirle al sospechoso que se ponga de lado.
El consejo fue compartido esta semana por Metafísica.aiuna startup con sede en Londres detrás de los deepfakes virales de Tom Cruise.
La compañía usó DeepFaceLive, una aplicación popular para videos falsos, para convertir a un voluntario en varias celebridades.
Regístrese para recibir el boletín de la conferencia TNW
¡Y sé el primero en la fila para recibir ofertas de boletos, noticias de eventos y más!
La mayoría de las recreaciones eran impresionantes cuando se miraba de frente. Pero una vez que los rostros giraron 90 grados, las imágenes se distorsionaron y el hechizo se rompió.
El equipo cree que las fallas surgen porque el software usa menos puntos de referencia para estimar las vistas laterales de las caras. Esto obliga al algoritmo a no poder adivinar cómo se vería.
“Los paquetes de alineación 2D típicos consideran que una vista de perfil está oscurecida en un 50 %, lo que dificulta el reconocimiento, así como la formación precisa y la posterior síntesis de rostros”, explicó Martin Anderson de Metaphysic.ai en una publicación de blog.
«Con frecuencia, los puntos de referencia de perfil generados ‘saltarán’ a cualquier posible grupo de píxeles que pueda representar un ‘ojo faltante’ u otro detalle facial oscurecido en una vista de perfil».
Estos puntos débiles se pueden fortalecer, pero requiere mucho trabajo.
YouTuber DesiFakes demostró que es posible después de agregar un Jerry Seinfeld Deepfake a un personaje en Pulp Fiction. Pero esto requirió un extenso procesamiento posterior. Además, la vista de perfil de Seinfeld se parecía mucho a la del actor original.
Sin embargo, esto es difícil de replicar para el público en general, ya que rara vez somos filmados o fotografiados de perfil, a menos que seamos arrestados.
Esto puede dejar a los modelos deepfake con datos de entrenamiento insuficientes para generar vistas laterales realistas.

La investigación de Metaphysic.ai surge en medio de la creciente preocupación por las videollamadas falsas.
En junio, varios alcaldes europeos fueron engañados por una videollamada de Vitali Klitschko.
Unos días después, el FBI advirtió que los estafadores están usando deepfakes en entrevistas para trabajos completamente remotos que ofrecen acceso a información valiosa.
Es posible que el truco secundario no haya salvado a todas las víctimas. Los futuros sistemas de puntos de referencia en 3D podrían producir atractivas vistas de perfil, mientras que los modelos CGI fotorrealistas podrían reemplazar cabezas enteras.
Aún así, el truco de la vista lateral agrega otra oportunidad para detectar falsificadores, y otra razón para no ser atrapado.