
La ampliación del Reino Unido lanza una nueva técnica de verificación de identidad: llamar la atención
septiembre 22, 2022
Un escalador del Reino Unido presentó esta semana un enfoque novedoso para la verificación de identidad: pedir a los usuarios que giren la cabeza.
Onfido, un spin-out de la Universidad de Oxford, lanzó el software en medio de un creciente fraude de identidad. Crecientes presiones económicas, creciente digitalización y agitación alimentada por una pandemia recientemente llevó a los políticos a advertir que una “epidemia de fraude” se extiende por el país de origen de Onfido, el Reino Unido.
Desarrollos similares se han visto en todo el mundo. En Estados Unidos, por ejemplo, alrededor de 49 millones de consumidores fueron víctimas de robo de identidad en 2020. — costándoles en total alrededor de $ 56 mil millones.
Estas tendencias han desencadenado un auge en el mercado de verificación de identidad. Los estafadores cada vez más sofisticados también obligan a los proveedores a desarrollar métodos de detección más avanzados.
Onfido le dio a TNW una demostración exclusiva de su entrada más reciente en el campo: una experiencia de captura por turnos denominada Motion.
La adopción de la incorporación biométrica se ha visto frenada por dos cuestiones clave. Se sabe que los métodos de detección «activos», que requieren que los usuarios realicen una secuencia de gestos frente a una cámara, altas tasas de deserción.
Los enfoques «pasivos», por otro lado, eliminan esta fricción porque no requieren acciones específicas del usuario, pero esto a menudo crea incertidumbre en el proceso. Un poco de fricción puede tranquilizar a los clientes, pero demasiada los asusta.
La moción intenta abordar ambos problemas. Giulia Di Nola, gerente de producto de Onfido, le dijo a TNW que la compañía probó más de 50 prototipos antes de decidir que la foto de rostro ofrecía el mejor equilibrio.
«Experimentamos con movimientos de dispositivos, diferentes movimientos de patrones, comentarios de los usuarios finales y trabajamos con nuestro equipo de investigación», dijo. «Fue el punto ideal que encontramos fácil de usar, lo suficientemente seguro y que nos dio todas las señales que necesitábamos».
Onfido afirma que las tasas de falso rechazo y aceptación del sistema son inferiores al 0,1%. Mientras tanto, la velocidad de verificación es de 10 segundos o menos para el 95% de los usuarios. Es rápido para la incorporación de clientes, pero lo suficientemente lento para un uso frecuente, lo que puede explicar por qué Onfido aún no usa el servicio para la autenticación regular.
En nuestra demostración, el proceso parecía rápido y fluido. Después de compartir una identificación con foto, se le pide al usuario que proporcione su biometría facial a través de un teléfono inteligente. Primero se les pide que coloquen la cara en el marco, luego que giren la cabeza ligeramente hacia la derecha y hacia la izquierda; el orden no importa.
A medida que se mueven, el sistema proporciona información para garantizar la alineación correcta. Unos momentos después, la aplicación toma su decisión: claro.
bajo el capó
Mientras el usuario está girando, AI compara la cara en la cámara con la cara en la identificación.
El video se secuencia en varios cuadros, que luego se separan en diferentes subcomponentes. Entonces una secuencia de aprendizaje profundo Networks analiza tanto las partes individuales como el video como un todo.
Las rejillas detectan patrones en la imagen. En el reconocimiento facial, estos patrones van desde la forma de la nariz hasta los colores de los ojos. En el caso de la suplantación de identidad, los patrones pueden ser reflejos de un video grabado, anteojos en un dispositivo digital o los bordes afilados de una máscara.
Cada red construye una representación de la imagen de entrada. Luego, toda la información se agrega en una sola puntuación.
«Eso es lo que ven nuestros clientes: si pensamos o no que la persona es genuina o una parodia», dijo Romain Sabathe, gerente de ciencias aplicadas de aprendizaje automático de Onfido.
La confianza de Onfido en Motion proviene, en parte, de una división inusual de la empresa: una unidad de creación de fraude.
En una ubicación que se asemeja a un estudio fotográfico, el equipo probó varias máscaras, resoluciones de iluminación, videos, imágenes manipuladas, frecuencias de actualización y ángulos. En total, crearon más de 1 000 000 de ejemplos de trucos diferentes, que se usaron para entrenar al algoritmo.
Cada caso fue probado en el sistema. Si pasaba los controles, el equipo investigó Motion con tipos similares de fraude, como diferentes versiones de una máscara. Esto generó un circuito de retroalimentación para encontrar problemas, solucionarlos y mejorar el mecanismo.
Motion también tuvo que trabajar en una amplia gama de usuarios. A pesar de los estereotipos de las víctimas, el fraude afecta a la mayoría de los grupos demográficos bastante uniformemente. Para garantizar que el sistema les sirva, Onfido ha implementado varios conjuntos de datos de capacitación y pruebas exhaustivas. La compañía afirma que esto ha reducido el sesgo algorítmico y los falsos rechazos en todas las geografías.
fraude de conspiración
Sabathe demostró cómo funciona Motion cuando un estafador usa una máscara.
Cuando el sistema captura su rostro, extrae información de la imagen. Luego traza los resultados como coordenadas en un gráfico 3D.
El gráfico está compuesto por grupos de colores, que corresponden a las características genuinas de los usuarios y los tipos de fraude. Cuando Sabathe se pone la máscara, el sistema rastrea la imagen en el grupo de trucos. Tan pronto como lo quita, el punto entra en el grupo verdadero.
“Podemos comenzar a comprender cómo la red interpreta los diferentes tipos de parodias y los diferentes usuarios genuinos que ve en función de esta representación”, dijo.
La técnica de rotación de la cabeza de Onfido se parece a eso. revelado el mes pasado por Metaphysic.ai, una startup detrás de los deepfakes virales de Tom Cruise. Los investigadores de la compañía descubrieron que una mirada de reojo podría exponer a las videollamadas falsas.
Di Nola señala que tales ataques de medios sintéticos siguen siendo raros, por ahora.
«Definitivamente no es el tipo de ataque más común que vemos en producción», dijo. «Pero es un área de la que somos conscientes y en la que invertimos».
Los ataques y las defensas contra el robo de identidad seguirán evolucionando rápidamente.