Sem contramedidas, são necessárias apenas algumas ferramentas simples para contornar as funções de segurança e registrar uma identidade sintética por meio de um aplicativo móvel
Esta versão pública do nosso artigo foi parcialmente editada para evitar educar aspirantes a fraudadores sobre como deepfakes podem ser criados e usados para conduzir ataques a aplicativos móveis. A versão completa do artigo e um vídeo explicativo detalhado estão disponíveis mediante solicitação através da nossa página de contato da web .
O onboarding digital revolucionou a forma como os clientes se cadastram em novos serviços, seja abrindo uma conta bancária, inscrevendo-se em um aplicativo de namoro ou criando um perfil de mídia social. Mas o processo também introduz riscos de fraude e crime quando não se pode confiar na identidade digital de um novo cliente.
Uma pesquisa realizada durante um recente webinar da ID R&D descobriu que, embora 94% dos entrevistados compartilhem que ameaças de IA generativa estão em seu radar, apenas 37% se consideram adequadamente preparados para lidar com fraudes deepfake. Isto é preocupante porque a proporção de fraudes de identidade cometidas através de deepfakes duplicou, de acordo com estatísticas recentes compartilhadas pela Sumsub. Através de “ataques de injeção”, os fraudadores podem transmitir deepfakes de imagens faciais para contornar as verificações de liveness e, em seguida, criar e explorar contas fraudulentas. Com a crescente sofisticação dos deepfakes, tornou-se mais difícil confiar em nossas identidades digitais onde não há contramedidas em vigor.
Os bancos correm um risco particular, pois a técnica pode permitir que os fraudadores conduzam ataques em escala e estabeleçam um número ilimitado de contas fraudulentas sem serem detectados. Os aplicativos de namoro e de mídia social enfrentam o perigo de expor seus usuários legítimos a predadores online.
As ferramentas para conduzir um ataque estão facilmente disponíveis
Para conduzir um ataque de injeção deepfake, os fraudadores precisam apenas de um conjunto de ferramentas básicas de software que são surpreendentemente acessíveis, simples de usar e alarmantemente eficazes. [Esta seção foi parcialmente editada. Entre em contato com a ID R&D para obter mais informações.]
Munidos dessas ferramentas, as etapas para registrar uma identidade sintética são simples:
- Um fraudador prepara os dados para uma ou mais identidades sintéticas, completas com imagens faciais falsas e dados de identidade biográfica.
- Os arquivos deepfake são transmitidos ou apresentados a partir de uma câmera virtual, o que pode fazer parecer que a imagem é ao vivo e vem de uma câmera real.
- O aplicativo móvel alvo de fraude é executado em um programa de software especial que é amplamente compartilhado entre redes fraudulentas.
- O processo de onboarding digital é iniciado.
- Para captura de selfie, as imagens faciais falsas são transmitidas como se fossem ao vivo.
Metodologias para detecção de ataques por injeção de vídeo
A detecção de ataques de injeção de vídeo envolve uma série de etapas, que são cruciais para garantir a segurança e integridade de imagens biométricas e dados de vídeo. Essas etapas incluem a criação de uma árvore de ataque abrangente, a implementação de detectores que cubram todos os vetores de ataque, a avaliação de possíveis brechas de segurança e a criação de um processo de melhoria contínua para a árvore de ataque e medidas de mitigação associadas. Abaixo estão metodologias para a detecção de alguns tipos de ataques de injeção amplamente utilizados. Para obter mais detalhes sobre ataques de injeção, entre em contato com a ID R&D .
Detecção de injeção de Javascript . Um potencial vetor de ataque para injeção de vídeo é através do Javascript utilizado no processo de captura biométrica. As metodologias de mitigação devem ser abrangentes, abrangendo diferentes navegadores e plugins. As técnicas incluem ofuscação de código para aumentar a dificuldade de hackear e usar bibliotecas específicas para codificar binariamente o código Javascript.
Detecção de câmera virtual . As câmeras virtuais aparecem como câmeras adicionais no sistema operacional. Eles podem fornecer planos de fundo virtuais, filtros de vídeo e outras manipulações, que podem ser exploradas para ataques de injeção de vídeo. Abordagens baseadas em software e IA podem ser empregadas para detectar câmeras virtuais. Essas técnicas baseiam-se na identificação de discrepâncias entre a câmera virtual e a física.
Detecção de captura de vídeo por hardware . Capturadores de vídeo de hardware também podem ser usados para ataques de injeção de vídeo. Elas funcionam como câmeras de hardware secundárias no sistema operacional, permitindo que um vídeo seja transmitido de outro dispositivo via USB como se fosse uma câmera real. Abordagens semelhantes àquelas usadas para detecção de câmeras virtuais também podem ser empregadas aqui.
A detecção de ataques de injeção é essencial para impedir ataques deepfake
Embora muitos aplicativos móveis incluam detecção de ataque de apresentação (PAD) durante o registro de selfie para evitar que os usuários apresentem cópias impressas ou replays de tela, isso nem sempre é suficiente para impedir todos os ataques deepfake. A detecção de ataques de injeção vai além do PAD para detectar não apenas conteúdo deepfake usado em um ataque de apresentação, mas também o uso de câmeras virtuais e outros vetores de ataque avançados. A detecção de ataques de injeção ajuda as empresas a mitigar significativamente o risco de criação de contas fraudulentas, garantindo um onboarding digital seguro e uma experiência segura para seus clientes. À medida que a tecnologia deepfake se torna mais sofisticada, a urgência de implementar tais contramedidas só aumentará.
Os ataques deepfake representam uma nova ameaça ao onboarding digital, e compreender esses riscos é o primeiro passo para mitigá-los. Na corrida armamentista impulsionada pela IA entre a segurança e a fraude, permanecer vigilante e proativo na utilização das contramedidas mais recentes não é apenas benéfico – é essencial.
As capacidades crescentes da inteligência artificial reforçaram significativamente a nossa capacidade de detectar ataques de injeção mais complexos. Algoritmos baseados em IA podem analisar os artefatos do sinal de vídeo e identificar diferenças sutis nos caminhos do sinal de vídeo dentro do sistema operacional, seja o sinal proveniente de câmeras virtuais, vídeos pré-salvos injetados ou fluxos de vídeo de câmeras reais. A alta precisão na detecção dessas diferenças pode ser alcançada com um processo robusto de IA e amplos dados rotulados.