Por Silvana de Oliveira – Perita Judicial, Grafotécnica, Especialista em Provas Digitais e Investigação Forense
Como usam sua selfie para abrir contas: desafios jurídicos e forenses do reconhecimento facial na era da inteligência artificial
A popularização de sistemas de reconhecimento facial, aliados ao avanço da inteligência artificial, inaugurou uma nova fronteira para a cibercriminalidade. A manipulação de imagens e a criação de rostos sintéticos por meio de técnicas de deepfake e faceswap têm permitido fraudes sofisticadas, em que criminosos se passam por terceiros para abrir contas bancárias, obter crédito e realizar operações financeiras ilícitas. O presente artigo analisa o fenômeno da clonagem facial e suas implicações jurídicas e forenses, examinando a vulnerabilidade dos sistemas de autenticação biométrica, o papel da engenharia social e a necessidade de novas estratégias de prevenção e investigação. O estudo também propõe a adoção de mecanismos adicionais de segurança, como autenticação em múltiplas camadas, verificação por blockchain e capacitação técnica das autoridades competentes.
O avanço das tecnologias digitais transformou profundamente as interações humanas, tornando o ambiente virtual uma extensão direta do mundo físico. Surge, assim, o conceito de onlife1, que reflete a dissolução das fronteiras entre o analógico e o digital. No mesmo compasso, o crime também migra, e práticas fraudulentas antes restritas a documentos físicos ganham novos contornos na esfera digital.
As tecnologias de reconhecimento facial, originalmente concebidas para fins de segurança e conveniência, vêm sendo desviadas para usos ilícitos, permitindo a criação de identidades falsas com base em fotos públicas das vítimas. Esse cenário inaugura o que se pode chamar de “roubo de identidade 4.0”, no qual o rosto, antes símbolo de individualidade, se converte em vulnerabilidade.
Importa destacar que a inteligência artificial (IA) não é, por si, a causa do problema. Assim como a Revolução Industrial substituiu a força física humana, a IA automatiza processos cognitivos, ampliando a eficiência — inclusive para fins criminosos. O desafio, portanto, não é conter a tecnologia, mas compreender seu uso desviado e responder a ele com técnica, ética e governança.
A engenharia social e o crime 4.0
A engenharia social permanece como a principal ferramenta dos fraudadores. Trata-se da manipulação psicológica da vítima para induzi-la a fornecer dados ou realizar ações que favoreçam o êxito criminoso.
No passado, falsificações exigiam perícia e habilidade manual; hoje, basta acessar bases de dados vazados ou vendidos em fóruns da deep web para construir perfis completos. A disseminação de informações pessoais — CPF, endereço, filiação, contas bancárias e até imagens — cria um ambiente fértil para golpes automatizados, potencializados por modelos de aprendizado de máquina capazes de personalizar mensagens e simular conversas humanas (ZUBOFF, 2019).
Assim, o crime 4.0 combina engenharia social, automação algorítmica e IA generativa, produzindo fraudes de alta verossimilhança, sem erros linguísticos ou sinais evidentes de falsificação.
O uso criminoso da selfie e a clonagem facial
A prática criminosa em análise funciona em etapas simples: o agente coleta selfies ou fotos públicas da vítima, utiliza algoritmos para treinar um modelo facial sintético e gera uma imagem cujo vetor biométrico (assinatura facial) é quase idêntico ao original.
Com esse rosto sintético, o fraudador cria um documento falso e realiza uma “selfie de verificação” em aplicativos bancários ou plataformas digitais. O sistema de reconhecimento facial, ao comparar o vetor biométrico, identifica erroneamente a imagem como verdadeira e autoriza a operação.
Dessa forma, o criminoso abre contas, solicita crédito, redefine senhas e realiza transações como se fosse a vítima. O sistema valida o rosto, mas não há uma pessoa real por trás da foto — apenas um artefato digital gerado por IA.
O colapso do reconhecimento fotográfico e os riscos para o Direito
O reconhecimento facial, embora amplamente adotado, não é infalível. Desde 2023, as tecnologias de deepfake evoluíram a ponto de superar as limitações anteriores — falhas nas mãos, deformações faciais ou expressões artificiais. Atualmente, vídeos e fotos falsos exibem microexpressões realistas, sincronização labial precisa e respiração natural, tornando a detecção uma tarefa complexa até para sistemas automatizados.
Os casos de by-pass facial — invasão de contas por meio de falsificação de imagem — já são relatados em plataformas governamentais e bancárias. A perícia digital enfrenta o desafio de provar a falsificação e atribuir autoria, uma vez que os rastros técnicos (metadados, hashes, logs) podem ser manipulados.
O impacto jurídico é expressivo: coloca-se em dúvida a validade da prova digital e a responsabilidade das instituições pela falha no dever de segurança da informação, prevista no art. 46 da Lei nº 13.709/2018 (LGPD).
Implicações para a perícia e a governança digital
Do ponto de vista forense, a análise de autenticidade de mídias digitais requer novos métodos de verificação. A simples comparação visual é insuficiente. Técnicas de forensic watermarking, error level analysis (ELA) e verificação de integridade criptográfica tornam-se essenciais . No campo jurídico, as instituições financeiras e os provedores de serviço devem adotar camadas múltiplas de autenticação — biometria de íris, digitais, validação por dispositivo confiável, e registro em blockchain de imagens e vídeos utilizados para autenticação.
Além disso, impõe-se a necessidade de capacitação técnica dos agentes públicos, especialmente peritos e autoridades de persecução penal, para que possam atuar de modo eficaz em um cenário de manipulação algorítmica e falsificação digital.
O “rinoceronte cinza” digital: prevenção e antecipação
A metáfora do rinoceronte cinza, desenvolvida por Michele Wucker2, descreve ameaças grandes e visíveis que tendemos a ignorar até que se tornem crises. No contexto da cibercriminalidade, o reconhecimento facial vulnerável é exatamente esse rinoceronte: um perigo previsível, mas negligenciado.
A prevenção é, portanto, o único caminho seguro. A iniciativa privada deve investir em compliance digital, gestão de riscos cibernéticos e auditorias de integridade algorítmica. O Estado, por sua vez, precisa fortalecer suas capacidades técnicas, unindo investigação digital (OSINT) à tradicional investigação de campo. A sobrevivência jurídica e institucional no mundo digital exige integração entre Direito, tecnologia e perícia. A cada selfie publicada, nasce um novo risco; e ignorar esse fato é abrir as portas para o próximo golpe.
O uso de selfies e reconhecimento facial como ferramenta de autenticação inaugura um dilema ético e jurídico de proporções inéditas. O que antes garantia segurança, agora se converte em vulnerabilidade. O roubo de identidade 4.0 redefine o conceito de individualidade e desafia os mecanismos tradicionais de prova e autoria. A resposta a esse fenômeno exige prevenção tecnológica, capacitação institucional e atualização legislativa. A verdade é que já não basta acompanhar a tecnologia — é preciso sobreviver a ela. O rosto, outrora símbolo da identidade humana, tornou-se senha, mercadoria e, muitas vezes, isca. E se o “rinoceronte cinza digital” já está à solta, resta apenas escolher entre negá-lo ou enfrentá-lo com lucidez técnica e jurídica.
- Fonte: https://www.conjur.com.br/2025-out-03/como-usam-sua-selfie-para-abrir-contas-por-meio-do-reconhecimento-facial ↩︎
- Fonte: https://alvaroflores.com.br/artigo/o-rinoceronte-cinza-de-michele-wucker-resenha ↩︎
Vimos que você gostou e quer compartilhar. Sem problemas, desde que cite o link da página. Lei de Direitos Autorais, (Lei 9610 de 19/02/1998), sua reprodução total ou parcial é proibida nos termos da Lei
