Por Marcelo Tavares de Santana*
É impressionante a capacidade das ferramentas de Inteligência Artificial produzirem vídeos falsos utilizando nossas fotos e áudios. Felizmente para nós, algumas pessoas têm produzido exemplos nas redes sociais de como é possível criar situações irreais utilizando imagens de outras pessoas, inclusive colocando voz artificial nessas produções. Isso acontece porque os computadores para produzir esses vídeos estão cada vez mais acessíveis, assim como as ferramentas mais fáceis. Não é absurdo pensar que no futuro próximo teremos celulares capazes de fazerem esses vídeos falsos. Como toda tecnologia essa possibilidade pode ser usada para o bem ou para o mal, pode ser usada para dar acesso à produção de vídeos educativos ou comerciais, porém também pode ser usada para golpes.
Essa tecnologia que permite criar vídeos muito realistas a partir de outras imagens é conhecido como deepfake, que é a junção de deep learning com fake, ou seja, de aprendizado profundo com falso. Basicamente, a partir de nossas imagens e áudios, algoritmos computacionais “aprendem” os traços de nossos rostos e o timbre de nossas vozes e depois do “aprendizado” é possível reproduzir situações irreais a partir dos dados coletados. O conteúdo falso pode ser vídeo ou só áudio, e para tentarmos nos proteger minimamente disso, algumas ações podem dificultar que tenham dados suficientes para produzir conteúdo falso convincente pela clonagem de voz ou imagem:
1. Prevenção pessoal
- desconfie de urgência emocional: pedidos “urgentes”, ameaças ou apelos afetivos são comuns em golpes;
- use palavra-código familiar: combine uma palavra ou frase secreta para confirmar identidade em situações críticas;
- nunca confirme dados sensíveis por áudio (CPF, senhas, códigos de verificação) quando receber o contato (quando nós fazemos o contato pode ser necessário para a outra parte confirmar nossa identidade);
- evite publicar áudios longos da sua voz em redes sociais (lives, podcasts públicos sem controle, WhatsApp aberto);
- em videos, verifique sincronia labial e microexpressões (piscar de olhos, boca imprecisa, olhar “travado”);
- observe iluminação e sombras: deepfakes ainda erram em reflexos, dentes e bordas do rosto;
- desconfie de baixa resolução “conveniente”: vídeo ruim pode ser proposital para esconder artefatos.
2. Boas práticas de verificação humanas:
- confirmação por segundo canal, ex.: recebeu um vídeo, ligue por telefone conhecido ou envie mensagem por outro canal;
- quebre o roteiro do golpista, faça perguntas inesperadas;
- crie atraso intencional: deepfake funciona melhor sob pressão, então ganhar tempo reduz risco, por exemplo, indo pegar um copo de água.
3. Prevenção organizacional:
- proíba decisões críticas baseadas apenas em áudio ou vídeo (transferências, autorizações, mudanças contratuais);
- exija autenticação multifator humana, inclusive encontro presencial dependendo da possibilidade/necessidade;
- atenção com urgência artificial, autoridade falsa, quebra de padrão de comportamento.
- exija assinaturas e autenticação forte, como ICP-Brasil na assinatura digital de documentos e vídeos.
4. Exposição digital consciente:
- reduza informações biométricas públicas: menos vídeos e áudios longos, quanto mais dados tiverem melhor fica o deepfake;
- restrinja perfis privados para familiares;
- evite IA aberta para “clonar a si mesmo” por brincadeira (muitas retêm amostras);
5. Resposta a incidentes, se suspeitar de deepfake:
- não reaja imediatamente;
- preserve evidências (arquivo original, print de tela, etc.);
- confirme por outro canal;
- comunique oficialmente (empresa, banco, administração);
6. Regra de ouro:
- áudio e vídeo deixaram de ser prova de identidade, identidade hoje exige contexto mais verificação cruzada.
Infelizmente, a tecnologia é muito sofisticada e leva a uma lista grande de recomendações, mas com um pouco de prática passa a ficar mais fácil, e nesse caso é muito interessante treinar os olhos e ouvidos indo nas redes sociais buscando os exemplos de pessoas que fazem deepfake para conscientizar sobre os avanços de ferramentas de Inteligência Artificial, que fazem esse tipo de conteúdo. Com o tempo teremos IAs que vão criar conteúdo em tempo real, acessível e fácil de usar, como já vimos na sétima arte.
Para este mês sugiro que pesquisem os termos “deepfake” e “IA”, vejam vídeos de exemplo e mostre aos familiares e amigos; podem até se divertir com isso.
Boa pesquisa/diversão!
* Professor de Ensino Básico, Técnico e Tecnológico do Instituto Federal de São Paulo





