
A cada cinco minutos ocorre um ataque de deepfakes em algum lugar do mundo.
As vítimas estão em todo o lado. Em Hong Kong, um funcionário do setor financeiro transferiu 25 milhões de dólares depois de fazer uma videochamada com alguém que parecia ser o diretor financeiro da sua empresa, quando, na verdade, todas as pessoas que faziam parte da chamada eram falsas. Em França, uma mulher foi enganada e levada a acreditar que estava numa relação com o Brad Pitt.
Quase 80% dos adultos não conseguem mais perceber se um vídeo é real ou falso. Esta é a nova realidade da fraude digital. O que começou como uma novidade evoluiu para uma crise que ameaça o próprio fundamento de como nos conectamos. Quando o rosto de qualquer pessoa pode tornar-se o rosto de outra, quando as vozes podem ser clonadas a partir de segundos de áudio, quando nem mesmo as videochamadas ao vivo são de confiança, resta uma pergunta perturbadora: como podemos acreditar mais em qualquer coisa ou em qualquer pessoa?
A resposta para esta questão existencial definirá o futuro da interação humana na era digital.
A explosão dos deepfakes
Os números pintam um retrato sombrio. O Wall Street Journal relata que, nos Estados Unidos, houve mais de 105 000 ataques de deepfakes no ano passado. A tecnologia por detrás desses ataques tornou-se devastadoramente acessível. O que antes exigia orçamentos e equipas especializadas dignas de Hollywood está, agora, nas mãos de qualquer pessoa com um dispositivo e uma ligação à internet.
O ataque não discrimina. Os golpistas utilizam a promoção falsa feita por deepfakes de celebridades para roubar milhões através de esquemas de investimento nas redes sociais. Após desastres naturais, os golpistas lançam apelos geradas por IA com os rostos de trabalhadores humanitários. Os deepfakes políticos espalham-se rapidamente, mostrando candidatos a dizer coisas que nunca disseram.
As instituições financeiras enfrentam uma crise especialmente grave: as fraudes relacionadas com os deepfakes explodiram 3000% em 2023, com os prejuízos médios para as empresas a chegar aos 500 000 $ por incidente. O setor das finanças digitais também foi atingido fortemente, com os deepfakes de IA a gerar 40% de todos os golpes com criptoativos de alto valor em 2024, o que contribuiu para 4,6 mil milhões de dólares em perdas globais.
Como a prova de humanidade enfraquece os deepfakes
E se pudéssemos reduzir a eficácia dos deepfakes? A tecnologia de prova de humanidade oferece uma ferramenta promissora. Ao implementar uma prova criptográfica de que estás a interagir com um humano único e real, esta tecnologia ataca a raiz do problema. Não tenta determinar se o conteúdo é falso; garante desde o início que a fonte é real.
As aplicações para a prova de humanidade são transformadoras:
- Comunicações seguras: verificar se a pessoa na videochamada é de facto um humano.
- Transações de confiança: garantir que conversas de alto risco ocorrem com um humano real e não com um deepfake de IA.
- Conteúdo autêntico: permitir que os criadores assinem de forma criptográfica o seu trabalho, deixando imediatamente claro o que é genuíno.
Ao contrário de sistemas que podem ser falsificados ou de bases de dados que podem ficar comprometidas, a verificação da prova de humanidade acontece através de criptografia que preserva a privacidade. Não há nenhuma base de dados central ou monitorização online, apenas a prova matemática de que um humano único e real está por detrás de uma ação.
Reconquistar o nosso futuro digital
A World oferece uma forma de se ter maior consciência no que diz respeito a interações humanas e sintéticas. A tecnologia Deep Face do protocolo, desenvolvida pelo World ID, fornece uma verificação de humanidade em tempo real durante chamadas de vídeo — garantindo que a pessoa que vês no ecrã é realmente humana.
Os deepfakes representam um ponto de viragem para a sociedade. Por um lado, está um mundo de dúvida permanente, no qual ver já não é acreditar e a confiança desaparece. Por outro, está um futuro em que podemos interagir com confiança, sabendo que as nossas conexões digitais são tão reais quanto as presenciais.
A escolha parece óbvia, mas a transição não será automática. Exige o reconhecimento de que os antigos paradigmas — deteção, moderação, ações corretivas posteriores — são necessários, mas insuficientes. Precisamos de uma atualização fundamental na nossa infraestrutura digital. A prova de humanidade pode oferecer-nos um caminho para dissuadir deepfakes antes que estes causem estragos ainda maiores.
Saber mais
Para te manteres informado sobre as novidades da World, além de outras notícias e comunicados interessantes, visita o site da World ou subscreve o blog abaixo.
Também podes participar na conversa diária em todos os canais de redes sociais da World ou obter informações adicionais importantes sobre o projeto lendo o documento técnico Worldcoin do protocolo World.
Artigos relacionados

Understanding World ·
O que é a World? Perguntas Frequentes sobre a prova de humanidade, privacidade e a rede dos humanos reais

Understanding World ·
Policy ·
Os benefícios económicos da prova de humanidade

Understanding World ·
Perguntas frequentes sobre o World ID

Understanding World ·