Matéria
Publicado há cerca de 4 horas · Tecnologia
A inteligência artificial (IA) revolucionou o dia a dia, mas também abriu portas para golpes cibernéticos cada vez mais sofisticados. Golpistas utilizam ferramentas de IA para clonar vozes, criar vídeos falsos e personalizar fraudes, tornando as armadilhas quase indistinguíveis da realidade. Uma reportagem da revista VEJA detalha os golpes mais comuns dessa era e oferece dicas práticas para se proteger.<grok:render type="render_inline_citation"><argument name="citation_id">1</argument></grok:render>
O golpe da clonagem de voz no WhatsApp é um dos mais perigosos. Criminosos coletam poucos segundos de áudio de redes sociais da vítima, como stories no Instagram ou TikTok, e usam IA para gerar mensagens de voz falsas. Nessas ligações ou áudios, eles se passam por familiares em emergência, pedindo depósitos urgentes via Pix. A autenticidade da voz engana até os mais atentos.<grok:render type="render_inline_citation"><argument name="citation_id">2</argument></grok:render>
Outro golpe recorrente é o do 'Pix errado'. O fraudador envia uma quantia para a vítima, alegando erro, e pede a devolução imediata. Após o reembolso, aciona o antifraude do Banco Central para reverter o Pix original, deixando a vítima no prejuízo. A IA aprimora isso ao personalizar mensagens com dados roubados das redes sociais, aumentando a credibilidade.<grok:render type="render_inline_citation"><argument name="citation_id">3</argument></grok:render>
Deepfakes de vídeo também aterrorizam usuários. Vídeos falsos gerados por IA imitam autoridades da Receita Federal anunciando bloqueios de chaves Pix. As vítimas são direcionadas a links fraudulentos para 'regularizar' a situação, resultando em roubo de dados bancários ou pagamentos indevidos. Esses vídeos circulam em WhatsApp e Telegram com qualidade impressionante.<grok:render type="render_inline_citation"><argument name="citation_id">4</argument></grok:render>
Nas redes sociais, deepfakes de celebridades promovem investimentos falsos ou produtos milagrosos. Um exemplo é o uso da imagem do médico Drauzio Varella em vídeos promocionais duvidosos, convencendo fãs a investir em esquemas piramidais. A IA recria expressões faciais e tons de voz perfeitamente, explorando a confiança no famoso.<grok:render type="render_inline_citation"><argument name="citation_id">5</argument></grok:render>
Phishing aprimorado por IA envia e-mails e SMS sem erros gramaticais, imitando perfeitamente bancos e empresas como Nubank ou Magazine Luiza. Essas mensagens levam a sites falsos para roubo de senhas ou instalação de malware. Diferente dos golpes antigos, cheios de falhas, esses são persuasivos e personalizados.<grok:render type="render_inline_citation"><argument name="citation_id">6</argument></grok:render>
Extorsões com deepfakes de voz e vídeo crescem em sofisticação. Golpistas criam áudios ou vídeos ultrarrealistas de supostas vítimas em situações comprometedoras, exigindo pagamento para não divulgar. Muitos usam fotos públicas para gerar o conteúdo falso, aterrorizando famílias.<grok:render type="render_inline_citation"><argument name="citation_id">7</argument></grok:render>
Fraudes de identidade com IA geram documentos falsos sintéticos, como RG e CNH, para abrir contas bancárias ou solicitar empréstimos. Essas imagens passam por verificações iniciais de apps e bancos, facilitando lavagem de dinheiro e outros crimes.<grok:render type="render_inline_citation"><argument name="citation_id">8</argument></grok:render>
Clonagem de sites com IA copia lojas online idênticas, com ofertas imperdíveis. Os domínios falsos capturam dados de cartões durante compras, e a IA gera descrições e chats de suporte convincentes para driblar desconfianças.<grok:render type="render_inline_citation"><argument name="citation_id">9</argument></grok:render>
Para se proteger, especialistas recomendam verificar sempre a origem de áudios e vídeos suspeitos. Desconfie de pedidos urgentes de dinheiro de familiares e confirme por outro canal, como ligação direta. A VEJA sugere ativar autenticação em dois fatores em apps e bancos.<grok:render type="render_inline_citation"><argument name="citation_id">1</argument></grok:render>
No caso do Pix errado, nunca devolva valores sem checar o histórico da transação no app do banco. Sites como o do Banco Central permitem rastrear Pix reais. Evite clicar em links de vídeos sobre Receita Federal; acesse o portal oficial diretamente.<grok:render type="render_inline_citation"><argument name="citation_id">2</argument></grok:render>
Contra deepfakes de famosos, busque fontes oficiais das celebridades ou veículos confiáveis antes de investir. Ferramentas online gratuitas detectam inconsistências em vídeos gerados por IA, analisando piscadas ou movimentos labiais.<grok:render type="render_inline_citation"><argument name="citation_id">3</argument></grok:render>
Para phishing, passe o mouse sobre links antes de clicar e verifique o domínio real. Use antivírus atualizados e evite fornecer dados por e-mail. O Olhar Digital alerta para mensagens sem erros como sinal de alerta.<grok:render type="render_inline_citation"><argument name="citation_id">10</argument></grok:render>
Em extorsões, não pague e registre boletim de ocorrência. Compartilhar prints com polícia ajuda investigações. O TechTudo enfatiza reportar perfis falsos nas redes para remoção rápida.<grok:render type="render_inline_citation"><argument name="citation_id">11</argument></grok:render>
Atualize apps e sistemas operacionais para patches contra fraudes de identidade. Bancos como Caixa e Itaú oferecem verificação por videochamada com análise de biometria. Fique atento a ofertas irreais em sites clonados, comparando preços com lojas originais.<grok:render type="render_inline_citation"><argument name="citation_id">12</argument></grok:render>
Esses golpes custam bilhões aos brasileiros anualmente, segundo estimativas da Febraban. A conscientização é a melhor defesa na era da IA, onde a tecnologia serve tanto criminosos quanto vítimas atentas.
