Vítima de deepfake: ‘usaram meu rosto com IA para vender chá milagroso sem minha autorização’


Tânia Carvalho, que tem lipedema, descobriu vídeo falso com sua imagem promovendo produto enganoso; especialistas alertam para golpes com inteligência artificial


“Eu sou uma ‘Zé ninguém’, mas usaram minha imagem para enganar pessoas.” Foi assim que Tânia Carvalho, uma mulher comum que sofre de lipedema, desabafou ao descobrir que seu rosto, voz e até seu quarto foram manipulados por inteligência artificial (IA) em um vídeo falso que promovia um “chá milagroso”.

O material, veiculado como anúncio no Instagram, mostrava um suposto “antes e depois” das pernas de Tânia, acompanhado da mensagem: “Eu tinha lipedema grau dois e em sete dias alcancei esse resultado” — algo que ela jamais diria, já que a doença não tem cura rápida.

Como o golpe funciona
Vídeos deepfake, criados com IA, têm sido usados por golpistas para associar rostos de pessoas reais a produtos fraudulentos. No caso de Tânia, criminosos copiaram suas fotos públicas, clonaram sua voz e simularam um depoimento falso. O objetivo? Lucrar com a venda de itens ineficazes, aproveitando-se da desesperança de doentes crônicos.

Ameaça crescente
Segundo um relatório da SaferNet Brasil, golpes envolvendo deepfakes aumentaram 300% em 2023. A plataforma já registrou casos semelhantes, inclusive com celebridades. A diferença é que, para cidadãos comuns como Tânia, a batalha pela remoção do conteúdo é ainda mais difícil.

O que fazer se for vítima?

  • Denuncie: Plataformas como Meta (Instagram/Facebook) permitem reportar falsificações.
  • Registre um BO: A delegacia de crimes virtuais pode rastrear os responsáveis.
  • Exija reparação: Advogados especializados em direito digital orientam processar por danos morais.

Tânia, que hoje alerta outros sobre o perigo, resume: “Parece coisa de filme, mas é real. Qualquer um pode ser alvo.”



Abrir bate-papo
Como podemos ajudá-lo?
Verified by MonsterInsights