No aplicativo chinês de mídia social RedNote, a Wired encontrou ao menos uma dúzia de publicações de vendedores de e-commerce e representantes de atendimento ao cliente reclamando de supostos pedidos de reembolso gerados por IA — Foto: Getty Images
Plataformas de compras online há muito tempo dependem de fotos enviadas pelos clientes para confirmar que pedidos de reembolso são legítimos. A prática, no entanto, passa agora a enfrentar desafios. Golpistas estão usando a IA generativa para pedir reembolsos indevidos. No aplicativo chinês de mídia social RedNote, a Wired encontrou ao menos uma dúzia de publicações de vendedores de e-commerce e representantes de atendimento ao cliente reclamando de supostos pedidos de reembolso gerados por IA.
Em um caso, conta a publicação, um cliente alegou que o lençol que comprou estava rasgado, mas os caracteres chineses na etiqueta de envio pareciam um amontoado de símbolos sem sentido. Em outro, o comprador enviou a foto de uma caneca de café com rachaduras que pareciam rasgos de papel. “Isso é uma caneca de cerâmica, não de papelão. Quem conseguiria rasgar uma caneca de cerâmica desse jeito?”, escreveu um vendedor.
Há algumas categorias de produtos nas quais fotos de danos geradas por IA estão sendo mais exploradas: alimentos frescos, produtos de beleza de baixo custo e itens frágeis, como canecas de cerâmica. Os vendedores geralmente não pedem que os clientes devolvam esses produtos antes de emitir o reembolso, o que os torna mais vulneráveis a golpes de devolução.
Em novembro, uma comerciante que vende caranguejos vivos no Douyin — a versão chinesa do TikTok — recebeu de uma cliente uma foto que fazia parecer que a maioria dos caranguejos havia chegado morta, enquanto outros dois teriam escapado. A compradora chegou a enviar vídeos mostrando os caranguejos mortos sendo cutucados por um dedo humano. Mas havia algo estranho.
“Minha família cria caranguejos há mais de 30 anos. Nunca vimos um caranguejo morto com as pernas apontando para cima”, disse Gao Jing, a vendedora, em um vídeo que ela publicou depois no Douyin. Mas o que acabou denunciando o golpe foram os sexos dos caranguejos. No primeiro vídeo havia dois machos e quatro fêmeas; no segundo, três machos e três fêmeas. Um deles também tinha nove pernas, em vez de oito.
Gao posteriormente denunciou a fraude à polícia, que determinou que os vídeos eram de fato falsos e deteve a compradora por oito dias, segundo um comunicado policial que Gao compartilhou online. O caso chamou grande atenção nas redes sociais chinesas, em parte por ter sido o primeiro golpe de reembolso com uso de IA conhecido a provocar uma resposta regulatória.
Esse problema, entretanto, não é exclusivo da China. A Forter, empresa de detecção de fraudes sediada em Nova York, nos Estados Unidos, estima que o uso de imagens adulteradas por IA em pedidos de reembolso aumentou mais de 15% desde o início do ano e continua crescendo globalmente.
“Essa tendência começou em meados de 2024, mas se acelerou ao longo do último ano, à medida que ferramentas de geração de imagens se tornaram amplamente acessíveis e incrivelmente fáceis de usar”, afirma Michael Reitblat, CEO e cofundador da Forter. Segundo ele, a IA não precisa acertar tudo, já que funcionários da linha de frente do varejo e equipes que analisam reembolsos podem não ter tempo para examinar cada imagem com atenção.
Reitblat diz que grupos de crime organizado estão usando as mesmas táticas que indivíduos para orquestrar fraudes de reembolso em larga escala. Em um caso, de acordo com ele, golpistas enviaram pedidos de reembolso que somavam mais de um milhão de dólares, usando imagens alteradas por IA que mostravam rachaduras ou amassados em diversos itens domésticos. Os pedidos foram enviados em um intervalo curto de tempo, aparentemente para sobrecarregar o sistema, e os fraudadores também usaram endereços IP rotativos para ocultar sua identidade.
Para se defender, alguns vendedores estão usando IA para combater a própria IA. Um comerciante chinês de brinquedos demonstrou à Wired como alimenta pedidos de reembolso em um chatbot de IA para analisar se as fotos foram adulteradas. Essas ferramentas, no entanto, ainda estão longe de ser perfeitas.


