OpenAI nos últimos dias divulgou um relatório sobre pessoas que usaram o ChatGPT para fazer coisas ruins, e eles conseguiram pegá-las.
O relatório é extenso, listando uma grande quantidade de casos de abuso de IA. Há russos fazendo propaganda falsa, suspeitos de espionagem usando engenharia social, mas hoje quero falar de um caso específico:
Palanque de abate na Cambodja.
Esse tipo de golpe não é novidade, todos já ouviram muitas histórias sobre os parques de Cambodja. O que é surpreendente é o papel da IA nesses casos.
Nesse grupo de fraude, o ChatGPT é responsável por namorar, traduzir as instruções do supervisor, escrever relatórios diários de trabalho e avaliar cada vítima.
No esquema, eles usam um termo interno chamado kill value, que é a estimativa de quanto dinheiro podem extrair de você.
Ao longo de toda a cadeia, o ChatGPT provavelmente é o funcionário mais ocupado.
OpenAI deu um nome de código a esse caso: Operation Date Bait (Isca de Encontro).
O processo funciona assim:
O grupo de fraude cria um serviço falso de encontros de alto padrão, chamado Klub Romantis, com logo feito pelo ChatGPT. Depois, investem em anúncios pagos nas redes sociais, usando palavras-chave como golfe, iate, restaurantes de luxo, direcionados especialmente para jovens homens na Indonésia.
Ao clicar no anúncio, você conversa primeiro com um chatbot AI. O robô, que finge ser uma recepcionista sexy, pergunta que tipo de garota você gosta, e ao escolher, fornece um link do Telegram com um código de convite exclusivo.
Ao entrar no Telegram, uma pessoa real assume o atendimento.
O atendente continua usando o ChatGPT para gerar mensagens ambíguas, ficando cada vez mais explícito, e te conduz a dois sites falsos de encontros, chamados LoveCode e SexAction.
Nesses sites, há perfis falsos de garotas, além de uma barra de mensagens rolante que fica anunciando: “Parabéns, alguém completou uma missão, desbloqueie seu prêmio”. Tudo inventado. Quem tem experiência na internet pode perceber na hora, mas nem todos os alvos caem nessa.
Quando a conversa está avançada, o atendente te encaminha para um “mentor”. Este começa a te passar “tarefas”, que exigem pagamento, cada vez maiores. Compra de VIP, votação para a garota, depósito em hotel, entre outros.
Na última etapa, eles chamam de kill.
Criam uma justificativa, como erro no processamento de dados ou verificação de depósito, para fazer você transferir uma grande quantia de uma só vez. No relatório, a OpenAI incluiu uma carta do grupo de fraude pedindo o pagamento de 20,5 milhões de rupias indonésias, cerca de 12 mil dólares, prometendo devolver 35% de bônus após o pagamento.
Depois que o dinheiro entra, os golpistas bloqueiam você no Telegram e marcam o caso como encerrado.
A essa altura, você pode pensar que não é nada demais.
O golpe em si não é novidade, o esquema de palanque de abate foi desvendado várias vezes nos últimos anos. O que realmente impressiona é o que está por trás.
Os investigadores da OpenAI, analisando os registros de uso dessas contas do ChatGPT, montaram uma estrutura empresarial completa:
O parque de fraude é dividido em três departamentos: equipe de atração, equipe de atendimento e equipe de supervisão. A equipe de atração cuida dos anúncios, a de atendimento constrói confiança por chat, e a de supervisão faz a colheita final.
Diariamente, há relatórios. Neles, listam cada vítima em processamento, quem é o responsável, em que etapa está, e um número importante:
kill value.
Que é a estimativa do valor que o supervisor acha que pode extrair dessa pessoa.
Eles também usam o ChatGPT para analisar contas financeiras, gerar relatórios de trabalho, até perguntar como integrar APIs ou modificar o código dos sites de encontros. Quando há supervisores que falam chinês e funcionários que falam indonésio, o ChatGPT faz a tradução.
Curiosamente, um funcionário de fraude por telefone usou o ChatGPT para perguntar sobre questões fiscais após receber o dinheiro, e honestamente colocou na profissão: scammer (golpista).
O relatório da OpenAI é bastante contido, dizendo que, com base nos registros do grupo, eles podem estar lidando com centenas de alvos ao mesmo tempo, movimentando milhares de dólares por dia. Mas também afirmam que não é possível verificar esses números de forma independente.
Porém, acho que não é preciso se preocupar tanto com os números, só a estrutura de gestão já é suficiente para assustar:
atração, conversão, valor por cliente, relatórios diários, divisão de departamentos — trocando os termos, parece o manual de operação de qualquer SaaS.
E o mais impressionante: namorar, traduzir, escrever relatórios, alterar códigos, fazer contas… a maior parte dessas tarefas é feita por uma única conta do ChatGPT.
A história ainda não acabou.
Na mesma reportagem, a OpenAI detalhou uma segunda operação, chamada Operation False Witness (Fraude secundária contra vítimas), também na Cambodja.
Essa linha de golpe não mira pessoas comuns, mas quem já foi enganado antes.
A lógica é simples: você foi vítima de um palanque de abate, quer recuperar o dinheiro, pesquisa na internet como fazer isso.
Aí aparece um anúncio de um escritório de advocacia que promete ajudar vítimas a recuperar perdas. Você clica.
O site parece legítimo. Fotos de advogados podem ser de pessoas reais roubadas de redes sociais ou geradas por IA. Cada escritório tem endereço, licença, perfil. O ChatGPT gera até uma carteira de advogado do estado de Nova York e registros falsos de inscrição na Ordem.
A OpenAI identificou pelo menos seis escritórios falsos.
Tem também um site que imita o FBI Internet Crime Complaint Center. Com um botão de “Enviar Reclamação”, que ao clicar, leva a uma conta no Telegram.
No Telegram, o “advogado” começa a conversar com você. O script é gerado pelo ChatGPT, com tom de inglês americano, imitando um advogado profissional. Dizem que têm parceria com o Corte Penal Internacional e que não cobram antes de recuperar o dinheiro.
Mas você precisa pagar uma taxa de 15% para ativar o serviço, usando criptomoedas.
Também pedem que você assine um acordo de confidencialidade, também escrito pelo ChatGPT, para evitar que procure outras fontes de confirmação.
O FBI emitiu um alerta público, dizendo que esse golpe é direcionado principalmente a idosos, explorando a ansiedade de quem quer recuperar o dinheiro.
Depois de ver esses dois casos, acho que o aspecto mais irônico na era da IA é este:
Na primeira vez, você é um alvo. Na segunda, você é um alvo melhor, porque já provou que cai nesse tipo de golpe.
Por fim, a OpenAI resume o esquema em três etapas:
ping, zingar, stingar.
Primeiro, o contato inicial, para chamar atenção. Depois, criar emoções, fazer você ficar animado, assustado ou interessado. E, por último, a colheita, pegar o dinheiro.
Esse esquema é bem elaborado. Olhando com atenção, qual dessas três etapas a IA não consegue fazer?
Antes, no esquema de palanque de abate, o maior custo era humano. Era preciso contratar uma equipe de pessoas para conversar no computador, falando a língua do alvo. Nos primeiros anos, os parques na Cambodja recrutavam pessoas que falavam inglês bem, pagando salários altos.
Hoje, com o relato da OpenAI, o supervisor fala chinês, os funcionários falam indonésio, e os alvos são indonésios também. Com três línguas diferentes, antes seria impossível fazer esse trabalho. Agora, com o ChatGPT, tudo se resolve.
A língua é só uma das questões.
Outro detalhe do relatório é que os fraudadores até perguntaram ao ChatGPT como usar a API da OpenAI para automatizar completamente o chat.
Ou seja, a IA não torna o golpe mais sofisticado, ele continua sendo o mesmo. A IA torna o golpe mais barato.
Segundo a OpenAI, esse grupo pode estar lidando com centenas de casos ao mesmo tempo. Com a escala maior, o custo por vítima diminui, permitindo enganar mais pessoas com valores menores.
E há uma questão que acho ainda mais importante de refletir.
A OpenAI consegue descobrir esses esquemas porque os fraudadores usam o ChatGPT, e as conversas ficam armazenadas nos servidores da OpenAI.
Mas e quem usa modelos open source hospedados localmente?
O que essa reportagem mostra é só uma pequena parte do que a OpenAI consegue enxergar. Muito do que acontece fora do alcance deles, ninguém sabe.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Neste esquema de estelionato, a IA é responsável por namorar e também por criar licenças de advogado falsas.
Autor: Curry, Deep Tide TechFlow
OpenAI nos últimos dias divulgou um relatório sobre pessoas que usaram o ChatGPT para fazer coisas ruins, e eles conseguiram pegá-las.
O relatório é extenso, listando uma grande quantidade de casos de abuso de IA. Há russos fazendo propaganda falsa, suspeitos de espionagem usando engenharia social, mas hoje quero falar de um caso específico:
Palanque de abate na Cambodja.
Esse tipo de golpe não é novidade, todos já ouviram muitas histórias sobre os parques de Cambodja. O que é surpreendente é o papel da IA nesses casos.
Nesse grupo de fraude, o ChatGPT é responsável por namorar, traduzir as instruções do supervisor, escrever relatórios diários de trabalho e avaliar cada vítima.
No esquema, eles usam um termo interno chamado kill value, que é a estimativa de quanto dinheiro podem extrair de você.
Ao longo de toda a cadeia, o ChatGPT provavelmente é o funcionário mais ocupado.
OpenAI deu um nome de código a esse caso: Operation Date Bait (Isca de Encontro).
O processo funciona assim:
O grupo de fraude cria um serviço falso de encontros de alto padrão, chamado Klub Romantis, com logo feito pelo ChatGPT. Depois, investem em anúncios pagos nas redes sociais, usando palavras-chave como golfe, iate, restaurantes de luxo, direcionados especialmente para jovens homens na Indonésia.
Ao clicar no anúncio, você conversa primeiro com um chatbot AI. O robô, que finge ser uma recepcionista sexy, pergunta que tipo de garota você gosta, e ao escolher, fornece um link do Telegram com um código de convite exclusivo.
Ao entrar no Telegram, uma pessoa real assume o atendimento.
O atendente continua usando o ChatGPT para gerar mensagens ambíguas, ficando cada vez mais explícito, e te conduz a dois sites falsos de encontros, chamados LoveCode e SexAction.
Nesses sites, há perfis falsos de garotas, além de uma barra de mensagens rolante que fica anunciando: “Parabéns, alguém completou uma missão, desbloqueie seu prêmio”. Tudo inventado. Quem tem experiência na internet pode perceber na hora, mas nem todos os alvos caem nessa.
Quando a conversa está avançada, o atendente te encaminha para um “mentor”. Este começa a te passar “tarefas”, que exigem pagamento, cada vez maiores. Compra de VIP, votação para a garota, depósito em hotel, entre outros.
Na última etapa, eles chamam de kill.
Criam uma justificativa, como erro no processamento de dados ou verificação de depósito, para fazer você transferir uma grande quantia de uma só vez. No relatório, a OpenAI incluiu uma carta do grupo de fraude pedindo o pagamento de 20,5 milhões de rupias indonésias, cerca de 12 mil dólares, prometendo devolver 35% de bônus após o pagamento.
Depois que o dinheiro entra, os golpistas bloqueiam você no Telegram e marcam o caso como encerrado.
A essa altura, você pode pensar que não é nada demais.
O golpe em si não é novidade, o esquema de palanque de abate foi desvendado várias vezes nos últimos anos. O que realmente impressiona é o que está por trás.
Os investigadores da OpenAI, analisando os registros de uso dessas contas do ChatGPT, montaram uma estrutura empresarial completa:
O parque de fraude é dividido em três departamentos: equipe de atração, equipe de atendimento e equipe de supervisão. A equipe de atração cuida dos anúncios, a de atendimento constrói confiança por chat, e a de supervisão faz a colheita final.
Diariamente, há relatórios. Neles, listam cada vítima em processamento, quem é o responsável, em que etapa está, e um número importante:
kill value.
Que é a estimativa do valor que o supervisor acha que pode extrair dessa pessoa.
Eles também usam o ChatGPT para analisar contas financeiras, gerar relatórios de trabalho, até perguntar como integrar APIs ou modificar o código dos sites de encontros. Quando há supervisores que falam chinês e funcionários que falam indonésio, o ChatGPT faz a tradução.
Curiosamente, um funcionário de fraude por telefone usou o ChatGPT para perguntar sobre questões fiscais após receber o dinheiro, e honestamente colocou na profissão: scammer (golpista).
O relatório da OpenAI é bastante contido, dizendo que, com base nos registros do grupo, eles podem estar lidando com centenas de alvos ao mesmo tempo, movimentando milhares de dólares por dia. Mas também afirmam que não é possível verificar esses números de forma independente.
Porém, acho que não é preciso se preocupar tanto com os números, só a estrutura de gestão já é suficiente para assustar:
atração, conversão, valor por cliente, relatórios diários, divisão de departamentos — trocando os termos, parece o manual de operação de qualquer SaaS.
E o mais impressionante: namorar, traduzir, escrever relatórios, alterar códigos, fazer contas… a maior parte dessas tarefas é feita por uma única conta do ChatGPT.
A história ainda não acabou.
Na mesma reportagem, a OpenAI detalhou uma segunda operação, chamada Operation False Witness (Fraude secundária contra vítimas), também na Cambodja.
Essa linha de golpe não mira pessoas comuns, mas quem já foi enganado antes.
A lógica é simples: você foi vítima de um palanque de abate, quer recuperar o dinheiro, pesquisa na internet como fazer isso.
Aí aparece um anúncio de um escritório de advocacia que promete ajudar vítimas a recuperar perdas. Você clica.
O site parece legítimo. Fotos de advogados podem ser de pessoas reais roubadas de redes sociais ou geradas por IA. Cada escritório tem endereço, licença, perfil. O ChatGPT gera até uma carteira de advogado do estado de Nova York e registros falsos de inscrição na Ordem.
A OpenAI identificou pelo menos seis escritórios falsos.
Tem também um site que imita o FBI Internet Crime Complaint Center. Com um botão de “Enviar Reclamação”, que ao clicar, leva a uma conta no Telegram.
No Telegram, o “advogado” começa a conversar com você. O script é gerado pelo ChatGPT, com tom de inglês americano, imitando um advogado profissional. Dizem que têm parceria com o Corte Penal Internacional e que não cobram antes de recuperar o dinheiro.
Mas você precisa pagar uma taxa de 15% para ativar o serviço, usando criptomoedas.
Também pedem que você assine um acordo de confidencialidade, também escrito pelo ChatGPT, para evitar que procure outras fontes de confirmação.
O FBI emitiu um alerta público, dizendo que esse golpe é direcionado principalmente a idosos, explorando a ansiedade de quem quer recuperar o dinheiro.
Depois de ver esses dois casos, acho que o aspecto mais irônico na era da IA é este:
Na primeira vez, você é um alvo. Na segunda, você é um alvo melhor, porque já provou que cai nesse tipo de golpe.
Por fim, a OpenAI resume o esquema em três etapas:
ping, zingar, stingar.
Primeiro, o contato inicial, para chamar atenção. Depois, criar emoções, fazer você ficar animado, assustado ou interessado. E, por último, a colheita, pegar o dinheiro.
Esse esquema é bem elaborado. Olhando com atenção, qual dessas três etapas a IA não consegue fazer?
Antes, no esquema de palanque de abate, o maior custo era humano. Era preciso contratar uma equipe de pessoas para conversar no computador, falando a língua do alvo. Nos primeiros anos, os parques na Cambodja recrutavam pessoas que falavam inglês bem, pagando salários altos.
Hoje, com o relato da OpenAI, o supervisor fala chinês, os funcionários falam indonésio, e os alvos são indonésios também. Com três línguas diferentes, antes seria impossível fazer esse trabalho. Agora, com o ChatGPT, tudo se resolve.
A língua é só uma das questões.
Outro detalhe do relatório é que os fraudadores até perguntaram ao ChatGPT como usar a API da OpenAI para automatizar completamente o chat.
Ou seja, a IA não torna o golpe mais sofisticado, ele continua sendo o mesmo. A IA torna o golpe mais barato.
Segundo a OpenAI, esse grupo pode estar lidando com centenas de casos ao mesmo tempo. Com a escala maior, o custo por vítima diminui, permitindo enganar mais pessoas com valores menores.
E há uma questão que acho ainda mais importante de refletir.
A OpenAI consegue descobrir esses esquemas porque os fraudadores usam o ChatGPT, e as conversas ficam armazenadas nos servidores da OpenAI.
Mas e quem usa modelos open source hospedados localmente?
O que essa reportagem mostra é só uma pequena parte do que a OpenAI consegue enxergar. Muito do que acontece fora do alcance deles, ninguém sabe.