У цій шахрайській схемі AI відповідає за закоханість, а також за підробку ліцензій на адвокатську діяльність

robot
Генерація анотацій у процесі

作者:Курі, DeepChao TechFlow

OpenAI ці дні випустила доповідь, в якій йдеться про те, що хтось використовував ChatGPT для поганих справ, і їх затримали.

Доповідь дуже довга, у ній наведено багато прикладів зловживань штучним інтелектом. Є випадки фальшивої пропаганди з Росії, підозри у шпигунстві та соціальну інженерію, але сьогодні я хочу поговорити про один із них:

Камбоджійська “свиняча пастка”.

Це не новина, історії про Камбоджійські парки вже багато разів звучали. Вражає роль AI у цьому.

У цій шахрайській групі ChatGPT відповідає за романтичні стосунки, переклад інструкцій керівництва, щоденну звітність і оцінку кожної жертви.

У цій схемі внутрішня термінологія називається kill value — це приблизна сума, яку можна з тебе витягти.

За весь процес, ChatGPT, ймовірно, є найзайнятішим співробітником.

OpenAI дала цій справі кодову назву Operation Date Bait (“Застава на побаченні”).

Процес такий.

Шахрайська група створює фальшивий преміум-сервіс знайомств під назвою Klub Romantis, логотип зроблений за допомогою ChatGPT. Потім вони запускають платну рекламу у соцмережах, ключові слова — гольф, яхти, елітні ресторани, ціль — молоді чоловіки з Індонезії.

Коли ви натискаєте на рекламу, спершу спілкуєтеся з AI-ботом. Бот — сексуально приваблива адміністраторка — пропонує обрати тип дівчини, після чого дає посилання на Telegram з унікальним кодом.

Після входу в Telegram справжні люди починають спілкуватися.

Обслуговуючий співробітник продовжує генерувати натяки та провокаційні повідомлення, які стають все більш відвертими, і веде вас до двох фальшивих платформ знайомств — LoveCode і SexAction.

На цих платформах є фальшиві профілі дівчат і стрічка повідомлень із фальшивими “успішними” історіями — “Вітаємо, ви виконали завдання, розблоковано бонус”. Все це вигадка, але досвідчені користувачі можуть одразу зрозуміти, що це підробка, проте не всі цільові групи так обізнані.

Коли розмова досягає потрібного рівня, обслуговуючий переводить вас до “наставника”. Наставник починає давати вам “завдання”, за кожне потрібно платити, суми зростають. Купівля VIP-картки, голосування за “улюблену дівчину”, внесення депозиту в готель — багато різних приводів.

Останній крок вони називають kill.

Вигадують причину — помилка обробки даних, перевірка депозиту — і ви переказуєте великі суми. У доповіді OpenAI наведено лист шахрайської групи, що вимагає оплатити 20,5 мільйонів індонезійських рупій (близько 12 тисяч доларів США), з обіцянкою повернути 35% бонусу після оплати.

Після отримання грошей шахраї у Telegram блокують вас і ставлять позначку “справа закрита”.

На цьому етапі може здатися, що нічого особливого.

Самі шахрайські схеми не нові, “свиняча пастка” вже багато разів розкривалася. Те, що вражає — це бекенд.

Дослідники OpenAI, аналізуючи записи використання цих акаунтів ChatGPT, склали цілісну картину організаційної структури:

Шахрайський парк має три відділи: залучення клієнтів, обслуговування і керівництво. Відділ залучення відповідає за рекламу і залучення, відділ обслуговування — за спілкування і формування довіри, керівництво — за фінальний “збір”.

Щодня складається звіт. У ньому перераховані всі активні жертви, поруч — відповідальні особи, статус і цифра:

kill value.

Це оцінка керівництва, скільки грошей можна з цієї людини витягти.

Вони також використовують ChatGPT для аналізу фінансових звітів, створення робочих документів і навіть запитують, як підключити API або змінити код сайту знайомств. Якщо керівник говорить китайською, а співробітник — індонезійською, ChatGPT виконує переклад.

Дивно, але один співробітник, який займався телефонним шахрайством, запитував ChatGPT про податкові наслідки доходу, і у полі “професія” чесно написав “шахрай”.

У доповіді OpenAI стримано зазначено, що за даними їхніх записів, ця група може одночасно обробляти сотні цілей і щодня отримувати тисячі доларів. Але вони також підкреслюють, що не можуть незалежно підтвердити ці цифри.

Я ж вважаю, що не так важливо, чи правдиві ці цифри, — достатньо поглянути на цю систему управління:

залучення, конверсія, ціна клієнта, щоденна звітність, розподіл ролей — і все це нагадує інструкцію для SaaS-компанії.

А романтика, переклади, щоденники, зміна коду, підрахунок — більшість роботи в цьому парку виконує один ChatGPT.

Історія тут не закінчується.

У тому ж доповіді OpenAI розкрила ще один канал, кодова назва Operation False Witness (“Обман жертви повторно”), також із Камбоджі.

Цей канал орієнтований не на звичайних людей, а на тих, хто вже був ошуканий.

Логіка проста: вас обдурили на “свинячій пастці”, ви хочете повернути гроші, шукаєте, що робити.

І бачите рекламу юридичної фірми, яка нібито допомагає повернути втрачене. Ви заходите на сайт.

Він виглядає реалістично: фотографії юристів — або з соцмереж, або згенеровані AI, у кожної фірми є адреса, ліцензія, опис. ChatGPT створив фейкову картку адвоката у Нью-Йоркській асоціації юристів і підроблені реєстраційні документи.

Всього виявлено щонайменше шість фальшивих юридичних фірм.

Ще один сайт імітує офіційний сайт FBI з повідомленнями про кіберзлочини. Там є кнопка “Подати скаргу”, яка перекидає на Telegram-акаунт.

У Telegram “юрист” починає спілкуватися. Стиль — згенерований ChatGPT, у стилі “американської англійської”, з імітацією професійної мови. Вони кажуть, що співпрацюють із Міжнародним кримінальним судом і повернення грошей — безкоштовно, але потрібно спершу оплатити 15% за послугу криптовалютою.

Також вони просять підписати конфіденційний договір, який теж написаний ChatGPT, щоб змусити вас не шукати інших джерел інформації.

ФБР пізніше офіційно попередила про цю схему, зазначивши, що вона переважно спрямована на літніх людей і використовує їхню готовність швидко повернути втрачене.

Після ознайомлення з цими двома кейсами мені здається, що в сучасних умовах, коли AI стає стандартом, найбільш іронічним є ось що:

Перший раз вас обдурили — ви ціль. Другий раз — ви вже більш цільова аудиторія, бо довели, що можете повірити.

І наприкінці OpenAI підсумувала схему шахрайства у три кроки.

Пінг — холодний контакт, привернути увагу цілі. Зінг — викликати емоції, зробити так, щоб вона злякалася, зраділа або зацікавилася. Стінг — зібрати гроші.

Ця структура дуже гарна, і якщо уважно подивитися, жоден із цих кроків не є неможливим для AI.

Раніше для “свинячих пасток” головною витратою були люди. Потрібно було наймати цілу команду, яка сидить за комп’ютерами і спілкується мовою цілі. У Камбоджі раніше наймали людей із хорошим англійським, платили високі зарплати.

Зараз, згідно з доповіддю, керівники цієї схеми говорять китайською, а співробітники — індонезійською, ціль — індонезійці. Три мови не співпадають, раніше таку роботу зробити було неможливо. А з ChatGPT — все можливо.

Мова — це лише один аспект.

У доповіді є ще один цікавий момент: шахраї навіть запитували ChatGPT, як підключити API OpenAI, щоб автоматизувати весь процес спілкування.

Тобто AI не робить шахрайство більш витонченим, воно лишається тим самим. AI — це інструмент, що робить шахрайство дешевшим.

Згідно з OpenAI, ця група може одночасно обробляти сотні кейсів, масштаб зростає, а вартість для кожної жертви — нижча, тому вони можуть обманювати більше людей із меншими сумами.

Ще одне питання, яке варто обміркувати: чи може ця доповідь показати всю картину? Адже вона базується лише на даних, які зібрало OpenAI, — тобто на чат-логах, що зберігаються на серверах OpenAI.

А що з тими, хто використовує локальні відкриті моделі?

Можливо, ця доповідь — лише частина всієї головоломки. І масштаб того, що не видно, — невідомий.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити