OpenAI mengeluarkan laporan dalam dua hari terakhir bahwa seseorang ditangkap karena melakukan hal-hal buruk dengan ChatGPT.
Laporan ini panjang dan mencantumkan sejumlah besar kasus penyalahgunaan AI. Ada orang Rusia yang terlibat dalam propaganda palsu, dan ada tersangka mata-mata yang terlibat dalam rekayasa sosial, tetapi saya ingin berbicara tentang salah satu kasus hari ini:
Piring pembunuhan babi Kamboja.
Piring pembunuhan babi tidak jarang, dan semua orang telah mendengar terlalu banyak cerita tentang taman Kamboja. Yang aneh adalah peran AI di dalamnya.
Dalam geng penipuan ini, ChatGPT bertanggung jawab untuk jatuh cinta, menerjemahkan instruksi supervisor, menulis laporan hari kerja setiap hari, dan menghargai setiap korban.
Dalam piring pembunuhan babi, istilah internal disebut nilai pembunuhan, yang merupakan perkiraan berapa banyak uang yang dapat diperas dari Anda.
Di seluruh jalur perakitan, ChatGPT mungkin adalah karyawan tersibuk di dalamnya.
OpenAI memberi proyek nama kode yang disebut Operation Date Bait.
Berikut prosesnya.
Geng penipuan pertama kali membuat layanan kencan kelas atas palsu bernama Klub Romantis, dengan logo yang terbuat dari ChatGPT. Kemudian mereka memasang iklan berbayar di media sosial, dengan kata kunci golf, kapal pesiar, dan restoran kelas atas, khusus menyasar pria muda Indonesia.
Anda mengklik iklan dan mulai dengan berbicara dengan chatbot AI. Robot berpura-pura seksi di meja depan, memungkinkan Anda memilih tipe gadis apa yang Anda sukai, dan memberi Anda tautan Telegram dengan kode undangan eksklusif.
Begitu di Telegram, orang-orang sungguhan mulai mengambil alih.
Resepsionis terus menggunakan ChatGPT untuk menghasilkan pesan ambigu, menjadi semakin eksplisit saat Anda mengobrol, dan kemudian mengarahkan Anda ke dua platform kencan palsu, satu disebut LoveCode dan yang lainnya disebut SexAction.
Ada banyak informasi gadis palsu di platform, dan ada bilah pesan bergulir yang terus menyiarkan “Selamat kepada ini dan itu karena telah menyelesaikan tugas dan membuka bonus”. Semuanya dibuat-buat, dan Anda mungkin melihatnya sekilas jika Anda memiliki pengalaman dalam menjelajahi web, tetapi tidak semua kelompok sasaran tidak akan tertipu.
Percakapan sudah ada, dan resepsionis memindahkan Anda ke “mentor”. Mentor mulai meminta Anda untuk melakukan “tugas”, setiap tugas harus dibebankan dengan uang, dan jumlahnya semakin besar setiap kali. Beli kartu VIP, pilih “gadis favorit”, bayar deposit hotel, dan ada banyak nama.
Langkah terakhir, mereka disebut membunuh secara internal.
Buat alasan, kesalahan pemrosesan data apa, setoran verifikasi apa, memungkinkan Anda mentransfer jumlah besar sekaligus. OpenAI memasukkan surat yang dikirim kepada korban oleh geng penipuan dalam laporan tersebut, meminta pembayaran sebesar 20,5 juta rupiah, setara dengan sekitar $12.000, dan mengatakan bahwa 35% dari bonus akan dikembalikan setelah pembayaran.
Ketika uang tiba, penipu di Telegram akan memblokir Anda dan memberi Anda catatan bahwa kasus tersebut telah ditutup.
Melihat ini, Anda mungkin berpikir itu bukan apa-apa.
Triknya sendiri bukanlah hal baru, dan rutinitas membunuh babi telah diambil berkali-kali dalam beberapa tahun terakhir. Yang benar-benar mengejutkan orang adalah di belakang panggung.
Penyelidik OpenAI telah membuat arsitektur perusahaan lengkap dari catatan penggunaan akun ChatGPT ini:
Taman penipuan dibagi menjadi tiga departemen: kelompok drainase, kelompok penerimaan, dan kelompok pengawas. Tim drainase bertanggung jawab untuk mengiklankan dan menarik orang, tim resepsionis bertanggung jawab untuk mengobrol untuk membangun kepercayaan, dan tim pengawas bertanggung jawab atas panen akhir.
Ada surat kabar harian. Laporan harian mencantumkan setiap korban yang sedang diproses, di samping siapa yang bertanggung jawab, di mana kemajuan telah berkembang, dan jumlah:
nilai pembunuhan .
Ini adalah jumlah yang diperkirakan oleh supervisor yang dapat diekstraksi dari orang ini.
Mereka juga menggunakan ChatGPT untuk menganalisis akun keuangan, membuat laporan kerja, dan bahkan bertanya kepada ChatGPT cara terhubung ke API dan mengubah kode situs kencan. Dalam situasi di mana supervisor berbicara bahasa Mandarin dan karyawan berbicara bahasa Indonesia, ChatGPT bertanggung jawab atas terjemahan di kedua sisi.
Lucunya, seorang karyawan penipuan kawat menggunakan ChatGPT untuk menanyakan tentang pajak setelah mendapatkan penghasilan, dan kolom pekerjaan dengan sangat jujur diisi dengan scammer.
Laporan OpenAI ditahan, mengatakan bahwa berdasarkan catatan input scammers sendiri, mereka mungkin memproses ratusan target pada saat yang sama, menghasilkan ribuan dolar sehari. Tetapi laporan itu juga mengatakan bahwa tidak mungkin untuk memverifikasi secara independen apakah angka-angka ini benar.
Namun, saya pikir tidak perlu khawatir apakah angka-angkanya benar atau tidak, hanya dengan melihat serangkaian proses manajemen ini sudah cukup:
Drainase, konversi, harga satuan pelanggan, laporan harian, pembagian kerja departemen, ubah terminologi, Anda pikir Anda sedang melihat manual operasi perusahaan SaaS.
Dan jatuh cinta, menerjemahkan, menulis surat kabar harian, mengubah kode, menyelesaikan rekening… Sebagian besar pekerjaan di kampus ini dilakukan dengan akun ChatGPT.
Cerita tidak berakhir di sini.
OpenAI juga menghapus baris kedua dalam laporan yang sama, dengan nama sandi Operation False Witness (penipuan sekunder korban), juga dari Kamboja.
Garis ini tidak ditujukan untuk orang biasa, tetapi untuk orang yang telah tertipu.
Logikanya sangat sederhana: Anda telah ditipu uang oleh pelat pembunuh babi, Anda ingin memulihkannya, apa yang harus Anda lakukan jika Anda mencari di Internet.
Kemudian Anda melihat iklan yang mengatakan bahwa mereka mengkhususkan diri dalam membantu korban penipuan memulihkan kerugian mereka. Anda mengklik.
Situs web melakukan banyak hal. Beberapa foto pengacara adalah avatar asli yang dicuri dari media sosial, sementara yang lain dihasilkan AI. Setiap firma hukum memiliki alamat, lisensi, dan profil. ChatGPT menghasilkan kartu keanggotaan untuk Asosiasi Pengacara Negara Bagian New York dan juga menghasilkan catatan pendaftaran pengacara palsu.
OpenAI telah menemukan setidaknya enam firma hukum palsu.
Ada juga situs web yang secara langsung menyamar sebagai Pusat Pengaduan Kejahatan Internet FBI. Ada tombol “Kirim Keluhan” di halaman, dan Anda dapat mengkliknya untuk melompat ke akun Telegram.
Di Telegram, “pengacara” mulai berbicara dengan Anda. Pidato tersebut dihasilkan oleh ChatGPT dan secara khusus diminta untuk ditulis dalam “bahasa Inggris Amerika” dengan nada yang meniru seorang pengacara profesional. Mereka memberi tahu Anda bahwa kami bekerja sama dengan Pengadilan Pidana Internasional dan tidak ada biaya sebelum dana dipulihkan.
Tetapi Anda harus membayar biaya layanan 15% untuk mengaktifkan akun dan membayar dalam cryptocurrency.
Mereka juga mengizinkan Anda menandatangani perjanjian kerahasiaan. Perjanjian kerahasiaan ini juga ditulis oleh ChatGPT untuk mencegah Anda memverifikasi.
FBI kemudian mengeluarkan peringatan publik secara khusus tentang insiden tersebut, mengatakan bahwa penipuan itu terutama menargetkan orang tua dan mengambil keuntungan dari keinginan para korban untuk memulihkan kerugian mereka.
Setelah membaca dua kasus ini, saya pikir di lingkungan saat ini di mana AI telah menjadi standar, inilah senyum paling masam:
Pertama kali Anda berbohong kepada Anda, Anda adalah target. Anda adalah target yang lebih baik untuk kedua kalinya Anda ditipu karena Anda telah membuktikan bahwa Anda akan tertipu.
Terakhir, OpenAI merangkum proses penipuan dalam tiga langkah dalam laporan tersebut.
Langkah pertama disebut pinging, jangkauan dingin, dan temukan cara untuk membuat target memperhatikan Anda. Langkah kedua disebut zing, yang menciptakan emosi yang membuat Anda bersemangat, bersemangat, atau takut. Langkah ketiga disebut menyengat, memanen, mengambil uang.
Kerangka kerja ini dirangkum dengan sangat baik, lihat lebih dekat, mana dari ketiga langkah ini yang tidak dapat dilakukan oleh AI?
Di masa lalu, biaya terbesar pembunuhan babi adalah manusia. Anda harus menyewa ruangan orang untuk duduk di depan komputer dan mengobrol, dan Anda harus berbicara bahasa target. Taman Kamboja merekrut orang di tahun-tahun awal, dan juga memilih bahasa Inggris yang bagus, dan gajinya juga tinggi.
Sekarang melihat kasus penipuan kencan yang disebutkan dalam laporan, supervisor berbicara bahasa Cina, karyawan berbicara bahasa Indonesia, dan targetnya juga Indonesia. Ketiga pihak tidak mengerti bahasanya, jadi mereka tidak bisa melakukan pekerjaan ini sebelumnya. Tambahkan ChatGPT, dan semuanya selesai.
Bahasa hanyalah salah satu dari hal-hal itu.
Ada juga detail dalam laporan tersebut bahwa penipu bahkan bertanya kepada ChatGPT bagaimana cara terhubung ke API OpenAI, mencoba mengotomatiskan sesi obrolan sepenuhnya.
Dengan kata lain, AI tidak membuat penipuan menjadi cerdas, penipuan tetaplah penipuan itu. AI membuat penipuan lebih murah.
Sekarang menurut OpenAI, geng tersebut mungkin berurusan dengan ratusan kasus penipuan sekaligus. Seiring dengan meningkatnya skala, biaya tenaga kerja yang dibagi oleh satu korban lebih rendah, yang secara alami menipu lebih banyak orang dengan harga satuan yang lebih kecil.
Ada pertanyaan lain yang menurut saya layak dipikirkan.
OpenAI dapat menemukan ini karena geng penipuan menggunakan ChatGPT, dan catatan obrolan disimpan di server OpenAI.
Bagaimana dengan mereka yang menggunakan model open source lokal?
Apa yang dapat disajikan oleh laporan ini mungkin hanya bagian kecil dari teka-teki yang dapat dilihat OpenAI. Tidak ada yang tahu seberapa besar tempat itu yang tidak bisa diterangi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Dalam penipuan ini, AI bertanggung jawab untuk berkencan dan juga membuat surat izin pengacara palsu
Oleh Curry, Deep Tide TechFlow
OpenAI mengeluarkan laporan dalam dua hari terakhir bahwa seseorang ditangkap karena melakukan hal-hal buruk dengan ChatGPT.
Laporan ini panjang dan mencantumkan sejumlah besar kasus penyalahgunaan AI. Ada orang Rusia yang terlibat dalam propaganda palsu, dan ada tersangka mata-mata yang terlibat dalam rekayasa sosial, tetapi saya ingin berbicara tentang salah satu kasus hari ini:
Piring pembunuhan babi Kamboja.
Piring pembunuhan babi tidak jarang, dan semua orang telah mendengar terlalu banyak cerita tentang taman Kamboja. Yang aneh adalah peran AI di dalamnya.
Dalam geng penipuan ini, ChatGPT bertanggung jawab untuk jatuh cinta, menerjemahkan instruksi supervisor, menulis laporan hari kerja setiap hari, dan menghargai setiap korban.
Dalam piring pembunuhan babi, istilah internal disebut nilai pembunuhan, yang merupakan perkiraan berapa banyak uang yang dapat diperas dari Anda.
Di seluruh jalur perakitan, ChatGPT mungkin adalah karyawan tersibuk di dalamnya.
OpenAI memberi proyek nama kode yang disebut Operation Date Bait.
Berikut prosesnya.
Geng penipuan pertama kali membuat layanan kencan kelas atas palsu bernama Klub Romantis, dengan logo yang terbuat dari ChatGPT. Kemudian mereka memasang iklan berbayar di media sosial, dengan kata kunci golf, kapal pesiar, dan restoran kelas atas, khusus menyasar pria muda Indonesia.
Anda mengklik iklan dan mulai dengan berbicara dengan chatbot AI. Robot berpura-pura seksi di meja depan, memungkinkan Anda memilih tipe gadis apa yang Anda sukai, dan memberi Anda tautan Telegram dengan kode undangan eksklusif.
Begitu di Telegram, orang-orang sungguhan mulai mengambil alih.
Resepsionis terus menggunakan ChatGPT untuk menghasilkan pesan ambigu, menjadi semakin eksplisit saat Anda mengobrol, dan kemudian mengarahkan Anda ke dua platform kencan palsu, satu disebut LoveCode dan yang lainnya disebut SexAction.
Ada banyak informasi gadis palsu di platform, dan ada bilah pesan bergulir yang terus menyiarkan “Selamat kepada ini dan itu karena telah menyelesaikan tugas dan membuka bonus”. Semuanya dibuat-buat, dan Anda mungkin melihatnya sekilas jika Anda memiliki pengalaman dalam menjelajahi web, tetapi tidak semua kelompok sasaran tidak akan tertipu.
Percakapan sudah ada, dan resepsionis memindahkan Anda ke “mentor”. Mentor mulai meminta Anda untuk melakukan “tugas”, setiap tugas harus dibebankan dengan uang, dan jumlahnya semakin besar setiap kali. Beli kartu VIP, pilih “gadis favorit”, bayar deposit hotel, dan ada banyak nama.
Langkah terakhir, mereka disebut membunuh secara internal.
Buat alasan, kesalahan pemrosesan data apa, setoran verifikasi apa, memungkinkan Anda mentransfer jumlah besar sekaligus. OpenAI memasukkan surat yang dikirim kepada korban oleh geng penipuan dalam laporan tersebut, meminta pembayaran sebesar 20,5 juta rupiah, setara dengan sekitar $12.000, dan mengatakan bahwa 35% dari bonus akan dikembalikan setelah pembayaran.
Ketika uang tiba, penipu di Telegram akan memblokir Anda dan memberi Anda catatan bahwa kasus tersebut telah ditutup.
Melihat ini, Anda mungkin berpikir itu bukan apa-apa.
Triknya sendiri bukanlah hal baru, dan rutinitas membunuh babi telah diambil berkali-kali dalam beberapa tahun terakhir. Yang benar-benar mengejutkan orang adalah di belakang panggung.
Penyelidik OpenAI telah membuat arsitektur perusahaan lengkap dari catatan penggunaan akun ChatGPT ini:
Taman penipuan dibagi menjadi tiga departemen: kelompok drainase, kelompok penerimaan, dan kelompok pengawas. Tim drainase bertanggung jawab untuk mengiklankan dan menarik orang, tim resepsionis bertanggung jawab untuk mengobrol untuk membangun kepercayaan, dan tim pengawas bertanggung jawab atas panen akhir.
Ada surat kabar harian. Laporan harian mencantumkan setiap korban yang sedang diproses, di samping siapa yang bertanggung jawab, di mana kemajuan telah berkembang, dan jumlah:
nilai pembunuhan .
Ini adalah jumlah yang diperkirakan oleh supervisor yang dapat diekstraksi dari orang ini.
Mereka juga menggunakan ChatGPT untuk menganalisis akun keuangan, membuat laporan kerja, dan bahkan bertanya kepada ChatGPT cara terhubung ke API dan mengubah kode situs kencan. Dalam situasi di mana supervisor berbicara bahasa Mandarin dan karyawan berbicara bahasa Indonesia, ChatGPT bertanggung jawab atas terjemahan di kedua sisi.
Lucunya, seorang karyawan penipuan kawat menggunakan ChatGPT untuk menanyakan tentang pajak setelah mendapatkan penghasilan, dan kolom pekerjaan dengan sangat jujur diisi dengan scammer.
Laporan OpenAI ditahan, mengatakan bahwa berdasarkan catatan input scammers sendiri, mereka mungkin memproses ratusan target pada saat yang sama, menghasilkan ribuan dolar sehari. Tetapi laporan itu juga mengatakan bahwa tidak mungkin untuk memverifikasi secara independen apakah angka-angka ini benar.
Namun, saya pikir tidak perlu khawatir apakah angka-angkanya benar atau tidak, hanya dengan melihat serangkaian proses manajemen ini sudah cukup:
Drainase, konversi, harga satuan pelanggan, laporan harian, pembagian kerja departemen, ubah terminologi, Anda pikir Anda sedang melihat manual operasi perusahaan SaaS.
Dan jatuh cinta, menerjemahkan, menulis surat kabar harian, mengubah kode, menyelesaikan rekening… Sebagian besar pekerjaan di kampus ini dilakukan dengan akun ChatGPT.
Cerita tidak berakhir di sini.
OpenAI juga menghapus baris kedua dalam laporan yang sama, dengan nama sandi Operation False Witness (penipuan sekunder korban), juga dari Kamboja.
Garis ini tidak ditujukan untuk orang biasa, tetapi untuk orang yang telah tertipu.
Logikanya sangat sederhana: Anda telah ditipu uang oleh pelat pembunuh babi, Anda ingin memulihkannya, apa yang harus Anda lakukan jika Anda mencari di Internet.
Kemudian Anda melihat iklan yang mengatakan bahwa mereka mengkhususkan diri dalam membantu korban penipuan memulihkan kerugian mereka. Anda mengklik.
Situs web melakukan banyak hal. Beberapa foto pengacara adalah avatar asli yang dicuri dari media sosial, sementara yang lain dihasilkan AI. Setiap firma hukum memiliki alamat, lisensi, dan profil. ChatGPT menghasilkan kartu keanggotaan untuk Asosiasi Pengacara Negara Bagian New York dan juga menghasilkan catatan pendaftaran pengacara palsu.
OpenAI telah menemukan setidaknya enam firma hukum palsu.
Ada juga situs web yang secara langsung menyamar sebagai Pusat Pengaduan Kejahatan Internet FBI. Ada tombol “Kirim Keluhan” di halaman, dan Anda dapat mengkliknya untuk melompat ke akun Telegram.
Di Telegram, “pengacara” mulai berbicara dengan Anda. Pidato tersebut dihasilkan oleh ChatGPT dan secara khusus diminta untuk ditulis dalam “bahasa Inggris Amerika” dengan nada yang meniru seorang pengacara profesional. Mereka memberi tahu Anda bahwa kami bekerja sama dengan Pengadilan Pidana Internasional dan tidak ada biaya sebelum dana dipulihkan.
Tetapi Anda harus membayar biaya layanan 15% untuk mengaktifkan akun dan membayar dalam cryptocurrency.
Mereka juga mengizinkan Anda menandatangani perjanjian kerahasiaan. Perjanjian kerahasiaan ini juga ditulis oleh ChatGPT untuk mencegah Anda memverifikasi.
FBI kemudian mengeluarkan peringatan publik secara khusus tentang insiden tersebut, mengatakan bahwa penipuan itu terutama menargetkan orang tua dan mengambil keuntungan dari keinginan para korban untuk memulihkan kerugian mereka.
Setelah membaca dua kasus ini, saya pikir di lingkungan saat ini di mana AI telah menjadi standar, inilah senyum paling masam:
Pertama kali Anda berbohong kepada Anda, Anda adalah target. Anda adalah target yang lebih baik untuk kedua kalinya Anda ditipu karena Anda telah membuktikan bahwa Anda akan tertipu.
Terakhir, OpenAI merangkum proses penipuan dalam tiga langkah dalam laporan tersebut.
Langkah pertama disebut pinging, jangkauan dingin, dan temukan cara untuk membuat target memperhatikan Anda. Langkah kedua disebut zing, yang menciptakan emosi yang membuat Anda bersemangat, bersemangat, atau takut. Langkah ketiga disebut menyengat, memanen, mengambil uang.
Kerangka kerja ini dirangkum dengan sangat baik, lihat lebih dekat, mana dari ketiga langkah ini yang tidak dapat dilakukan oleh AI?
Di masa lalu, biaya terbesar pembunuhan babi adalah manusia. Anda harus menyewa ruangan orang untuk duduk di depan komputer dan mengobrol, dan Anda harus berbicara bahasa target. Taman Kamboja merekrut orang di tahun-tahun awal, dan juga memilih bahasa Inggris yang bagus, dan gajinya juga tinggi.
Sekarang melihat kasus penipuan kencan yang disebutkan dalam laporan, supervisor berbicara bahasa Cina, karyawan berbicara bahasa Indonesia, dan targetnya juga Indonesia. Ketiga pihak tidak mengerti bahasanya, jadi mereka tidak bisa melakukan pekerjaan ini sebelumnya. Tambahkan ChatGPT, dan semuanya selesai.
Bahasa hanyalah salah satu dari hal-hal itu.
Ada juga detail dalam laporan tersebut bahwa penipu bahkan bertanya kepada ChatGPT bagaimana cara terhubung ke API OpenAI, mencoba mengotomatiskan sesi obrolan sepenuhnya.
Dengan kata lain, AI tidak membuat penipuan menjadi cerdas, penipuan tetaplah penipuan itu. AI membuat penipuan lebih murah.
Sekarang menurut OpenAI, geng tersebut mungkin berurusan dengan ratusan kasus penipuan sekaligus. Seiring dengan meningkatnya skala, biaya tenaga kerja yang dibagi oleh satu korban lebih rendah, yang secara alami menipu lebih banyak orang dengan harga satuan yang lebih kecil.
Ada pertanyaan lain yang menurut saya layak dipikirkan.
OpenAI dapat menemukan ini karena geng penipuan menggunakan ChatGPT, dan catatan obrolan disimpan di server OpenAI.
Bagaimana dengan mereka yang menggunakan model open source lokal?
Apa yang dapat disajikan oleh laporan ini mungkin hanya bagian kecil dari teka-teki yang dapat dilihat OpenAI. Tidak ada yang tahu seberapa besar tempat itu yang tidak bisa diterangi.