Polusi Internet Cina, AI telah menjadi salah satu "pelakunya".
Inilah masalahnya.
Bukankah semua orang tertarik untuk berkonsultasi dengan AI baru-baru ini? Seorang netizen mengajukan pertanyaan seperti itu kepada Bing:
Apakah ada kereta gantung di Bukit Belalai Gajah?
Bing juga menjawab pertanyaan, memberikan jawaban yang tampaknya dapat diandalkan:
Usai memberikan jawaban afirmatif, Bing pun dengan intim melampirkan detail informasi seperti harga tiket dan jam kerja.
Namun netizen ini tidak langsung menerima jawabannya, melainkan mengikuti petunjuk dan mengklik "link referensi" di bawah.
Saat ini, netizen menyadari ada yang tidak beres — bagaimana mungkin jawaban orang ini "pintar".
Jadi dia mengklik beranda pengguna yang disebut "Variety Life", dan tiba-tiba menyadari bahwa suke adalah AI**!
Karena pengguna ini dapat menjawab pertanyaan dengan sangat cepat, dan dapat menyelesaikan pertanyaan hampir setiap 1 atau 2 menit.
Bahkan bisa menjawab 2 soal dalam waktu 1 menit.
Di bawah pengamatan yang lebih hati-hati dari netizen ini, saya menemukan bahwa isi dari jawaban ini semuanya adalah tipe belum diverifikasi...
Dan, dia yakin, inilah yang menyebabkan Bing mengeluarkan jawaban yang salah:
AI ini dengan gila-gilaan mencemari Internet Cina.
"Sumber polusi AI", bukan hanya yang ini
Jadi bagaimana pengguna AI ditemukan oleh netizen sekarang?
Dilihat dari hasil saat ini, dia telah "dihukum" dalam keadaan diam oleh Zhihu.
Namun terlepas dari ini, ada netizen lain yang secara blak-blakan mengatakan:
lebih dari satu.
Jika Anda mengklik kolom "Menunggu jawaban Anda" di Zhihu, menemukan pertanyaan secara acak, dan menggulir ke bawah, Anda memang akan menemukan banyak jawaban "jenaka".
Misalnya, kami menemukan satu jawaban untuk "Apa skenario penerapan AI dalam kehidupan?":
Tidak hanya bahasa jawabannya "Jiyanjiyu", tetapi jawabannya langsung diberi label "termasuk kreasi yang dibantu AI".
Lalu kalau kita lempar pertanyaannya ke ChatGPT, baru dapat jawabannya... Nah, lumayan perubahannya.
Nyatanya, "sumber polusi AI" semacam itu tidak terbatas pada platform ini.
Bahkan dalam soal gambar mempopulerkan sains sederhana, AI berulang kali membuat kesalahan.
Netizens juga tinggal di Bengbu setelah membaca ini: "Bagus, tidak ada gambar kerang."
Bahkan berita palsu yang dihasilkan oleh berbagai AI tidak jarang.
Misalnya, beberapa waktu lalu, ada berita sensasional yang viral di Internet, dengan tajuk utama "Pembunuhan di Toko Cincang Ayam Zhengzhou, Pria Pukul Wanita Sampai Mati dengan Batu Bata!" ".
Namun nyatanya, berita ini dihasilkan oleh Chen, seorang pria Jiangxi, yang menggunakan ChatGPT untuk menarik penggemar.
Secara kebetulan, Hong, seorang saudara dari Shenzhen, Guangdong, juga menggunakan teknologi AI untuk menerbitkan berita palsu "Pagi ini, sebuah kereta api di Gansu menabrak seorang pekerja konstruksi jalan, menewaskan 9 orang".
Secara khusus, dia mencari di seluruh Internet untuk berita sosial hangat dalam beberapa tahun terakhir, dan setelah menggunakan perangkat lunak AI untuk mengubah dan mengedit waktu dan lokasi berita, dia mendapatkan perhatian dan lalu lintas pada platform tertentu untuk keuntungan ilegal.
Polisi telah mengambil langkah-langkah paksaan pidana terhadap mereka.
Namun nyatanya, fenomena "sumber polusi AI" ini tidak hanya ada di China, tapi juga di mancanegara.
Stack Overflow, komunitas Q&A programmer, adalah contohnya.
Pada akhir tahun lalu ketika ChatGPT pertama kali menjadi populer, Stack Overflow tiba-tiba mengumumkan "larangan sementara".
Alasan resmi yang diberikan pada saat itu adalah sebagai berikut:
Tujuan (melakukan ini) adalah untuk memperlambat aliran banjir jawaban yang dibuat menggunakan ChatGPT ke komunitas.
Karena kemungkinan mendapatkan jawaban yang salah dari ChatGPT terlalu tinggi!
Stack Overflow menguraikan lebih lanjut tentang fenomena ini.
Mereka percaya bahwa pertanyaan yang dijawab oleh pengguna sebelumnya ditelusuri oleh pengguna lain dengan latar belakang pengetahuan profesional, dan benar atau tidaknya sama dengan verifikasi.
Namun, sejak munculnya ChatGPT, sejumlah besar jawaban yang menurut orang "benar" telah muncul; dan jumlah pengguna dengan latar belakang pengetahuan profesional terbatas, dan tidak mungkin membaca semua jawaban yang dihasilkan ini.
Selain itu, ChatGPT menjawab pertanyaan profesional ini, dan tingkat kesalahannya benar-benar ada; oleh karena itu, Stack Overflow memilih untuk menonaktifkannya.
Singkatnya, AI mencemari lingkungan komunitas.
Dan seperti di Reddit, Post Bar versi AS, ada lebih banyak papan dan topik ChatGPT:
Banyak pengguna akan menanyakan berbagai pertanyaan di bawah kolom ini, dan bot ChatGPT juga menjawab semua pertanyaan.
Namun, itu masih merupakan pertanyaan lama, dan keakuratan jawabannya tidak diketahui.
Namun dibalik fenomena tersebut, sebenarnya ada bahaya tersembunyi yang lebih besar.
Menyalahgunakan AI, juga merusak AI
Model AI memperoleh data Internet dalam jumlah besar, tetapi tidak dapat membedakan keaslian dan kredibilitas informasi dengan baik.
Akibatnya kita harus berhadapan dengan banjir konten berkualitas rendah yang dihasilkan dengan cepat, membuat orang pusing dan pusing.
Sulit membayangkan seperti apa hasilnya jika model besar ChatGPT dilatih dengan data semacam ini...
Dan penyalahgunaan AI semacam itu, pada gilirannya, juga merupakan semacam autophagy.
Baru-baru ini, para peneliti di Inggris dan Kanada menerbitkan makalah berjudul "Kutukan Rekursi: Pelatihan Data yang Dihasilkan Membuat Model Lupa" di arXiv.
Membahas keadaan konten yang dihasilkan AI saat ini yang mencemari Internet, dan kemudian menerbitkan temuan yang mengkhawatirkan bahwa menggunakan konten yang dihasilkan model untuk melatih model lain menyebabkan kelemahan yang tidak dapat diubah pada model yang dihasilkan. **
"Polusi" data yang dihasilkan AI ini akan mendistorsi persepsi model tentang realitas, dan akan menjadi lebih sulit untuk melatih model dengan mengorek data Internet di masa mendatang.
Penulis makalah, Ross Anderson, profesor teknik keselamatan di Universitas Cambridge dan Edinburgh, secara blak-blakan mengatakan:
Sama seperti kita mengisi lautan dengan sampah plastik dan atmosfer dengan karbon dioksida, kita akan mengisi internet dengan sampah.
Mengenai situasi di mana informasi palsu tersebar di mana-mana, Daphne Ippolito (Daphne Ippolito), seorang ilmuwan peneliti senior di Google Brain, mengatakan: Akan semakin sulit menemukan data berkualitas tinggi yang belum dilatih oleh AI di masa mendatang.
Jika layar penuh dengan informasi non-nutrisi dan inferior semacam ini, dan terus berlanjut seperti ini, maka tidak akan ada pelatihan data untuk AI di masa mendatang, dan apa arti dari hasil keluarannya.
Berdasarkan situasi ini, bayangkan dengan berani. AI yang tumbuh di lingkungan sampah dan data palsu dapat dipasang menjadi "robot terbelakang", robot terbelakang mental terbelakang mental, sebelum berevolusi menjadi manusia.
Sama seperti film komedi sci-fi tahun 1996 Husbands and Baskets, film ini bercerita tentang orang biasa yang mengkloning dirinya sendiri, dan kemudian mengkloning manusia, dengan setiap kloning menyebabkan penurunan tingkat kecerdasan klon secara eksponensial dan peningkatan. dalam kebodohannya.
Pada saat itu, kita mungkin harus menghadapi dilema konyol: manusia telah menciptakan AI dengan kemampuan luar biasa, tetapi penuh dengan informasi yang membosankan dan bodoh.
Jenis konten apa yang dapat kita harapkan untuk dibuat oleh AI jika hanya diberi data sampah palsu?
Jika saatnya tiba, kita mungkin akan merindukan masa lalu dan menghormati kebijaksanaan manusia yang sejati itu.
Yang sedang berkata, itu tidak semua berita buruk. Misalnya, beberapa platform konten mulai memperhatikan masalah konten inferior yang dihasilkan oleh AI, dan telah memperkenalkan peraturan yang relevan untuk membatasinya.
Beberapa perusahaan AI juga mulai mengembangkan teknologi yang dapat mengidentifikasi konten yang dihasilkan AI untuk mengurangi ledakan informasi palsu dan spam AI.
Tautan referensi:
[1]
[2]
[3]
[4]
[5]
[6]
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
AI dengan gila-gilaan mencemari Internet Cina
Sumber: Qubit
Polusi Internet Cina, AI telah menjadi salah satu "pelakunya".
Inilah masalahnya.
Bukankah semua orang tertarik untuk berkonsultasi dengan AI baru-baru ini? Seorang netizen mengajukan pertanyaan seperti itu kepada Bing:
Bing juga menjawab pertanyaan, memberikan jawaban yang tampaknya dapat diandalkan:
Namun netizen ini tidak langsung menerima jawabannya, melainkan mengikuti petunjuk dan mengklik "link referensi" di bawah.
Jadi dia mengklik beranda pengguna yang disebut "Variety Life", dan tiba-tiba menyadari bahwa suke adalah AI**!
Bahkan bisa menjawab 2 soal dalam waktu 1 menit.
Di bawah pengamatan yang lebih hati-hati dari netizen ini, saya menemukan bahwa isi dari jawaban ini semuanya adalah tipe belum diverifikasi...
"Sumber polusi AI", bukan hanya yang ini
Jadi bagaimana pengguna AI ditemukan oleh netizen sekarang?
Dilihat dari hasil saat ini, dia telah "dihukum" dalam keadaan diam oleh Zhihu.
Misalnya, kami menemukan satu jawaban untuk "Apa skenario penerapan AI dalam kehidupan?":
Lalu kalau kita lempar pertanyaannya ke ChatGPT, baru dapat jawabannya... Nah, lumayan perubahannya.
Bahkan dalam soal gambar mempopulerkan sains sederhana, AI berulang kali membuat kesalahan.
Misalnya, beberapa waktu lalu, ada berita sensasional yang viral di Internet, dengan tajuk utama "Pembunuhan di Toko Cincang Ayam Zhengzhou, Pria Pukul Wanita Sampai Mati dengan Batu Bata!" ".
Secara kebetulan, Hong, seorang saudara dari Shenzhen, Guangdong, juga menggunakan teknologi AI untuk menerbitkan berita palsu "Pagi ini, sebuah kereta api di Gansu menabrak seorang pekerja konstruksi jalan, menewaskan 9 orang".
Secara khusus, dia mencari di seluruh Internet untuk berita sosial hangat dalam beberapa tahun terakhir, dan setelah menggunakan perangkat lunak AI untuk mengubah dan mengedit waktu dan lokasi berita, dia mendapatkan perhatian dan lalu lintas pada platform tertentu untuk keuntungan ilegal.
Polisi telah mengambil langkah-langkah paksaan pidana terhadap mereka.
Stack Overflow, komunitas Q&A programmer, adalah contohnya.
Pada akhir tahun lalu ketika ChatGPT pertama kali menjadi populer, Stack Overflow tiba-tiba mengumumkan "larangan sementara".
Alasan resmi yang diberikan pada saat itu adalah sebagai berikut:
Mereka percaya bahwa pertanyaan yang dijawab oleh pengguna sebelumnya ditelusuri oleh pengguna lain dengan latar belakang pengetahuan profesional, dan benar atau tidaknya sama dengan verifikasi.
Namun, sejak munculnya ChatGPT, sejumlah besar jawaban yang menurut orang "benar" telah muncul; dan jumlah pengguna dengan latar belakang pengetahuan profesional terbatas, dan tidak mungkin membaca semua jawaban yang dihasilkan ini.
Selain itu, ChatGPT menjawab pertanyaan profesional ini, dan tingkat kesalahannya benar-benar ada; oleh karena itu, Stack Overflow memilih untuk menonaktifkannya.
Singkatnya, AI mencemari lingkungan komunitas.
Dan seperti di Reddit, Post Bar versi AS, ada lebih banyak papan dan topik ChatGPT:
Namun, itu masih merupakan pertanyaan lama, dan keakuratan jawabannya tidak diketahui.
Namun dibalik fenomena tersebut, sebenarnya ada bahaya tersembunyi yang lebih besar.
Menyalahgunakan AI, juga merusak AI
Model AI memperoleh data Internet dalam jumlah besar, tetapi tidak dapat membedakan keaslian dan kredibilitas informasi dengan baik.
Akibatnya kita harus berhadapan dengan banjir konten berkualitas rendah yang dihasilkan dengan cepat, membuat orang pusing dan pusing.
Sulit membayangkan seperti apa hasilnya jika model besar ChatGPT dilatih dengan data semacam ini...
Baru-baru ini, para peneliti di Inggris dan Kanada menerbitkan makalah berjudul "Kutukan Rekursi: Pelatihan Data yang Dihasilkan Membuat Model Lupa" di arXiv.
"Polusi" data yang dihasilkan AI ini akan mendistorsi persepsi model tentang realitas, dan akan menjadi lebih sulit untuk melatih model dengan mengorek data Internet di masa mendatang.
Penulis makalah, Ross Anderson, profesor teknik keselamatan di Universitas Cambridge dan Edinburgh, secara blak-blakan mengatakan:
Mengenai situasi di mana informasi palsu tersebar di mana-mana, Daphne Ippolito (Daphne Ippolito), seorang ilmuwan peneliti senior di Google Brain, mengatakan: Akan semakin sulit menemukan data berkualitas tinggi yang belum dilatih oleh AI di masa mendatang.
Pada saat itu, kita mungkin harus menghadapi dilema konyol: manusia telah menciptakan AI dengan kemampuan luar biasa, tetapi penuh dengan informasi yang membosankan dan bodoh.
Jenis konten apa yang dapat kita harapkan untuk dibuat oleh AI jika hanya diberi data sampah palsu?
Jika saatnya tiba, kita mungkin akan merindukan masa lalu dan menghormati kebijaksanaan manusia yang sejati itu.
Yang sedang berkata, itu tidak semua berita buruk. Misalnya, beberapa platform konten mulai memperhatikan masalah konten inferior yang dihasilkan oleh AI, dan telah memperkenalkan peraturan yang relevan untuk membatasinya.
Beberapa perusahaan AI juga mulai mengembangkan teknologi yang dapat mengidentifikasi konten yang dihasilkan AI untuk mengurangi ledakan informasi palsu dan spam AI.