AI กำลังสร้างมลพิษให้กับอินเทอร์เน็ตของจีนอย่างบ้าคลั่ง

ที่มา: Qubit

มลพิษทางอินเทอร์เน็ตของจีน AI กลายเป็นหนึ่งใน "ผู้ร้าย"

นี่คือสิ่งที่

ทุกคนไม่อยากปรึกษา AI เมื่อเร็ว ๆ นี้ใช่ไหม ชาวเน็ตคนหนึ่งถาม Bing ว่า:

มีรถกระเช้าขึ้นเขางวงช้างไหม?

Bing ยังตอบคำถาม โดยให้คำตอบที่ดูน่าเชื่อถือ:

หลังจากให้คำตอบยืนยันแล้ว Bing ยังแนบข้อมูลรายละเอียดอย่างใกล้ชิด เช่น ราคาตั๋วและเวลาทำการ

อย่างไรก็ตาม ชาวเน็ตรายนี้ไม่ยอมรับคำตอบโดยตรง แต่ติดตามเบาะแสและคลิกที่ "ลิงก์อ้างอิง" ด้านล่าง

ในขณะนี้ ชาวเน็ตสังเกตเห็นว่ามีบางอย่างผิดปกติ—คนๆ นี้จะตอบว่า “ฉลาด” ได้อย่างไร

ดังนั้นเขาจึงคลิกที่หน้าแรกของผู้ใช้ที่ชื่อว่า "Variety Life" และทันใดนั้นก็รู้ว่า suke เป็น AI**!

เพราะผู้ใช้รายนี้สามารถตอบคำถามได้รวดเร็วมาก และแก้ปัญหาได้แทบทุก 1 หรือ 2 นาที

สามารถตอบคำถาม 2 ข้อได้ภายใน 1 นาที

ภายใต้การสังเกตอย่างรอบคอบของชาวเน็ตคนนี้ ฉันพบว่าเนื้อหาของคำตอบเหล่านี้เป็นประเภท ไม่ได้รับการยืนยัน ทั้งหมด...

และเขาเชื่อว่านี่คือสิ่งที่ทำให้ Bing แสดงคำตอบที่ผิด:

AI นี้สร้างมลพิษให้กับอินเทอร์เน็ตของจีนอย่างบ้าคลั่ง

"แหล่งกำเนิดมลพิษ AI" ไม่ใช่แค่นี้

แล้วชาวเน็ตค้นพบผู้ใช้ AI ได้อย่างไร?

เมื่อพิจารณาจากผลลัพธ์ปัจจุบัน เขาถูก "ตัดสิน" ให้อยู่ในสถานะเงียบโดย Zhihu

แต่ถึงกระนั้นก็ยังมีชาวเน็ตคนอื่นๆ ที่พูดตรงๆ ว่า:

มากกว่าหนึ่ง

หากคุณคลิกที่คอลัมน์ "รอคำตอบของคุณ" ของ Zhihu สุ่มค้นหาคำถาม แล้วเลื่อนลงมา คุณจะพบคำตอบที่ "มีไหวพริบ" มากมาย

ตัวอย่างเช่น เราพบหนึ่งในคำตอบของ "สถานการณ์การประยุกต์ใช้ AI ในชีวิตคืออะไร":

ไม่เพียงแต่ภาษาของคำตอบ "Jiyanjiyu" เท่านั้น แต่คำตอบยังมีป้ายกำกับโดยตรงว่า "รวมถึงการสร้างโดยใช้ AI"

แล้วถ้าเราโยนคำถามไปที่ ChatGPT แล้วได้คำตอบ... ก็ค่อนข้างจะเปลี่ยนไป

ในความเป็นจริง "แหล่งกำเนิดมลพิษ AI" ดังกล่าวไม่ได้จำกัดอยู่เฉพาะในแพลตฟอร์มนี้

แม้แต่ในเรื่องของภาพนิยมทางวิทยาศาสตร์ที่เรียบง่าย AI ก็ยังทำผิดพลาดซ้ำแล้วซ้ำอีก

ชาวเน็ตยังชมเชยเบงบูหลังจากอ่านข้อความนี้: "คนดี ไม่มีรูปไหนที่เป็นหอยแมลงภู่เลย"

แม้แต่ข่าวปลอมที่เกิดจาก AI ต่างๆ ก็ไม่ใช่เรื่องแปลก

ตัวอย่างเช่น เมื่อไม่นานมานี้มีข่าวที่น่าตื่นเต้นที่แพร่ระบาดบนอินเทอร์เน็ต พาดหัวข่าวคือ "ฆาตกรรมที่ Zhengzhou Chicken Chop Shop ผู้ชายทุบผู้หญิงจนตายด้วยก้อนอิฐ!" ".

แต่ความจริงแล้ว ข่าวนี้สร้างโดย Chen ชายชาวเจียงซี โดยใช้ ChatGPT เพื่อดึงดูดแฟนๆ

บังเอิญ Hong น้องชายจากเซินเจิ้น มณฑลกวางตุ้ง ใช้เทคโนโลยี AI เพื่อเผยแพร่ข่าวปลอม "เมื่อเช้านี้ รถไฟในกานซูพุ่งชนคนงานก่อสร้างถนน เสียชีวิต 9 คน"

โดยเฉพาะอย่างยิ่ง เขาค้นหาเครือข่ายทั้งหมดเพื่อหาข่าวโซเชียลยอดนิยมในช่วงไม่กี่ปีที่ผ่านมา และใช้ซอฟต์แวร์ AI เพื่อแก้ไขและแก้ไขเวลาและสถานที่ของข่าว จากนั้นจึงได้รับความสนใจและเข้าชมในบางแพลตฟอร์มเพื่อหากำไรที่ผิดกฎหมาย

ตำรวจได้ใช้มาตรการบังคับทางอาญากับพวกเขา

แต่ในความเป็นจริงแล้ว ปรากฏการณ์ "แหล่งกำเนิดมลพิษ AI" นี้ไม่ได้เกิดขึ้นเฉพาะในจีนเท่านั้น แต่ยังรวมถึงในต่างประเทศด้วย

Stack Overflow ซึ่งเป็นชุมชนถามตอบโปรแกรมเมอร์เป็นตัวอย่าง

เมื่อปลายปีที่แล้ว ChatGPT ได้รับความนิยมเป็นครั้งแรก Stack Overflow ก็ประกาศ "แบนชั่วคราว"

เหตุผลอย่างเป็นทางการในเวลานั้นมีดังนี้:

จุดประสงค์ (ของการทำเช่นนี้) คือเพื่อชะลอการไหลของคำตอบที่สร้างโดยใช้ ChatGPT ไปยังชุมชน เนื่องจากโอกาสที่จะได้รับคำตอบผิดจาก ChatGPT นั้นสูงเกินไป!

Stack Overflow อธิบายเพิ่มเติมเกี่ยวกับปรากฏการณ์นี้

พวกเขาเชื่อว่าคำถามที่ตอบโดยผู้ใช้ก่อนหน้านี้ถูกเรียกดูโดยผู้ใช้รายอื่นที่มีพื้นฐานความรู้ทางวิชาชีพ และไม่ว่าคำถามเหล่านั้นจะถูกต้องหรือไม่ก็เท่ากับเป็นการยืนยัน

อย่างไรก็ตาม นับตั้งแต่การเกิดขึ้นของ ChatGPT คำตอบจำนวนมากที่ผู้คนคิดว่า "ถูกต้อง" ก็ปรากฏขึ้น และจำนวนผู้ใช้ที่มีพื้นฐานความรู้ทางวิชาชีพก็มีจำกัด และเป็นไปไม่ได้ที่จะอ่านคำตอบที่สร้างขึ้นทั้งหมดเหล่านี้

นอกจากนี้ ChatGPT ยังตอบคำถามระดับมืออาชีพเหล่านี้ และอัตราข้อผิดพลาดก็อยู่ที่นั่นจริงๆ ดังนั้น Stack Overflow จึงเลือกที่จะปิดใช้งาน

กล่าวอีกนัยหนึ่ง AI ก่อให้เกิดมลพิษต่อสภาพแวดล้อมของชุมชน

และเช่นเดียวกับ Reddit ซึ่งเป็น Post Bar เวอร์ชันสหรัฐอเมริกา มีกระดานและหัวข้อ ChatGPT มากขึ้น:

ผู้ใช้หลายคนจะถามคำถามต่างๆ ในคอลัมน์นี้ และบอท ChatGPT ก็ตอบคำถามทั้งหมดเช่นกัน

อย่างไรก็ตาม ยังคงเป็นคำถามเก่าและไม่ทราบความถูกต้องของคำตอบ

แต่เบื้องหลังปรากฏการณ์นี้มีอันตรายซ่อนอยู่จริง ๆ

ใช้ AI ในทางที่ผิด ทำลาย AI ด้วย

โมเดล AI ได้รับข้อมูลอินเทอร์เน็ตจำนวนมาก แต่ไม่สามารถแยกแยะความถูกต้องและความน่าเชื่อถือของข้อมูลได้ดี

ผลที่ตามมาคือเราต้องรับมือกับเนื้อหาคุณภาพต่ำจำนวนมากที่สร้างขึ้นอย่างรวดเร็ว ทำให้คนเวียนหัวและเวียนหัว

ยากที่จะจินตนาการว่าผลลัพธ์จะเป็นอย่างไรหาก ChatGPT รุ่นใหญ่ได้รับการฝึกฝนด้วยข้อมูลประเภทนี้...

และในทางกลับกันการใช้ AI ในทางที่ผิดนั้นก็เป็น autophagy ชนิดหนึ่งเช่นกัน

เมื่อเร็ว ๆ นี้ นักวิจัยในสหราชอาณาจักรและแคนาดาได้ตีพิมพ์บทความเรื่อง "The Curse of Recursion: Training on Generated Data makes Models forget" บน arXiv

กล่าวถึงสถานะปัจจุบันของเนื้อหาที่สร้างโดย AI ซึ่งก่อมลพิษบนอินเทอร์เน็ต จากนั้นเผยแพร่ข้อค้นพบที่น่ากังวลว่าการใช้เนื้อหาที่สร้างแบบจำลองเพื่อฝึกโมเดลอื่นๆ ทำให้เกิดข้อบกพร่องที่แก้ไขไม่ได้ในผลลัพธ์ของแบบจำลอง **

"มลภาวะ" ของข้อมูลที่ AI สร้างขึ้นนี้จะบิดเบือนการรับรู้ของโมเดลเกี่ยวกับความเป็นจริง และจะกลายเป็นเรื่องยากมากขึ้นในการฝึกโมเดลโดยการขูดข้อมูลอินเทอร์เน็ตในอนาคต

Ross Anderson ผู้เขียนบทความนี้ ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยแห่งมหาวิทยาลัยเคมบริดจ์และเอดินบะระ กล่าวอย่างตรงไปตรงมาว่า:

เช่นเดียวกับที่เราเติมมหาสมุทรด้วยขยะพลาสติกและบรรยากาศด้วยก๊าซคาร์บอนไดออกไซด์ เราก็กำลังจะเติมอินเทอร์เน็ตด้วยขยะ

เกี่ยวกับสถานการณ์ที่ข้อมูลเท็จแพร่กระจายไปทั่ว Daphne Ippolito (Daphne Ippolito) นักวิทยาศาสตร์การวิจัยอาวุโสของ Google Brain กล่าวว่า การหาข้อมูลคุณภาพสูงที่ AI ไม่ได้รับการฝึกอบรมจะยากยิ่งขึ้นไปอีกในอนาคต

หากหน้าจอเต็มไปด้วยข้อมูลที่ไม่มีคุณค่าทางโภชนาการและด้อยประสิทธิภาพเช่นนี้ และดำเนินต่อไปเช่นนี้ ก็จะไม่มีการฝึกอบรมข้อมูลสำหรับ AI ในอนาคต และผลลัพธ์ที่ออกมาจะมีความหมายอย่างไร

จากสถานการณ์นี้จินตนาการอย่างกล้าหาญ AI ที่เติบโตมาในสภาพแวดล้อมที่เต็มไปด้วยขยะและข้อมูลเท็จอาจถูกจัดให้เป็น "หุ่นยนต์ปัญญาอ่อน" ซึ่งเป็นหุ่นยนต์ปัญญาอ่อนที่ปัญญาอ่อน ก่อนที่มันจะพัฒนาเป็นมนุษย์

เช่นเดียวกับภาพยนตร์ตลกแนวไซไฟเรื่อง Husbands and Baskets ในปี 1996 ภาพยนตร์เรื่องนี้บอกเล่าเรื่องราวของคนธรรมดาที่โคลนตัวเอง แล้วโคลนมนุษย์ ซึ่งการโคลนนิ่งแต่ละครั้งจะทำให้ระดับสติปัญญาของร่างโคลนลดลงอย่างทวีคูณและเพิ่มขึ้น ในความโง่เขลาของมัน

เมื่อถึงจุดนั้น เราอาจต้องเผชิญกับภาวะที่กลืนไม่เข้าคายไม่ออก: มนุษย์ได้สร้าง AI ที่มีความสามารถที่น่าทึ่ง แต่เต็มไปด้วยข้อมูลที่น่าเบื่อและงี่เง่า

เนื้อหาประเภทใดที่เราคาดหวังให้ AI สร้างได้ หากป้อนเพียงข้อมูลขยะปลอม

หากถึงเวลานั้น เราคงจะคิดถึงอดีตและยกย่องภูมิปัญญาที่แท้จริงของมนุษย์เหล่านั้น

ที่ถูกกล่าวว่าไม่ใช่ข่าวร้ายทั้งหมด ตัวอย่างเช่น แพลตฟอร์มเนื้อหาบางแห่งเริ่มให้ความสนใจกับปัญหาเนื้อหาด้อยคุณภาพที่สร้างโดย AI และได้แนะนำกฎระเบียบที่เกี่ยวข้องเพื่อจำกัดเนื้อหาดังกล่าว

บริษัท AI บางแห่งได้เริ่มพัฒนาเทคโนโลยีที่สามารถระบุเนื้อหาที่สร้างโดย AI เพื่อลดการแพร่กระจายของข้อมูลเท็จและสแปมของ AI

ลิงค์อ้างอิง: [1] [2] [3] [4] [5] [6]

ดูต้นฉบับ
เนื้อหานี้มีสำหรับการอ้างอิงเท่านั้น ไม่ใช่การชักชวนหรือข้อเสนอ ไม่มีคำแนะนำด้านการลงทุน ภาษี หรือกฎหมาย ดูข้อจำกัดความรับผิดชอบสำหรับการเปิดเผยความเสี่ยงเพิ่มเติม
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด