และในทางกลับกันการใช้ AI ในทางที่ผิดนั้นก็เป็น autophagy ชนิดหนึ่งเช่นกัน
เมื่อเร็ว ๆ นี้ นักวิจัยในสหราชอาณาจักรและแคนาดาได้ตีพิมพ์บทความเรื่อง "The Curse of Recursion: Training on Generated Data makes Models forget" บน arXiv
กล่าวถึงสถานะปัจจุบันของเนื้อหาที่สร้างโดย AI ซึ่งก่อมลพิษบนอินเทอร์เน็ต จากนั้นเผยแพร่ข้อค้นพบที่น่ากังวลว่าการใช้เนื้อหาที่สร้างแบบจำลองเพื่อฝึกโมเดลอื่นๆ ทำให้เกิดข้อบกพร่องที่แก้ไขไม่ได้ในผลลัพธ์ของแบบจำลอง **
"มลภาวะ" ของข้อมูลที่ AI สร้างขึ้นนี้จะบิดเบือนการรับรู้ของโมเดลเกี่ยวกับความเป็นจริง และจะกลายเป็นเรื่องยากมากขึ้นในการฝึกโมเดลโดยการขูดข้อมูลอินเทอร์เน็ตในอนาคต
Ross Anderson ผู้เขียนบทความนี้ ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยแห่งมหาวิทยาลัยเคมบริดจ์และเอดินบะระ กล่าวอย่างตรงไปตรงมาว่า:
ที่ถูกกล่าวว่าไม่ใช่ข่าวร้ายทั้งหมด ตัวอย่างเช่น แพลตฟอร์มเนื้อหาบางแห่งเริ่มให้ความสนใจกับปัญหาเนื้อหาด้อยคุณภาพที่สร้างโดย AI และได้แนะนำกฎระเบียบที่เกี่ยวข้องเพื่อจำกัดเนื้อหาดังกล่าว
บริษัท AI บางแห่งได้เริ่มพัฒนาเทคโนโลยีที่สามารถระบุเนื้อหาที่สร้างโดย AI เพื่อลดการแพร่กระจายของข้อมูลเท็จและสแปมของ AI
AI กำลังสร้างมลพิษให้กับอินเทอร์เน็ตของจีนอย่างบ้าคลั่ง
ที่มา: Qubit
มลพิษทางอินเทอร์เน็ตของจีน AI กลายเป็นหนึ่งใน "ผู้ร้าย"
นี่คือสิ่งที่
ทุกคนไม่อยากปรึกษา AI เมื่อเร็ว ๆ นี้ใช่ไหม ชาวเน็ตคนหนึ่งถาม Bing ว่า:
Bing ยังตอบคำถาม โดยให้คำตอบที่ดูน่าเชื่อถือ:
อย่างไรก็ตาม ชาวเน็ตรายนี้ไม่ยอมรับคำตอบโดยตรง แต่ติดตามเบาะแสและคลิกที่ "ลิงก์อ้างอิง" ด้านล่าง
ดังนั้นเขาจึงคลิกที่หน้าแรกของผู้ใช้ที่ชื่อว่า "Variety Life" และทันใดนั้นก็รู้ว่า suke เป็น AI**!
สามารถตอบคำถาม 2 ข้อได้ภายใน 1 นาที
ภายใต้การสังเกตอย่างรอบคอบของชาวเน็ตคนนี้ ฉันพบว่าเนื้อหาของคำตอบเหล่านี้เป็นประเภท ไม่ได้รับการยืนยัน ทั้งหมด...
"แหล่งกำเนิดมลพิษ AI" ไม่ใช่แค่นี้
แล้วชาวเน็ตค้นพบผู้ใช้ AI ได้อย่างไร?
เมื่อพิจารณาจากผลลัพธ์ปัจจุบัน เขาถูก "ตัดสิน" ให้อยู่ในสถานะเงียบโดย Zhihu
ตัวอย่างเช่น เราพบหนึ่งในคำตอบของ "สถานการณ์การประยุกต์ใช้ AI ในชีวิตคืออะไร":
แล้วถ้าเราโยนคำถามไปที่ ChatGPT แล้วได้คำตอบ... ก็ค่อนข้างจะเปลี่ยนไป
แม้แต่ในเรื่องของภาพนิยมทางวิทยาศาสตร์ที่เรียบง่าย AI ก็ยังทำผิดพลาดซ้ำแล้วซ้ำอีก
ตัวอย่างเช่น เมื่อไม่นานมานี้มีข่าวที่น่าตื่นเต้นที่แพร่ระบาดบนอินเทอร์เน็ต พาดหัวข่าวคือ "ฆาตกรรมที่ Zhengzhou Chicken Chop Shop ผู้ชายทุบผู้หญิงจนตายด้วยก้อนอิฐ!" ".
บังเอิญ Hong น้องชายจากเซินเจิ้น มณฑลกวางตุ้ง ใช้เทคโนโลยี AI เพื่อเผยแพร่ข่าวปลอม "เมื่อเช้านี้ รถไฟในกานซูพุ่งชนคนงานก่อสร้างถนน เสียชีวิต 9 คน"
โดยเฉพาะอย่างยิ่ง เขาค้นหาเครือข่ายทั้งหมดเพื่อหาข่าวโซเชียลยอดนิยมในช่วงไม่กี่ปีที่ผ่านมา และใช้ซอฟต์แวร์ AI เพื่อแก้ไขและแก้ไขเวลาและสถานที่ของข่าว จากนั้นจึงได้รับความสนใจและเข้าชมในบางแพลตฟอร์มเพื่อหากำไรที่ผิดกฎหมาย
ตำรวจได้ใช้มาตรการบังคับทางอาญากับพวกเขา
Stack Overflow ซึ่งเป็นชุมชนถามตอบโปรแกรมเมอร์เป็นตัวอย่าง
เมื่อปลายปีที่แล้ว ChatGPT ได้รับความนิยมเป็นครั้งแรก Stack Overflow ก็ประกาศ "แบนชั่วคราว"
เหตุผลอย่างเป็นทางการในเวลานั้นมีดังนี้:
พวกเขาเชื่อว่าคำถามที่ตอบโดยผู้ใช้ก่อนหน้านี้ถูกเรียกดูโดยผู้ใช้รายอื่นที่มีพื้นฐานความรู้ทางวิชาชีพ และไม่ว่าคำถามเหล่านั้นจะถูกต้องหรือไม่ก็เท่ากับเป็นการยืนยัน
อย่างไรก็ตาม นับตั้งแต่การเกิดขึ้นของ ChatGPT คำตอบจำนวนมากที่ผู้คนคิดว่า "ถูกต้อง" ก็ปรากฏขึ้น และจำนวนผู้ใช้ที่มีพื้นฐานความรู้ทางวิชาชีพก็มีจำกัด และเป็นไปไม่ได้ที่จะอ่านคำตอบที่สร้างขึ้นทั้งหมดเหล่านี้
นอกจากนี้ ChatGPT ยังตอบคำถามระดับมืออาชีพเหล่านี้ และอัตราข้อผิดพลาดก็อยู่ที่นั่นจริงๆ ดังนั้น Stack Overflow จึงเลือกที่จะปิดใช้งาน
กล่าวอีกนัยหนึ่ง AI ก่อให้เกิดมลพิษต่อสภาพแวดล้อมของชุมชน
และเช่นเดียวกับ Reddit ซึ่งเป็น Post Bar เวอร์ชันสหรัฐอเมริกา มีกระดานและหัวข้อ ChatGPT มากขึ้น:
อย่างไรก็ตาม ยังคงเป็นคำถามเก่าและไม่ทราบความถูกต้องของคำตอบ
แต่เบื้องหลังปรากฏการณ์นี้มีอันตรายซ่อนอยู่จริง ๆ
ใช้ AI ในทางที่ผิด ทำลาย AI ด้วย
โมเดล AI ได้รับข้อมูลอินเทอร์เน็ตจำนวนมาก แต่ไม่สามารถแยกแยะความถูกต้องและความน่าเชื่อถือของข้อมูลได้ดี
ผลที่ตามมาคือเราต้องรับมือกับเนื้อหาคุณภาพต่ำจำนวนมากที่สร้างขึ้นอย่างรวดเร็ว ทำให้คนเวียนหัวและเวียนหัว
ยากที่จะจินตนาการว่าผลลัพธ์จะเป็นอย่างไรหาก ChatGPT รุ่นใหญ่ได้รับการฝึกฝนด้วยข้อมูลประเภทนี้...
เมื่อเร็ว ๆ นี้ นักวิจัยในสหราชอาณาจักรและแคนาดาได้ตีพิมพ์บทความเรื่อง "The Curse of Recursion: Training on Generated Data makes Models forget" บน arXiv
"มลภาวะ" ของข้อมูลที่ AI สร้างขึ้นนี้จะบิดเบือนการรับรู้ของโมเดลเกี่ยวกับความเป็นจริง และจะกลายเป็นเรื่องยากมากขึ้นในการฝึกโมเดลโดยการขูดข้อมูลอินเทอร์เน็ตในอนาคต
Ross Anderson ผู้เขียนบทความนี้ ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยแห่งมหาวิทยาลัยเคมบริดจ์และเอดินบะระ กล่าวอย่างตรงไปตรงมาว่า:
เกี่ยวกับสถานการณ์ที่ข้อมูลเท็จแพร่กระจายไปทั่ว Daphne Ippolito (Daphne Ippolito) นักวิทยาศาสตร์การวิจัยอาวุโสของ Google Brain กล่าวว่า การหาข้อมูลคุณภาพสูงที่ AI ไม่ได้รับการฝึกอบรมจะยากยิ่งขึ้นไปอีกในอนาคต
เมื่อถึงจุดนั้น เราอาจต้องเผชิญกับภาวะที่กลืนไม่เข้าคายไม่ออก: มนุษย์ได้สร้าง AI ที่มีความสามารถที่น่าทึ่ง แต่เต็มไปด้วยข้อมูลที่น่าเบื่อและงี่เง่า
เนื้อหาประเภทใดที่เราคาดหวังให้ AI สร้างได้ หากป้อนเพียงข้อมูลขยะปลอม
หากถึงเวลานั้น เราคงจะคิดถึงอดีตและยกย่องภูมิปัญญาที่แท้จริงของมนุษย์เหล่านั้น
ที่ถูกกล่าวว่าไม่ใช่ข่าวร้ายทั้งหมด ตัวอย่างเช่น แพลตฟอร์มเนื้อหาบางแห่งเริ่มให้ความสนใจกับปัญหาเนื้อหาด้อยคุณภาพที่สร้างโดย AI และได้แนะนำกฎระเบียบที่เกี่ยวข้องเพื่อจำกัดเนื้อหาดังกล่าว
บริษัท AI บางแห่งได้เริ่มพัฒนาเทคโนโลยีที่สามารถระบุเนื้อหาที่สร้างโดย AI เพื่อลดการแพร่กระจายของข้อมูลเท็จและสแปมของ AI