🎉 Gate.io動態 #创作者激励计划# 火熱進行中!報名參與並發帖解鎖 $2,000 創作大獎!
🌟 參與攻略:
1️⃣ 點擊連結進入報名頁面 👉️ https://www.gate.io/questionnaire/6550
2️⃣ 點擊“是”按鈕提交報名
3️⃣ 在動態完成發帖,提升發帖量和互動量,解鎖獲獎資格!
📌 只要是與加密相關內容均可參與發帖!
🎁 茶具套裝、Gate x 國際米蘭保溫杯、Gate.io 紀念章、點卡等好禮等你來拿!獲獎者還將獲得專屬社區流量扶持,助力您提升影響力,增長粉絲!
活動截止至:5月6日00:00 (UTC+8)
活動詳情:https://www.gate.io/announcements/article/44513
AI,正在瘋狂污染中文互聯網
來源:量子位
污染中文互聯網,AI成了“罪魁禍首”之一。
事情是這樣的。
最近大家不是都熱衷於向AI諮詢嘛,有位網友就問了Bing這麼一個問題:
Bing也是有問必答,給出了看似挺靠譜的答案:
不過這位網友並沒有直接採納答案,而是順藤摸瓜點開了下方的“參考鏈接”。
於是他點開了這位叫“百變人生”的用戶主頁,猛然發覺,介是個AI啊!
甚至能在1分鐘之內回答2個問題。
在這位網友更為細心的觀察之下,發現這些回答的內容都是沒經過核實的那種……
“AI污染源”,不止這一個
那麼被網友發現的這位AI用戶,現在怎麼樣了?
從目前結果來看,他已經被被知乎“判處”為禁言狀態。
例如我們在“AI在生活中的應用場景有哪些?”的回答中便找到了一個:
然後如果我們把問題丟給ChatGPT,那麼得到回答……嗯,挺換湯不換藥的。
就連簡單的科普配圖這事上,AI也是屢屢犯錯。
例如前一段時間,便有一則聳人聽聞的消息在網上瘋傳,標題是《鄭州雞排店惊現血案,男子用磚頭砸死女子! 》。
無獨有偶,廣東深圳的洪某弟也是通過AI技術,發布過《今晨,甘肅一火車撞上修路工人, 致9人死亡》假新聞。
具體而言,他在全網搜索近幾年的社會熱點新聞,並使用AI軟件對新聞時間、地點等進行修改編輯後,在某些平台賺取關注和流量進行非法牟利。
警方均已對他們採取了刑事強制措施。
程序員問答社區Stack Overflow便是一個例子。
早在去年年底ChatGPT剛火起來的時候,Stack Overflow便突然宣布“臨時禁用”。
當時官方給出來的理由是這樣的:
他們認為以前用戶回答的問題,都是會有專業知識背景的其他用戶瀏覽,並給出正確與否,相當於是核實過。
但自打ChatGPT出現之後,湧現了大量讓人覺得“很對”的答案;而有專業知識背景的用戶數量是有限,沒法把這些生成的答案都看個遍。
加之ChatGPT回答這些個專業性問題,它的錯誤率是實實在在擺在那裡的;因此Stack Overflow才選擇了禁用。
一言蔽之,AI污染了社區環境。
而且像在美版貼吧Reddit上,也是充斥著較多的ChatGPT板塊、話題:
不過,還是老問題,答案的準確性如何,就不得而知了。
但這種現象背後,其實還隱藏著更大的隱患。
濫用AI,也毀了AI
AI模型獲得大量互聯網數據,卻無法很好地辨別信息的真實性和可信度。
結果就是,我們不得不面對一大堆快速生成的低質量內容,讓人眼花繚亂,頭暈目眩。
很難想像ChatGPT這些大模型如果用這種數據訓練,結果會是啥樣……
最近,英國和加拿大的研究人員在arXiv上發表了一篇題目為《The Curse of Recursion: Training on Generated Data Makes Models Forget》的論文。
這種AI生成數據的“污染”會導致模型對現實的認知產生扭曲,未來通過抓取互聯網數據來訓練模型會變得更加困難。
論文作者,劍橋大學和愛丁堡大學安全工程教授Ross Anderson毫不避諱的直言:
對於虛假信息滿天飛的情況,Google Brain的高級研究科學家達芙妮· 伊波利托(Daphne Ippolito)表示:想在未來找到高質量且未被AI訓練的數據,將難上加難。
那個時候,我們可能將不得不面臨一個荒謬困境:人類創造了具有驚人能力的AI,而它卻塞滿了無聊愚蠢的信息。
如果AI被餵進的只是虛假的垃圾數據,我們又能期待它們創造出什麼樣的內容呢?
假如時間到那個時候,我們大概都會懷念過去,向那些真正的人類智慧致敬吧。
話雖如此,但也不全壞消息。比如部分內容平台已開始關注AI生成低劣內容的問題,並推出相關規定加以限制。
一些個AI公司也開始搞能鑑別AI生成內容的技術,以減少AI虛假、垃圾信息的爆炸。