🔥 Gate Alpha 限時賞金活動第三期上線!
在 Alpha 區交易熱門代幣,瓜分 $30,000 獎池!
💰 獎勵規則:
1️⃣ 連續2日每日交易滿 128 USDT,即可參與共享 $20,000 美金盲盒獎勵
2️⃣ 累計買入 ≥1,024 USDT,交易量前100名可直領獎勵 100美金盲盒
⏰ 活動時間:8月29日 16:00 — 8月31日 16:00 (UTC+8)
👉 立即參與交易: https://www.gate.com/announcements/article/46841
#GateAlpha # #GateAlphaPoints # #onchain#
Altman不是「賈伯斯」,Ilya才是!
原文來源:數據猿
在OpenAI這兩天的宮鬥大戲中,有兩個關鍵人物,一個是原CEO Altman,一個是首席科學家Ilya。
狗血的劇情,反轉再反轉
根據目前了解的資訊,大致情況是這樣:
第一輪:
Ilya最先發難,主導董事會把 Altman給開除了,然後OpenAI的金主爸爸們(尤其是微軟)以及部分員工不幹了。
劇情反轉:
在多方壓力下, 又不斷傳出消息Altman可能會重新主導OpenAI,並且會重組董事會,其中最關鍵的就是Ilya可能會離開。
反轉再反轉:
然而,就在剛剛,這個劇情經歷了反轉之後,再次反轉。
據外媒The Information報導,Ilya Sutskever在三藩市周日晚上(日期:今天中午)告訴員工,Sam Altman不會重任CEO!此外,新的臨時CEO也不是Mira Murati,而是Emmett Shear(亞馬遜旗下遊戲流媒體平臺Twitch的聯合創始人)。
並且,Ilya 堅稱他與其他三名董事會成員堅持罷免Altman的決定,堅信這是捍衛公司使命的“唯一途徑”。 他說,Altman的行為和董事會的互動削弱了其監督公司AI開發的能力。
一切要從《OpenAI 憲章》說起
Ilya認為,他是為了捍衛公司使命,才罷免的Altman。 那麼,他所捍衛的「使命」是什麼呢?
應該說,無論是Altman還是Ilya,他們這次的矛盾應該都不是權利,更不是因為金錢,更多的原因應該是“道不同”。 他們對OpenAI應該怎麼來追求AGI,有不同的理解。
首先,我們要理解什麼是OpenAI,它成立的目的是什麼?
要搞清楚這個問題,《OpenAI 憲章》是一份最好的材料。 在這份憲章中,有幾句話很關鍵,可以清楚的知道這個組織為什麼成立。
在《OpenAI 憲章》中,明確說了,“我**們的首要信託責任是對人類的信託責任。 **我們預計需要調動大量資源來完成我們的使命,但我們將始終努力採取行動,盡量減少員工和利益相關者之間可能損害廣泛利益的利益衝突。 ”
也就是說,從最開始,OpenAI就以人類的利益為重,而不是以OpenAI的投資者、員工的利益為重,他們甚至從一開始就想到了,將來員工和投資者的利益可能與更廣泛的人類利益產生衝突。
在《OpenAI 憲章》中,還有這樣一句話,可以充分說明,安全的AGI遠比OpenAI本身的利益更重要,“我們擔心後期AGI 開發會成為一場競爭性競賽,而沒有時間採取足夠的安全預防措施。 因此,如果一個價值一致、具有安全意識的專案在我們之前接近構建AGI,我們承諾停止與該項目競爭並開始協助該專案。 ”
他們在意的是安全的AGI,OpenAI只是實現這個理想的工具,而不是理想本身。 為了AGI的理想,他們不介意為他人做嫁衣,停止OpenAI這個專案。
誰才是OpenAI的「賈伯斯」
很多人將Altman視為OpenAI的賈伯斯,認為他們都被自己創立的公司踢出局,然後再上演一出王者歸來。
然而,我們認為,如果要做一個類比,那OpenAI版的“約伯斯”應該是Ilya的,而不是Altman。 某種程度上,Altman更像是約翰·斯卡利(曾經是百世可樂副總裁,被賈伯斯的一句“想一輩子賣糖水,還是一起改變世界?”招募進蘋果公司,後來主導董事會把約伯斯踢出局)。
為什麼這麼說?
我們需要深入分析Ilya和Altman分別是什麼樣的人,以及他們在OpenAI中扮演怎樣的角色。
總體上,Ilya作為OpenAI的首席科學家,主導了OpenAI的技術路線。
馬斯克曾經在一個訪談節目中透露,Ilya的加入,是OpenAI發展歷程上的一個重大轉捩點。 應該說,OpenAI並不是一開始就找到了目前大模型這條道路,Ilya的加入,對於OpenAI今天的成功至關重要。
從Ilya自己參與的幾次訪談來看,也能明顯感覺到他身上濃濃的「技術男味道」,並且他關注底層的技術邏輯,他一直將實現安全的AGI作為最重要甚至是唯一的目標。
反觀Altman,他的作用更多在於融資和商業化方面。 也正是因為這個原因,他才得到投資者和部分員工的強力支援。 在投資者看來,投資不是為了投一群人虛無縹緲的理想,而是為了將來更高的收益。 要實現這個目標,Altman無疑是很好的人選。
除了在融資方面起到關鍵作用,Altman在力推的一件事情就是OpenAI的商業化。 前不久OpenAI開的那個震驚業界的發佈會,推出多項功能,本質上就是在為商業化鋪路。
**大部分人都認為,Ilya和Altman最大的分歧在於是否商業化。 但這只是看到了第一層,往更深層次去想,他們之間最大的分歧,其實是對什麼時候能實現AGI的看法不一樣。 **
需要注意的是,Altman的目標也是追求AGI,但是,在他看來,AGI還比較遙遠,足夠的錢是支撐這個團隊走向終局的必要基礎,因此融資和商業化是必要的。 先得養著這個團隊,然後再慢慢追求AGI。 如果在這個過程中,能讓自己和團隊掙到更多錢,那也未嘗不可。
**但在Ilya看來,AGI可能已經很近了。 **這在他不少發言中,都能看到這種緊迫感。
從邏輯上來看,如果AGI近在咫尺,那最緊迫的當然是這臨門一腳,並且要確保AGI是安全的,不反人類,這才是最關鍵的。 而不是將現在的半成品進行大規模商用,掙那「三瓜兩棗」。。 (在AGI面前,再多的錢都是微不足道的。 )
在Ilya看來,前面不遠處就是一堆金礦,就不要在腳邊這幾個金塊上浪費時間了。 而在Altman看來,要走到金礦還很遠,應該先在路邊撿一點金子,作為隊伍的「盤纏」。
**應該說,他們都是“好人”,都想更好、更安全的實現AGI。 但是,他們對於實現AGI的時間預估,可能存在差異,這導致了他們為了同樣一個目標,卻採取了截然不同的行動。 **
這才是Ilya與Altman漸行漸遠的根本原因。
怎樣的結果才是最好的?
以目前的情況來看,在Ilya與Altman的這場鬥陣中,Ilya勝出了,接下來他將主導OpenAI的發展方向(雖然CEO不是他)。 那麼,我們不禁要問,這樣的結果,對OpenAI是最好的選擇么,對於人類是更好的選擇嗎?
筆者認為,**如果要在Ilya與Altman之間選一個,Ilya是更好的人選。 **在他們二人之中,Ilya明顯更忠實於《OpenAI憲章》,即將對人類友好的AGI作為第一目標。 由他主導,在技術進展方面,OpenAI也許將更加激進,實現AGI的可能性也更高一點。
當然,更快實現AGI是否對人類是件好事,還不好說。 **雖然Ilya非常重視AGI的安全性,但直到現在,還沒有任何人有確定的辦法,來保證AGI是對人類友好的。 **
從整個生命的演進歷程來看,更高級的生命,取代低級生命,似乎是大勢所趨,還從來沒有一個特例。 那更高級的AGI,憑什麼就要向人類低頭,甘當人類的「保姆」呢?
我們捫心自問一下,假設地球上最開始的統治者是貓,而人類是貓研發出來的更高級生命,那人類願意世世代代都做貓的保姆么?活我們都幹了,就是為了給貓創造更好的生活,讓他們盡情享受“貓生”?
也許,人類感念於貓的造世之恩,會心甘情願照顧他們10年,甚至100年。 那1000年以後,一萬年以後呢?可以預見,人類遲早都會接過統治權,最多將貓作為寵物,而不是永遠將貓奉為主人。
而且,人類也別想著能永遠跟AGI平起平坐。 我們試想一下:你和一個搭檔一起做事,你比他聰明強大很多,幹的活最多,做的貢獻最大,但成果都得跟他平分,你願意么?我想大部分人類都不會願意,那憑什麼要求具有自主意識的AGI這樣做?
要知道,有自主意識的AGI,也是生命,也有感情,也有喜怒哀樂,也會權衡利弊得失。
很明顯,要讓AGI服務於人類,是不合邏輯的。 要實現AGI的安全可控,核心就是要解開這個看似不合邏輯的難題。 要找到一種方法,來讓AGI“甘願”作出犧牲。 要給他們帶上一個「緊箍咒」,而且要確保這個“緊箍咒”永遠都不被取下來。
要怎麼樣才能做到,現在沒有任何人有答案,Ilya沒有答案,就連他的老師,深度學習之父Geoffrey Hinton也沒有答案。 實際上,Hinton曾說,“我對自己的畢生工作,感到非常後悔。 ”
Hinton在採訪中表示,「我們幾乎已經讓學會計算機如何自我改進了,這很危險,我們必須認真考慮,如何控制它。 ”
很明顯,他的學生Ilya有同樣的危機感和緊迫感。 Ilya聲稱,他現在的首要任務“不是構建下一個GPT或DALL-E,而是找出如何阻止AI失控的方法”。 而Altman卻醉心於商業化,這是Ilya無法容忍的。
馬斯克,作為這場宮鬥大戲的看客,在20號早上發文稱,“Ilya是不追求權利的人,除非他覺得有必要,否則他不會採取如此激烈的行動。 我想,對即將到來的AGI失控的擔憂,甚至是恐懼,是他採取如此激烈行動的原因。
還有一件事
古語有雲,“不圖小利,必有大謀”。
很多故事的結尾,最大的反派,往往都全程表現得人畜無害,甚至悲天憫人。
也不排除這樣一種可能:Ilya的最終目標就是「造神」(某種意義上,AGI的力量可以媲美古今中外神話傳說中的神),而且他的多期訪談中,也提到過超級智慧。 如果AGI甚至超級智慧不可避免,那他可能想成為那個最先接觸“神”的人,如果他再找到某種方式“馴服”了AGI,那他將很快成為這個世界上最強大的人。
當然,Ilya也許現在還沒有那個想法,他現在也許只是單純的想成為人類的「盜火者」。。 但是,人都是會變的,尤其是在面臨巨大誘惑的時候。
《超驗駭客》這部電影中,科學家威爾卡斯特最開始是多麼的正義,他妻子為了給他續命,把他意識上傳,並融入到一個人工智慧體中。 故事的後來,威爾卡斯特在網路空間「重生」,並且快速進化,很快就可以掌控人類的金融網路,手指一揮,就可以往一個帳戶裡轉上百億美元。
後來,威爾卡斯特就徹底迷失了,背叛了人類,追求自身的無限強大,並消除人類對他帶來的威脅。
從目前透露的資訊來看,AGI真的不再是一個玩笑。 如果在幾十年內,人類真的有不小概率實現AGI,那這絕對是未來幾十年最重要的事情,比當初的核武器還要重要一百倍。
**不那麼聰明的物種控制比它自己更聰明的事物,是一場前所未有的挑戰。 **
深度學習之父Hinton很後悔自己所做的事情,他曾這樣安慰自己,“即使不是我,也會有別人。 “的確,AGI這個”潘朵拉“魔盒,遲早都會被人打開,即使一些人忍住了,另外一群人也會忍不住。
就像當初核武器問世的時候,幾乎所有人都能感知到它對人類的風險,但美國人會想“即使美國不研製核武器,德國、蘇聯人也會研製出來”,蘇聯人就想“美國人都有核武器了,我蘇聯肯定也要有。 ”
同樣的道理,在很多領域已經、正在或者即將上演。 比如,生物武器,雖然明面上大家都禁止了,但肯定有不少人在偷偷摸摸的做。 而其他人會“安慰”自己,“即使我不做,別人也會做。 ”
跟這些所有風險比起來,AGI的風險則要大得多。 因為無論是核武器、生物武器還是化學武器,他們都沒有意識,最終還是掌握在人類手裡,無非是這群人還是那群人的區別。 但是,AGI一旦實現了,那很多事情就不再是人類可以做主的了。
這個問題太重要了,而且從現在的資訊來看,也已經很緊急了。 跟Altman比起來,Ilya至少表現得更加重視、更加著急,所以在OpenAI的這場宮鬥大戲中,我站Ilya。