AI 新智界丨每日必讀:英偉達 B100 AI 晶片將於明年推出;阿裡巴巴智慧資訊事業群發佈誇克大模型

**摘要:**阿裡巴巴智慧資訊事業群正式發佈全棧自研、千億級參數誇克大模型,將應用於通用搜索、醫療健康、教育學習、職場辦公等場景。 英偉達日前透露,2024 年推出的 Blackwell 架構 B100 GPU,在 GPT-3 175B 推理性能標竿方面擊敗 A100、H100 及 H200,其 AI 表現性能將是 Hopper 架構 H200 GPU 兩倍以上。

圖片來源:由無界 AI生成

熱點資訊:

英偉達:B100 將於明年推出,AI 表現性能是 H200 兩倍以上

據《科創板日報》11 月 14 日報導,英偉達日前透露,2024 年推出的 Blackwell 架構 B100 GPU,在 GPT-3 175B 推理性能標竿方面擊敗 A100、H100 及 H200,其 AI 表現性能將是 Hopper 架構 H200 GPU 兩倍以上。 市場預計,英偉達將委託台積電以 3nm 製程代工 Blackwell GPU,英偉達計畫將生產時間點提前至 2024 年 Q2。 Blackwell GPU 將是英偉達第一款運用 chiplet 設計的 HPC/AI 加速器。

阿裡巴巴智慧資訊事業群發佈千億級參數誇克大模型

據財聯社 11 月 14 日報導,阿裡巴巴智慧資訊事業群正式發佈全棧自研、千億級參數誇克大模型,將應用於通用搜索、醫療健康、教育學習、職場辦公等場景,誇克 App 亦將藉助這一大模型全面升級。

OpenAI CEO:下一代 AI 模型 GPT-5 已在訓練中,需要更多數據

據 AI 新智慧 11 月 14 日報導,OpenAI CEO Sam Altman 近期在接受 FT 採訪時,透露了 OpenAI 更多下一步的規劃。 Altman 表示,公司正在開發下一代 AI 模型 GPT-5。 但他沒有承諾發佈時程表。 Altman 稱這將需要更多數據來訓練,數據將來自互聯網上公開可用的數據集以及公司的專有數據。 OpenAI 最近發出了徵集大規模數據集的呼籲,特別是那些“今天在互聯網上尚未公開輕鬆獲取”的數據集,尤其是長篇寫作或任何格式的對話。

Altman 還表示,為了訓練其模型,OpenAI 和大多數其他大型 AI 公司一樣使用 Nvidia 的高級 H100 晶片。 他提到,由於 Nvidia 的晶片供應短缺,今年一直存在“嚴重的緊張局勢”。 然而,隨著谷歌、微軟、AMD 和英特爾等其他公司準備發佈競爭對手的 AI 晶片,對 Nvidia 的依賴可能不會持續太久。

此外,儘管 OpenAI 取得了消費者成功,但 Altman 表示,公司尋求向構建人工通用智慧方向取得進展。 他認為,大型語言模型(LLM),即支撐ChatGPT的模型,是“構建 AGI 的核心部分之一,但在其上還會有很多其他部分”。 他還強調了語言作為信息壓縮的重要性,這是他認為像谷歌 DeepMind 這樣的公司忽視的一個因素。

谷歌聯合 UC 伯克利推出全新生成式 AI 方法“冪等生成網路”,可單步生成逼真圖像

據 IT 之家 11 月 14 日報導,谷歌近日攜手加州大學伯克利分校(UC Berkeley),研發出了可取代擴散模型(Diffusion Models)的全新生成式 AI 方法“冪等生成網路(IGN)”。

包括生成對抗網路(GAN)、擴散模型(Diffusion Models)和今年 3 月 OpenAI 發佈的一致性模型(Consistency Models)在內,當前主流生成式 AI 模型都是隨機噪點、草圖或者低解析度或其他損壞的圖像等輸入,映射到與給定目標數據分佈相對應的輸出(通常是自然圖像)來生成圖像。 以擴散模型為例,在訓練期間學習目標數據分佈,然後通過多個步驟執行“去噪”處理。

谷歌研究團隊提出了名為冪等生成網路(IGN)的全新生成模型,從任何形式的輸入中生成合適的圖像,理想情況下只需一步即可完成。 該模型可以想像為一種「全域投影儀」,將任何輸入數據投射到目標數據分佈上,和現有其它模型演算法不同,不會限於特定的輸入。

李開復旗下 AI 公司“零一萬物”開源 Yi 大模型被指抄襲 LLaMA

據 IT 之家 11 月 14 日消息,創新工廠董事長兼 CEO 李開復於今年創辦了 AI 大模型創業公司“零一萬物”,該公司已推出 Yi-34 B 和 Yi-6 B 兩個開源大模型,號稱對學術研究完全開放,同步開放免費商用申請。 然而在 Yi-34 B 的 Hugging Face 開源主頁上,開發者 ehartford 質疑稱該模型使用了 Meta LLaMA 的架構,只對兩個張量(Tensor)名稱進行了修改,分別為 input_layernorm 和 post_attention_layernorm。

此外,網上今日流傳著一張原阿裡首席 AI 科學家賈揚清的朋友圈,該內容稱「某國內大廠新模型 exactly 就是 LLaMA 的架構,但是為了表示不一樣,把代碼裡面的名學從 LLaMA 改成了他們的名字,然後換了幾個變數名」。。

零一萬物回應爭議:研發的大模型基於 GPT 成熟結構,對模型和訓練的理解做了大量工作

據《科創板日報》11 月 14 日報導,李開復旗下 AI 企業零一萬物開源大模型被指責完全使用 LLaMA 的架構,只對兩個張量(Tensor)名稱進行修改。 對此,零一萬物表示:GPT 是一個業內公認的成熟架構,Llama 在 GPT 上做了總結。 零一萬物研發大模型的結構設計基於 GPT 成熟結構,借鑒了行業頂尖水平的公開成果,由於大模型技術發展還在非常初期,與行業主流保持一致的結構,更有利於整體的適配與未來的反覆運算。 同時零一萬物團隊對模型和訓練的理解做了大量工作,也在持續探索模型結構層面本質上的突破。

妙鴨相機產品負責人張月光離職,網紅 AI 應用熱度降溫

據 Tech 星球 11 月 13 日報導,阿裡大文娛旗下的妙鴨相機產品負責人張月光已離職,他曾參與支付寶春節“集五福”和“咻一咻”專案的策劃,並在位元組、阿裡等公司工作過。

妙鴨相機是一款在 C 端層面出圈的 AIGC 產品,只要上傳 20 張以上包含人臉的照片,再支付 9.9 元,然後選擇喜歡的範本和造型後,就能夠製作出自己的“數位分身”,從而獲得寫真作品。 妙鴨相機在一段時間內「霸榜」應用產品榜單,但後續排名一路下滑。 截至 11 月 13 日,七麥最新數據顯示,妙鴨相機 iOS“社交”榜單排名 64 位。 目前,市場對於 AIGC 產品如何形成長線需求,已成為了市場層面的難題。

AI 初創公司 Silo AI 面向歐洲推出開源語言模型“Poro”,涵蓋歐盟 24 種語言

據 VentureBeat 報導,總部位於芬蘭赫爾辛基的人工智慧初創公司 Silo AI 本周發佈了新開源大型語言模型“ Poro” Poro 是計劃中的首個開源模型,旨在最終涵蓋歐盟所有 24 種官方語言。 這些模型由 Silo AI 的 SiloGen 生成人工智慧部門和圖爾庫大學的 TurkuNLP 研究小組共同開發。

Poro 34B 模型擁有 342 億參數,以芬蘭語中“馴鹿(reindeer)”一詞命名。 它是在 21 萬億個 token 多語言數據集的一個分區上進行訓練的,這些數據集涵蓋英語、芬蘭語以及 Python 和 Java 等程式設計語言。

Silo AI 首席執行官 Peter Sarlin 表示,Poro 的設計目的是解決為歐洲低資源語言(如芬蘭語)訓練性能卓越的核心挑戰。 通過利用跨語言訓練方法,模型能夠利用來自高資源語言(如英語)的數據。

樂天集團與 OpenAI 合作推出 Rakuten AI for Business 平臺

AI 新智界訊,11 月 14 日,樂天集團宣佈與 OpenAI 達成戰略合作,並推出全新人工智慧平臺 Rakuten AI for Business。 據悉,該平臺支持多種基本業務功能,包括行銷、銷售、客戶支援、運營、戰略規劃和工程,目前僅通過邀請提供,計劃在2024年及以後擴大服務範圍。

研究:AI 公司面臨訓練數據枯竭危機,高質量數據將在 2026 年前耗盡

據站長之家 11 月 14 日報導,澳大利亞麥考瑞大學的資訊技術法學教授 Rita Matulionyte 在《對話》雜誌的一篇文章中指出,AI 研究人員近一年來一直在敲響數據供應告急的警鐘。 根據去年 Epoch AI 人工智慧預測組織的一項研究,AI 公司可能在 2026 年前耗盡高品質文本訓練數據,而低品質文本和圖像數據的枯竭時間可能介於 2030 年至 2060 年之間。

對於數據饑渴的 AI 公司來說,使用由 AI 模型生成的合成數據進行訓練可能並非可行的解決方案。 研究表明,訓練 AI 模型使用 AI 生成的內容可能導致模型內在的畸形效應,使輸出變得混亂和怪異。 面對這一潛在問題,除非出現大規模人類內容農場,否則解決方法可能在於建立數據合作夥伴關係。 這意味著擁有豐富高質量數據的公司或機構與 AI 公司達成協定,交換數據以換取資金。

越南科技獨角獸企業 VNG 計劃推出類似 ChatGPT 的人工智慧服務

據日經亞洲 11 月 14 日報導,越南遊戲初創公司 VNG 計劃推出類似 ChatGPT 的人工智慧服務,專為越南語使用者量身定製。 據悉,這家由騰訊和阿裡巴巴旗下螞蟻金服集團支援的科技獨角獸公司已經擁有一款在其本土市場比 Facebook 更受歡迎的聊天應用,且最近又增加了翻譯功能。 VNG 表示,下一步將增加人工智慧生成功能,讓使用者可以完成從撰寫電子郵件到查找查詢答案的所有操作。

消息稱 OpenAI 正試圖以 1000 萬美元的薪酬待遇挖走谷歌的人工智慧人才

據 IT 之家援引 The Information 報導,OpenAI 正在向谷歌發起人才爭奪戰,該公司正通過高達數百萬美元的薪酬包,以及頂尖的技術資源,如用於運行測試的人工智慧加速器晶元,來吸引谷歌的一些最優秀的研究人員。

AIGC薦讀:

《最強大模型訓練晶片H200發佈!141G大記憶體,AI推理最高提升90%,還相容H100》

英偉達老黃,帶著新一代GPU晶元H200再次炸場。 官網毫不客氣就直說了,“世界最強GPU,專為AI和超算打造”。 聽說所有AI公司都抱怨記憶體不夠?這回直接141GB大記憶體,與H100的80GB相比直接提升76%。 作為首款搭載HBM3e記憶體的GPU,記憶體頻寬也從3.35TB/s提升至4.8TB/s,提升43%。 對於AI來說意味著什麼?

《馬斯克的 ChatGPT「Grok」,用起來到底怎麼樣?》

目前,Grok 還處於早期測試階段,只對少量美國使用者開放測試,想要參與的使用者也可以通過 xAI 官網進行申請,但不久的將來,X 平臺所有的「高級訂閱使用者」(X Premium+)都可以使用 Grok。 那麼與 ChatGPT 等 AI 助手相比,Grok 有什麼特別之處 馬斯克在 AI 領域又在下什麼大棋?

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)