楽天グループ、OpenAIと提携し、Rakuten AI for Businessプラットフォームを提供開始
楽天グループは11月14日、OpenAIとの戦略的提携を発表し、新たな人工知能プラットフォーム「Rakuten AI for Business」の提供を開始しました。 このプラットフォームは、マーケティング、セールス、カスタマーサポート、オペレーション、戦略計画、エンジニアリングなど、さまざまな重要なビジネス機能をサポートしており、現在は招待制で提供され、2024年以降にサービスの範囲を拡大する計画であると報告されています。
AI New Intelligence Circle丨Daily Must Read:Nvidia B100 AIチップが来年発売、アリババインテリジェント情報ビジネスグループがクォークラージモデルをリリース
概要:アリババインテリジェント情報ビジネスグループは、一般検索、医療と健康、教育と学習、職場のオフィス、その他のシナリオに適用される、フルスタックの自社開発の1000億レベルのパラメータクォークラークラージモデルを正式にリリースしました。 Nvidiaは最近、2024年に発売されるBlackwellアーキテクチャのB100 GPUが、GPT-3 175B推論性能ベンチマークの点でA100、H100、H200を凌駕し、そのAI性能性能がHopperアーキテクチャのH200 GPUの2倍以上になることを明らかにしました。
ホットニュース:
NVIDIA: B100 は来年発売予定、AI パフォーマンスは H200 の 2 倍以上
11月14日の「Science and Technology Innovation Board Daily」の報道によると、Nvidiaは最近、2024年に発売されるBlackwellアーキテクチャのB100 GPUがGPT-3 175B推論性能ベンチマークの点でA100、H100、H200を上回り、そのAI性能性能がHopperアーキテクチャのH200 GPUの2倍以上になることを明らかにしました。 市場では、NvidiaがTSMCを3nmプロセスのBlackwell GPUのOEMに委託すると予想されており、Nvidiaは生産時期を2024年第2四半期に前倒しする予定です。 Blackwell GPUは、チップレットで設計されたNVIDIA初のHPC/AIアクセラレータです。
アリババ・インテリジェント・インフォメーション・ビジネス・グループが1,000億パラメータのクォーク大規模モデルをリリース
11月14日の金融AP通信の報道によると、アリババのインテリジェント情報ビジネスグループは、フルスタックの自社開発、1000億レベルのパラメータクォーク大規模モデルを正式にリリースし、一般的な検索、医療、健康、教育と学習、職場のオフィス、その他のシナリオに適用され、Quarkアプリもこの大規模モデルの助けを借りて完全にアップグレードされます。
OpenAI CEO: 次世代 AI モデル GPT-5 はすでにトレーニング中であり、より多くのデータが必要です
11月14日のAI New Intelligenceのレポートによると、OpenAIのCEOであるSam Altman氏は最近、FTとのインタビューでOpenAIの次のステップについてさらに明らかにしました。 アルトマン氏によると、同社は次世代のAIモデル「GPT-5」を開発しているという。 しかし、彼はスケジュールを公表することを約束しませんでした。 アルトマン氏によると、トレーニングにはより多くのデータが必要で、そのデータはインターネット上で公開されているデータセットや、同社独自のデータから得られるという。 OpenAIは最近、大規模なデータセット、特に「今日のインターネット上で公開されておらず、簡単にアクセスできない」データセット、特にあらゆる形式の長文や会話を呼びかけました。
Altman氏はまた、OpenAIは、他のほとんどの大手AI企業と同様に、モデルのトレーニングにNvidiaの高度なH100チップを使用していると述べました。 同氏は、今年はエヌビディアからのチップ不足により「深刻な緊張」が続いていると述べた。 しかし、Google、Microsoft、AMD、Intelなどの他の企業がライバルのAIチップをリリースする準備をしているため、Nvidiaへの依存は長くは続かない可能性があります。
さらに、OpenAIの消費者向け成功にもかかわらず、Altman氏は、同社は汎用人工知能の構築に向けて前進しようとしていると述べた。 彼は、ChatGPTを支えるモデルである大規模言語モデル(LLM)は、「AGIを構築するための中核的な部分の1つであるが、その上には他にも多くの部分がある」と主張しています。 彼はまた、Google DeepMindのような企業が見落としていると考えている情報圧縮としての言語の重要性を強調しました。
Google とカリフォルニア大学バークレー校が、フォトリアリスティックな画像をワンステップで生成できる新しいジェネレーティブ AI アプローチ「べき等ジェネレーティブ ネットワーク」を開始
11月14日のIT Houseのレポートによると、Googleは最近、カリフォルニア大学バークレー校(UC Berkeley)と提携し、拡散モデルを置き換えることができる「べき等生成ネットワーク(IGN)」と呼ばれる新しい生成AI手法を開発しました。
OpenAIが今年3月にリリースした敵対的生成ネットワーク(GAN)、拡散モデル、一貫性モデルなど、現在主流となっているジェネレーティブAIモデルは、ランダムノイズ、スケッチ、低解像度などの破損した画像などの入力で生成され、特定のターゲットデータ分布に対応する出力(通常は自然画像)にマッピングされます。 拡散モデルの場合、学習中に対象データの分布を学習し、複数のステップで「ノイズ除去」を行います。
Googleの研究チームは、冪等生成ネットワーク(IGN)と呼ばれる新しい生成モデルを考案し、あらゆる形式の入力から、理想的には1つのステップで適切な画像を生成しました。 このモデルは、他の既存のモデルアルゴリズムとは異なり、特定の入力に限定されず、任意の入力データをターゲットデータ分布に投影する一種の「グローバルプロジェクター」と考えることができます。
Kai-Fu Lee氏のAI企業「Zero One Everything」オープンソースのYi大規模モデルがLLaMAの盗用で告発
11月14日のIT Homeによると、Sinovation Worksの会長兼CEOであるKai-Fu Lee氏は、今年、AI大規模モデルのスタートアップ企業「Zero One Everything」を設立し、学術研究と無料の商用アプリケーションを同時に完全にオープンにすると主張して、Yi-34 BとYi-6 Bの2つのオープンソースの大規模モデルを発売しました。 しかし、Yi-34 Bのオープンソースホームページ「Hugging Face」で、開発者のehartford氏は、このモデルがMeta LLaMAのアーキテクチャを使用しており、input_layernormとpost_attention_layernormの2つのテンソル名のみが変更されていることに疑問を呈しています。
また、アリババの元チーフAIサイエンティストであるJia Yangqing氏の友人の輪が今日インターネット上で出回っており、「国内の大手メーカーの新しいモデルはまさにLLaMAのアーキテクチャであるが、違いを表すために、コード内の命名法をLLaMAから彼らの名前に変更し、いくつかの変数の名前を変更した」と述べています。
論争に対応するゼロワンシング:開発された大規模モデルはGPTの成熟した構造に基づいており、モデルの理解とトレーニングに多くの作業が行われてきました
11月14日の科学技術イノベーション委員会日報の報道によると、Kai-Fu Lee氏のAI企業であるZero One Everythingオープンソースモデルは、LLaMAアーキテクチャを完全に使用し、2つのテンソルの名前のみを変更したとして非難されました。 この点に関して、Zero One Everythingは次のように述べています。 GPTは業界で認められている成熟したアーキテクチャであり、LlamaはそれをGPTにまとめました。 R&Dモデルの構造設計は、GPTの成熟した構造に基づいており、大規模モデル技術の開発はまだ非常に初期段階にあるため、業界の主流と一致する構造は、全体的な適応と将来の反復をより助長します。 同時に、0100000 Worldチームは、モデルの理解とトレーニングに多くの作業を行い、モデル構造レベルでの本質的なブレークスルーを探求し続けています。
Miao Yaカメラの製品責任者であるZhang Yueguangが辞任し、インターネット有名人のAIアプリケーションの人気が冷めました
11月13日のTech Planetの報道によると、Ali Da Entertainment傘下のMiao Yaカメラ製品の責任者であるZhang Yueguang氏は退任し、Alipayの春節「Jiwufu」と「Xiuyixi」プロジェクトの企画に参加し、Byte、Aliなどの企業で働いてきました。
Miao Yaカメラは、Cエンドレベルで円から外れているAIGC製品であり、顔を含む20枚以上の写真をアップロードし、9.9元を支払い、好きなテンプレートと形状を選択する限り、独自の「デジタルクローン」を作成して、写真の作品を得ることができます。 ミャオ・ヤー・カメラは、一時期、アプリケーション製品のリストを「支配」していましたが、その後のランキングはずっと下がっていました。 11月13日現在、Qimaiの最新データによると、Miao Ya CameraのiOSの「ソーシャル」リストは64位にランクされている。 現在、AIGC製品に対する長期的な需要をいかに形成するかが、市場レベルでは難しい課題となっています。
AIスタートアップのSilo AIが、EUの24言語をカバーするヨーロッパ向けのオープンソース言語モデル「Poro」を発表
VentureBeatが報じたところでは、フィンランドのヘルシンキに拠点を置く人工知能スタートアップのSilo AIは今週、ヨーロッパ言語の多言語AI機能を強化することを目的とした新しいオープンソースの大規模言語モデル「Poro」をリリースした。 Poroは、最終的に欧州連合の24の公用語すべてをカバーする計画の最初のオープンソースモデルです。 このモデルは、Silo AIのSiloGen Generative AI Unitとトゥルク大学のTurkuNLP研究グループによって開発されました。
342億個のパラメータを持つPoro 34Bモデルは、フィンランド語で「トナカイ」を意味する言葉にちなんで名付けられました。 これは、英語、フィンランド語、およびPythonやJavaなどのプログラミング言語にまたがる21兆のトークン多言語データセットのパーティションでトレーニングされました。
Silo AIのCEOであるPeter Sarlin氏は、Poroはフィンランド語など、ヨーロッパのリソースの少ない言語の優れたパフォーマンスでトレーニングするという中核的な課題を解決するように設計されていると述べています。 クロス言語トレーニング手法を活用することで、モデルは英語などのリソースの多い言語からのデータを活用できます。
楽天グループ、OpenAIと提携し、Rakuten AI for Businessプラットフォームを提供開始
楽天グループは11月14日、OpenAIとの戦略的提携を発表し、新たな人工知能プラットフォーム「Rakuten AI for Business」の提供を開始しました。 このプラットフォームは、マーケティング、セールス、カスタマーサポート、オペレーション、戦略計画、エンジニアリングなど、さまざまな重要なビジネス機能をサポートしており、現在は招待制で提供され、2024年以降にサービスの範囲を拡大する計画であると報告されています。
調査:AI企業はトレーニングデータ枯渇の危機に直面し、高品質のデータは2026年までに枯渇する
オーストラリアのマッコーリー大学で情報技術法を教えるリタ・マトゥリオニテ教授は、11月14日にウェブマスターズ・ハウスが報じたように、AI研究者は1年近く前からデータ供給不足に警鐘を鳴らしてきたと、The Conversation誌の記事で指摘しています。 エポックAIの人工知能予測グループが昨年行った調査によると、AI企業は2026年までに高品質のテキストトレーニングデータを使い果たす可能性があり、低品質のテキストと画像データは2030年から2060年の間に枯渇する可能性があります。
データに飢えたAI企業にとって、AIモデルによって生成された合成データを使用したトレーニングは、実行可能なソリューションではない可能性があります。 研究によると、AIが生成したコンテンツを使用するようにAIモデルをトレーニングすると、モデルに固有の変形効果が発生し、出力が混乱し、奇妙になる可能性があることが示されています。 この潜在的な問題に直面した場合、大規模なヒューマンコンテンツファームがない限り、解決策はデータパートナーシップにあるかもしれません。 これは、質の高いデータを豊富に持つ企業や機関が、AI企業と契約を結び、金銭と引き換えにデータを交換することを意味します。
ベトナムのテックユニコーンVNGがChatGPTライクなAIサービスの開始を計画
11月14日にNikkei Asiaが報じたように、ベトナムのゲームスタートアップVNGは、ベトナム語を話すユーザーに合わせたChatGPTのようなAIサービスを開始する予定です。 テンセント(Tencent)とアリババ傘下のアント・フィナンシャル・グループ(Ant Financial Group)が支援するテック系ユニコーンは、すでに国内市場でFacebookよりも人気のあるチャットアプリを持っており、最近では翻訳機能も追加した。 VNGによると、次のステップは、ユーザーがメールの作成から質問への回答の検索まで、あらゆることを行えるようにするAI生成機能を追加することです。
情報筋によると、OpenAIは1000万ドルの報酬パッケージでGoogleのAI人材を引き抜こうとしている
The Informationを引用して、OpenAIはGoogleと人材争奪戦を繰り広げており、Googleは数百万ドルの報酬パッケージや、テストを実行するためのAIアクセラレータチップなどの一流の技術リソースでGoogleの優秀な研究者を惹きつけている。
AIGC推奨読書:
「最強のモデルトレーニングチップH200をリリース!141G大容量メモリ、最大90%のAI推論、H100にも対応」
Nvidia Lao Huang は、新世代の GPU チップH200 で再び爆発的に成長しました。 公式サイトには、「AIとスーパーコンピューティングのために構築された世界で最も強力なGPU」とさりげなく書かれています。 AI企業はどれもメモリ不足に不満を漏らしていると聞きましたか? 今回、大容量メモリは直接141GBで、H100の80GBと比較して直接76%増加しています。 HBM3eメモリを搭載した最初のGPUとして、メモリ帯域幅も3.35TB/sから4.8TB/sに増加し、43%増加しました。 AIにとっての意味とは?
**「マスク氏のChatGPT「Grok」、どのように機能しますか?
現在、Grokはまだ初期ベータ版であり、米国では少数のユーザーのみが利用でき、参加を希望する人はxAIのWebサイトからも申し込むことができますが、近い将来、Xプラットフォーム上のすべての「X Premium+」ユーザーがGrokを利用できるようになります。 では、ChatGPT のような AI アシスタントと比較して、Grok の何がそんなに特別なのでしょうか?