ジョン・ホアンはALL-INポッドキャストで分散型AIトレーニングについて語り、TAOは大量に盛り上げました


予想してみてください、@0g_labsはすでにそれを証明しました。2025年6月、(ほぼ1年前)にarXivでAIモデルのトレーニングに関するDiLoCoX論文を公開
彼らは20台のコンピュータとわずか1 Gbpsのインターネットを使って、1070億パラメータのモデルをトレーニングしました
Bittensor Covenant 72B((単一のトレーニング済みモデル)と比較して、DiLoCoXは任意のモデルをトレーニングでき、通信効率を357倍向上させます
それにはフルスタックが備わっています:計算、ストレージ、DA、チェーン。これら4つの層すべてを持つプロジェクトはありません
チームは4月1日に開催されるEthCCカンヌで分散型AIについて語る予定です。楽しみにしています🙌
TAO-5.08%
0G-2.77%
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン