グラディアント、分散型強化学習プラットフォーム「Echo-2」を投入
概要
- グラディアントは、分散型強化学習フレームワーク Echo-2 をリリースし、大規模言語モデルの推論中心の学習コストを従来比 10分の1 水準へ引き下げることを目標にすると明らかにした。
- Echo-2 は30B級モデルのポストトレーニングを商用クラウド比で約 10分の1のコスト で実行し、コストの民主化(cost democratization) を通じて開発者・スタートアップまで大規模モデル学習を拡大するとした。
- Echo-2は世界中の遊休 GPU の並列処理と ラティカ(Lattica) のP2Pプロトコルを活用し、学習コストを 4490米ドルから425米ドル に引き下げ、金融的責任が伴う領域で性能検証を終えたと発表した。
期間別予測トレンドレポート



人工知能(AI)インフラ企業のグラディアント(Gradient)は12日(現地時間)、分散型強化学習(RL)フレームワーク「Echo-2」をリリースしたと発表した。Echo-2は、大規模言語モデルの推論中心の学習コストを従来比で10分の1水準まで引き下げることを目標としている。
グラディアントは、AI産業がデータ拡大主導の「スケーリング則」の限界に到達したとの見方を示した。単により多くのテキストとGPUを投入する手法だけではモデルの知能向上が鈍化しており、モデルが自ら論理を検証し試行錯誤を通じて答えを見つける「推論スケーリング」が中核的な競争力として台頭しているという。
Echo-2はこうした転換期を見据えて設計された分散型強化学習インフラで、30B(300億パラメータ)級モデルのポストトレーニングを、既存の商用クラウド環境比で約10分の1のコストで実行できる。これは単なるコスト削減にとどまらず、大規模モデル学習をビッグテックの専有領域から開発者・スタートアップへ広げる「コストの民主化(cost democratization)」を意味する。
従来のクラウドでは約4490米ドルを要していた学習セッションは、Echo-2環境では約425米ドル水準まで低下し、学習時間も約9.5時間に短縮された。強化学習計算の約80%を占めるサンプリング工程を、世界中の遊休GPUで並列処理したことが鍵となった。
技術面では、学習者とアクターを分離し、モデルバージョン間のタイムラグを厳格に制御する「有界スタレネス(Bounded Staleness)」に基づく非同期強化学習アーキテクチャを採用した。これにより、分散環境でも学習の安定性を維持できるよう設計した。
さらに、60GB超の大規模モデル重みを数百ノードへ数分以内に配布するP2Pプロトコル「ラティカ(Lattica)」を適用した。ラティカは中央サーバーへの依存を下げた「分散型の重み伝播(weight propagation)」構造で、大規模分散学習のボトルネックを最小化する役割を担う。
グラディアントが公開した研究によると、分散RTX 5090 GPU環境でQwen3-8Bモデルを学習した場合、集中型のA100データセンターと比べてコストが36%低い一方、性能低下なしに安定した結果を得たという。
実運用の適用事例も広がっている。Echo-2は、数学オリンピック級の高難度推論、スマートコントラクトのセキュリティ監査、自律型オンチェーンエージェントなど、金融的責任が伴う領域で性能検証を終えた。
グラディアントの関係者は「人工知能をAPIとして賃借するモデルから脱し、企業がモデル重みを直接保有し進化させる構造へ転換すべきだ」とした上で、「Echo-2はインターネット規模で稼働可能な推論インフラを誰もが構築できるようにする基盤になる」と述べた。

Bloomingbit Newsroom
news@bloomingbit.ioFor news reports, news@bloomingbit.io





