概要
- テザーはQVACファブリック、BitNet、LoRAファインチューニング・フレームワークを公開し、AIインフラの分散化戦略を本格化させたと明らかにした。
- 今回の技術により、ノートPC、一般的なGPU、スマートフォンなどで数十億パラメータ規模のモデル学習が可能となり、メモリ使用量を最大70%削減する効率性を実現したと伝えた。
- テザーは、ローカルでのデータ処理と分散学習、連合学習(フェデレーテッドラーニング)の可能性を強調し、少数のクラウド事業者への依存度を下げるAI環境の構築が重要だと述べた。
期間別予測トレンドレポート



テザーは、一般消費者向けデバイスでも大規模な人工知能(AI)モデルを学習できる技術を公開し、AIインフラの分散化戦略を本格化させた。先に予告していたQVACプラットフォーム拡張の一環と受け止められる。
17日、テザーのブログによると、テザーはQVACファブリック(QVAC Fabric)を基盤とするBitNet向けのLoRAファインチューニング・フレームワークをリリースしたと明らかにした。
今回の技術は、マイクロソフトの1ビット大規模言語モデル(LLM)であるBitNetを対象に設計された。これまでNVIDIAベースの高性能サーバーやクラウドインフラが必要だったAIモデル学習を、一般消費者向けデバイスでも可能にした点が特徴だ。
テザーは、このフレームワークによりノートPC、一般的なGPU、スマートフォンなど多様な環境で、数十億パラメータ規模のモデル学習と推論が可能だと説明した。実際にサムスンのGalaxy S25やiPhone 16などのモバイル端末でも、数億〜数十億パラメータのモデルのファインチューニングが可能だとするテスト結果を公開した。
また、今回の技術はApple Silicon、AMD、Intelなど多様なチップセット環境をサポートし、従来比で最大70%以上のメモリ使用量削減など、効率性を大幅に改善したと明らかにした。これにより、BitNetモデルは既存の16ビットモデルに比べ、より少ないリソースでより大きなモデルを動作させられることが示された。
テザーは特に、今回のフレームワークがデータのローカル処理を可能にし、個人情報保護や分散学習環境の構築にも寄与し得ると強調した。集中型クラウドへの依存度を下げ、個人端末ベースの連合学習(フェデレーテッドラーニング)の実現可能性も示した。
パオロ・アルドイノ最高経営責任者(CEO)は「AIは社会構造を決定づける中核要素になる」とした上で、「少数のクラウド事業者に依存せず、誰もがアクセス可能なAI環境を作ることが重要だ」と述べた。
先にテザーは、QVACプラットフォームを通じてAI事業における重要な技術的ブレークスルーを公開すると明らかにしていた。今回の発表はその延長線上にあるとみられる。

Minseung Kang
minriver@bloomingbit.ioBlockchain journalist | Writer of Trade Now & Altcoin Now, must-read content for investors.

![「タカ派的据え置き?」…イラン戦争で判断が複雑化したFOMC[分析+]](https://media.bloomingbit.io/PROD/news/13cd35e7-eb6f-4cff-b93b-70a5c4d2a1de.webp?w=250)



