従来の大規模言語モデル(LLM)トレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、トレーニング1回のコストは数百万ドルに達することが一般的です。一方、SLM(Specialized Language Model)は、再利用可能なベースモデルの軽量微調整のパラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質専門データとLoRAなどの技術を組み合わせ、特定の分野知識を備えた専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
いくつかのより基盤的で、データ主権と「AI Agents on BOS」アーキテクチャを主打とした汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築により重点を置いています。モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することに努めています。それはWeb3の世界におけるモデルインセンティブのインフラストラクチャであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの使用課金、Infuraスタイルのチェーン上の組み合わせ可能なインターフェースを組み合わせ、「モデルは資産」という実現の道筋を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
OpenLedger:データ駆動型のエージェント経済インフラを構築する
OpenLedgerデプス研究報告:データ駆動型、モデルコンポーザブルなエージェント経済の構築
一、引言 | Crypto AIのモデルレイヤーのジャンプ
データ、モデルと算力はAIインフラストラクチャの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)の類似性から、どれも欠かすことができません。従来のAI業界のインフラストラクチャの進化パスに似て、Crypto AI分野も同様の段階を経てきました。2024年初頭、市場は一時的に分散型GPUプロジェクトによって主導され、一般的に「算力を競う」粗放な成長ロジックを強調していました。しかし、2025年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AIが基盤資源の競争から、より持続可能で応用価値のある中層構築へと移行していることを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)トレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、トレーニング1回のコストは数百万ドルに達することが一般的です。一方、SLM(Specialized Language Model)は、再利用可能なベースモデルの軽量微調整のパラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質専門データとLoRAなどの技術を組み合わせ、特定の分野知識を備えた専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させます。
注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムによる動的ルーティング、LoRAモジュールのホットプラグ、RAG(検索強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールにより専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。
Crypto AIのモデル層における価値と境界
Crypto AIプロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は、
しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは依然として特化した言語モデル(SLM)を微調整し、Web3の検証性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に体現されています:
AIモデルタイプ分類とブロックチェーンの適用性分析
ここから、モデル型Crypto AIプロジェクトの実現可能なポイントは、主に小型SLMの軽量化の微調整、RAGアーキテクチャのオンチェーンデータの接続と検証、そしてEdgeモデルのローカル展開とインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AIの"インターフェース層"の差別化された価値を形成することができます。
データとモデルに基づくブロックチェーンAIチェーンは、各データとモデルの貢献元を明確かつ改ざん不可能な形でオンチェーン記録することができ、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。同時に、スマートコントラクトのメカニズムを通じて、データやモデルが呼び出されると自動的に報酬分配がトリガーされ、AIの行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブ体系を構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルのパフォーマンスを評価したり、ルールの策定や反復に参加したりして、分散型ガバナンス構造を改善できます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン
OpenLedgerは現在の市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。 "Payable AI"の概念を初めて提唱し、公平で透明かつコンポーザブルなAI実行環境を構築することを目指しています。データ貢献者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの収益を得るようにします。
OpenLedgerは"データ提供"から"モデルデプロイ"、さらには"呼び出し分配"までの全チェーンのクローズドループを提供しており、そのコアモジュールには以下が含まれます:
上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「スマートエコノミーインフラ」を構築し、AIバリューチェーンのオンチェーン化を推進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。
いくつかのより基盤的で、データ主権と「AI Agents on BOS」アーキテクチャを主打とした汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築により重点を置いています。モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することに努めています。それはWeb3の世界におけるモデルインセンティブのインフラストラクチャであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの使用課金、Infuraスタイルのチェーン上の組み合わせ可能なインターフェースを組み合わせ、「モデルは資産」という実現の道筋を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedgerのコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactoryはOpenLedgerエコシステムの下にある大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは完全にグラフィカルなインターフェース操作を提供し、コマンドラインツールやAPI統合は不要です。ユーザーはOpenLedger上で完了したデータセットに基づいてモデルを微調整できます。データの権限付与、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:
Model Factoryシステムアーキテクチャは、6つの主要モジュールを含み、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAGトレーサビリティを通じて、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
ModelFactoryが現在サポートしている大規模言語モデルの能力の概要は以下の通りです:
OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていないが、その戦略は時代遅れではなく、チェーン上のデプロイメントの現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいた"実用優先"の構成がなされている。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ提供者とモデル開発者の権利を確保しています。低いハードル、収益化可能性、そして組み合わせ可能性という利点を持ち、従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
3.2 OpenLoRA、微調整モデルのオンチェーンアセット化
LoRA(Low-Rank Adaptation)は、効率的なパラメータ微調整方法であり、事前学習された大規模モデルに「低秩行列」を挿入することで新しいタスクを学ぶことができ、元のモデルのパラメータを変更することなく、トレーニングコストとストレージの要件を大幅に削減します。従来の大規模言語モデル(例えばLLaMA、GPT-3)は、通常数十億から千億のパラメータを持っています。それらを特定のタスク(法律質問応答や医療相談など)に使用するためには、微調整(fine-tuning)が必要です。LoRAの核心的な戦略は、「元の大規模モデルのパラメータを固定し、新しく挿入したパラメータ行列のみをトレーニングすること」です。これにより、パラメータ効率が高く、トレーニングが迅速で、展開が柔軟であり、現在のWeb3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法となっています。
OpenLoRAはOpenLedgerが構築した、複数モデルの展開とリソース共有のために特別に設計された軽量推論フレームワークです。これの核心的な目標は、現在のAIモデル展開において一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、"可支払AI"(Payable AI)の実行を推進することです。
OpenLoRAシステムアーキテクチャのコアコンポーネントは、モジュール設計に基づき、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルデプロイメントと呼び出し能力を実現します。
OpenLoRAの推論プロセスは、技術的な側面で「成熟した一般的な」モデルサービスの「プロセス」に属します。以下の通りです: