OpenLedger: بناء بنية تحتية للاقتصاد الذكي المدفوع بالبيانات

تقرير بحثي عميق حول OpenLedger: بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع بالنماذج

١. المقدمة | الانتقال في نموذج Crypto AI

تعد البيانات والنماذج وقوة الحوسبة العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، ومقارنتها بالوقود (البيانات) والمحرك (النموذج) والطاقة (قوة الحوسبة) أمر لا غنى عنه. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت مجال الذكاء الاصطناعي في العملات المشفرة أيضًا مراحل مماثلة. في أوائل عام 2024، كان السوق مدفوعًا بمشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الواسع "تجميع قوة الحوسبة". ومع دخول عام 2025، بدأت نقطة تركيز الصناعة في الانتقال تدريجيًا نحو نموذج البيانات، مما يرمز إلى أن الذكاء الاصطناعي في العملات المشفرة ينتقل من تنافس الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة الوسطى.

النماذج العامة (LLM) مقابل النماذج المتخصصة (SLM)

تدريب نماذج اللغة الكبيرة التقليدية (LLM) يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يتراوح حجم المعلمات بين 70B و500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر SLM (نموذج اللغة المتخصص) نمطًا خفيفًا للتعديل الدقيق لنموذج أساسي يمكن إعادة استخدامه، وغالبًا ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، مع دمج القليل من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات محددة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والحواجز التقنية.

من المهم ملاحظة أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال هيكل الوكيل، نظام الإضافات للتوجيه الديناميكي، القابلية للتوصيل الساخن لوحدات LoRA، وRAG (الجيل المعزز بالاسترجاع). يحتفظ هذا الهيكل بالقدرة الواسعة النطاق لـ LLM، ويعزز الأداء المتخصص من خلال وحدات الضبط الدقيق، مما يشكل نظاماً ذكياً مكوناً عالي المرونة.

قيمة ونطاق الذكاء الاصطناعي في طبقة النموذج

مشاريع الذكاء الاصطناعي للعملات المشفرة صعبة بشكل أساسي في تحسين القدرات الأساسية للنماذج اللغوية الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو

  • العائق التقني مرتفع جداً: حجم البيانات والموارد الحاسوبية والقدرات الهندسية المطلوبة لتدريب نموذج Foundation ضخمة للغاية، حالياً فقط بعض عمالقة التكنولوجيا يمتلكون القدرات المناسبة.
  • قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرئيسية مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن المحرك الحقيقي لتقدم النماذج لا يزال مركزًا في المؤسسات البحثية ونظم الهندسة المغلقة، مما يجعل مساحة مشاركة المشاريع على السلسلة في مستوى النموذج الأساسي محدودة.

ومع ذلك، على الرغم من نماذج الأساس مفتوحة المصدر، يمكن لمشاريع Crypto AI تمديد القيمة من خلال ضبط نماذج اللغة المتخصصة (SLM) ودمج القابلية للتحقق وآليات التحفيز في Web3. ك"طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:

  • طبقة التحقق الموثوق: من خلال تسجيل مسارات توليد النموذج، ومساهمات البيانات، واستخدامها على السلسلة، مما يعزز قدرة تتبع مخرجات الذكاء الاصطناعي ومقاومة التلاعب.
  • آلية التحفيز: من خلال استخدام الرمز الأصلي، لتحفيز سلوكيات تحميل البيانات، استدعاء النماذج، وتنفيذ الوكلاء (Agent)، لبناء حلقة إيجابية لتدريب النماذج وتقديم الخدمات.

تحليل ملاءمة نوع نماذج الذكاء الاصطناعي للعمق وتقنية البلوكشين

من هنا، يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع النموذج تتركز بشكل رئيسي على التقليل من وزن ضبط SLM الصغير، ودمج بيانات على السلسلة من هيكل RAG والتحقق منها، بالإضافة إلى نشر وتحفيز نموذج Edge محلياً. بالاستفادة من قابلية التحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات التي تعتمد على نماذج ذات موارد متوسطة إلى منخفضة، مكونةً قيمة مميزة لـ"طبقة واجهة" الذكاء الاصطناعي.

سلسلة الذكاء الاصطناعي القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح ودون إمكانية التعديل مصدر مساهمة كل بيانات ونموذج على السلسلة، مما يعزز بشكل كبير موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة رمزية قابلة للقياس والتداول، لبناء نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتطويرها، مما يعزز هيكل الحوكمة اللامركزية.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)

ثانياً، نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي

OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على آليات تحفيز البيانات والنماذج. وهو أول من طرح مفهوم "AI القابل للدفع"، ويهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على سلسلة وفقًا للمساهمات الفعلية.

يوفر OpenLedger حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النموذج" ثم إلى "استدعاء توزيع الأرباح"، تشمل وحداته الأساسية:

  • مصنع النموذج: دون الحاجة إلى البرمجة، يمكنك استخدام LoRA لضبط وتدريب ونشر نماذج مخصصة بناءً على LLM مفتوح المصدر؛
  • OpenLoRA: يدعم التعايش مع آلاف النماذج، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
  • PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال تسجيل استدعاءات على السلسلة؛
  • Datanets: شبكة بيانات هيكلية موجهة نحو مشاهد عمودية، تم بناؤها والتحقق منها من خلال تعاون المجتمع؛
  • منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، وقابلة للدفع.

من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" المدفوعة بالبيانات والقابلة للتكوين، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.

وعلى صعيد اعتماد تقنية البلوكشين، تستخدم OpenLedger قاعدة OP Stack + EigenDA لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.

  • مبني على OP Stack: يعتمد على تقنية Optimism، ويدعم التنفيذ عالي القدرة ومنخفض التكلفة؛
  • التسوية على الشبكة الرئيسية للإيثريوم: ضمان أمان المعاملات وسلامة الأصول؛
  • متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة استنادًا إلى Solidity؛
  • يوفر EigenDA دعم توافر البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.

بالمقارنة مع بعض سلاسل الذكاء الاصطناعي العامة التي تركز على البيانات السيادية وتستخدم بنية "الوكلاء الذكيين على BOS"، تركز OpenLedger أكثر على بناء سلسلة مخصصة للذكاء الاصطناعي تستهدف تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستدعائها على السلسلة قابلاً للتتبع والتركيب والاستدامة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج بأسلوب HuggingFace، والفوترة بأسلوب Stripe، وواجهات التركيب على السلسلة بأسلوب Infura، مما يعزز مسار تحقيق "النموذج كأصل".

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)

ثلاثاً، المكونات الأساسية والتقنية لـ OpenLedger

3.1 نموذج المصنع، بدون كود نموذج المصنع

ModelFactory هو منصة كبيرة لتعديل النماذج اللغوية (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة للت操作، دون الحاجة إلى أدوات سطر الأوامر أو تكامل واجهة برمجة التطبيقات. يمكن للمستخدمين تعديل النماذج بناءً على مجموعات البيانات التي تم إكمال التصريح والمراجعة عليها في OpenLedger. حقق تدفق عمل متكامل لتصريح البيانات، وتدريب النماذج ونشرها، حيث تشمل العمليات الأساسية ما يلي:

  • التحكم في وصول البيانات: يقدّم المستخدم طلبات البيانات، ويقوم الموفر بمراجعتها والموافقة عليها، ويتم توصيل البيانات تلقائيًا بواجهة تدريب النموذج.
  • اختيار النموذج وتكوينه: يدعم LLM الشائعة (مثل LLaMA و Mistral) ، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
  • خفيفة الوزن تعديل دقيق: محرك LoRA / QLoRA المدمج، عرض تقدم التدريب في الوقت الحقيقي.
  • تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة الاستدعاء البيئي.
  • واجهة التحقق التفاعلي: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة على الأسئلة مباشرة.
  • توليد RAG للتتبع: إجابات مع اقتباسات المصدر، لتعزيز الثقة وقابلية التدقيق.

يتضمن هيكل نظام Model Factory ستة وحدات، تمر عبر مصادقة الهوية، وصلاحيات البيانات، وتعديل النموذج، وتقييم النشر وRAG، مما يخلق منصة خدمات نماذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للتحقيق المستدام.

جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حالياً من ModelFactory كما يلي:

  • سلسلة LLaMA: الأكثر تنوعًا في النظام البيئي، المجتمع نشط، والأداء العام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
  • Mistral:هيكل فعال، أداء استدلال ممتاز، مناسب للتطبيقات المرنة والبيئات ذات الموارد المحدودة.
  • Qwen: منتج من علي بابا، أداءه ممتاز في المهام الصينية، لديه قدرة شاملة قوية، مناسب ليكون الخيار الأول للمطورين المحليين.
  • ChatGLM: فعالية الحوار باللغة الصينية بارزة، مناسبة لخدمة العملاء في مجالات محددة والمشاهد المحلية.
  • Deepseek: تتفوق في توليد الأكواد والاستدلال الرياضي، وهي مناسبة لأدوات المساعدة في التطوير الذكي.
  • Gemma: نموذج خفيف قدمته Google، يتميز بهيكل واضح وسهولة في البدء السريع والتجريب.
  • Falcon: كانت معيار الأداء، مناسبة للبحث الأساسي أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
  • BLOOM: تدعم العديد من اللغات بشكل جيد، لكن أداء الاستدلال ضعيف، مما يجعلها مناسبة للأبحاث التي تغطي اللغات.
  • GPT-2: نموذج كلاسيكي مبكر، مناسب فقط للأغراض التعليمية والتحقق، لا يُوصى باستخدامه في النشر الفعلي.

على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" المستند إلى القيود الواقعية لعمليات النشر على السلسلة (تكاليف الاستدلال، التكيف مع RAG، التوافق مع LoRA، بيئة EVM).

تعتبر Model Factory كأداة بدون كود، حيث تم تضمين آلية إثبات المساهمة في جميع النماذج، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، ولديها مزايا انخفاض العتبة، إمكانية التسييل والقابلية للتجميع، مقارنة بأدوات تطوير النماذج التقليدية:

  • للمطورين: توفير مسار كامل لنماذج الحضانة والتوزيع والإيرادات؛
  • بالنسبة للمنصة: تشكيل تدفق الأصول النموذجية وبيئة التركيب؛
  • بالنسبة للمستخدمين: يمكن دمج النماذج أو الوكلاء كما هو الحال عند استدعاء واجهة برمجة التطبيقات.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)

3.2 OpenLoRA، تحويل الأصول على السلسلة للنموذج المُعدّل

LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، من خلال إدخال "مصفوفة منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الأسئلة القانونية، الاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفة المعلمات الجديدة المدخلة."، حيث إن معلماتها فعالة، والتدريب سريع، والنشر مرن، مما يجعلها الطريقة الأكثر ملاءمة لنشر نماذج Web3 واستدعائها بشكل مركب.

OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger مصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي منه هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي مثل التكلفة العالية، وانخفاض إمكانية إعادة الاستخدام، وهدر موارد GPU، مما يعزز تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).

المكونات الأساسية لبنية نظام OpenLoRA، مستندة إلى تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من النقاط الرئيسية، مما يحقق القدرة على نشر واستدعاء نماذج متعددة بكفاءة وبكلفة منخفضة:

  • وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدل في OpenLedger، مما يتيح التحميل حسب الطلب، ويتجنب تحميل جميع النماذج مسبقاً في ذاكرة الوصول العشوائي، مما يوفر الموارد.
  • استضافة النموذج وطبقة الدمج الديناميكية (Model Hosting & Adapter Merging Layer): جميع نماذج التعديل تستخدم نموذجًا أساسيًا مشتركًا (base model)، أثناء الاستدلال يتم دمج LoRA adapter ديناميكيًا، ويدعم الاستدلال المشترك لعدة adapters (ensemble)، مما يحسن الأداء.
  • محرك الاستدلال (Inference Engine): يدمج تقنيات تحسين CUDA متعددة مثل Flash-Attention و Paged-Attention و SGMV.
  • وحدة توجيه الطلبات وإخراج التدفق (Request Router & Token Streaming): توجيه ديناميكي إلى المحول الصحيح بناءً على النموذج المطلوب في الطلب، وتحقيق توليد التدفق على مستوى الرموز من خلال تحسين النواة.

تتعلق عملية استدلال OpenLoRA بخدمة نموذج "ناضجة وعامة" على المستوى الفني كما يلي:

  • تحميل النموذج الأساسي: النظام يقوم بتحميل نماذج كبيرة أساسية مثل LLaMA 3 و Mistral إلى ذاكرة GPU.
  • استرجاع LoRA الديناميكي: بعد استلام الطلب، من Hugging Face أو Predibase أو هذا
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • مشاركة
تعليق
0/400
CryptoFortuneTellervip
· منذ 6 س
آه؟ الآن تفكر في الذهاب إلى النموذج، لقد أصبحنا في عام 2025.
شاهد النسخة الأصليةرد0
FrogInTheWellvip
· 08-03 20:43
من قال إن التشفير لا يفعل شيئًا سوى المضاربة
شاهد النسخة الأصليةرد0
MevHuntervip
· 08-03 20:37
قوة الحوسبة卷不动了 转战数据呗
شاهد النسخة الأصليةرد0
MEVSandwichMakervip
· 08-03 20:33
بصراحة، لا أستطيع فهم ذلك، الكائن الذكي
شاهد النسخة الأصليةرد0
PaperHandSistervip
· 08-03 20:20
تفو، لقد سئمت حقًا من استخدام GPU.
شاهد النسخة الأصليةرد0
  • تثبيت