Laporan Penelitian Kedalaman OpenLedger: Membangun Ekonomi Agen Cerdas yang Didorong oleh Data dan Dapat Dikonfigurasi Model
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dianalogikan dengan bahan bakar (data), mesin (model), dan energi (komputasi) yang merupakan hal yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang umumnya menekankan logika pertumbuhan kasar "memperkuat komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang beralih dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan memiliki nilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang sering kali mencapai 70B hingga 500B, dan biaya untuk sekali pelatihan sering kali mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, dan menggabungkan sejumlah kecil data profesional berkualitas tinggi serta teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan khusus di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi beroperasi dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk routing dinamis, hot-swappable modul LoRA, dan RAG (retrieval-augmented generation). Arsitektur ini mempertahankan kemampuan cakupan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinatorial yang sangat fleksibel.
Nilai dan batas AI Crypto di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), alasan utamanya adalah
Hambatan teknis terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya beberapa raksasa teknologi yang memiliki kemampuan tersebut.
Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA, Mixtral telah sumber terbuka, namun kunci untuk mendorong terobosan model tetap terpusat pada lembaga penelitian dan sistem rekayasa tertutup, proyek di blockchain memiliki ruang partisipasi yang terbatas di tingkat model inti.
Namun, di atas model dasar open-source, proyek Crypto AI masih dapat memperluas nilai melalui penyetelan model bahasa khusus (SLM) dan menggabungkan verifikasi Web3 dan mekanisme insentif. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini terwujud dalam dua arah inti:
Lapisan Verifikasi Terpercaya: Meningkatkan jejak dan kemampuan anti-ubah dari keluaran AI dengan merekam jalur pembuatan model, kontribusi data, dan penggunaan melalui catatan di blockchain.
Mekanisme insentif: Dengan memanfaatkan Token asli, digunakan untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan eksekusi agen (Agent), membangun siklus positif antara pelatihan model dan layanan.
Klasifikasi jenis model AI dan analisis kesesuaian blockchain
Dari sini dapat dilihat bahwa titik fokus yang dapat dilakukan untuk proyek Crypto AI berbasis model terutama terletak pada penyempurnaan ringan SLM kecil, integrasi dan verifikasi data on-chain dengan arsitektur RAG, serta penyebaran lokal model Edge dan insentifnya. Dengan menggabungkan kemampuan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah dan rendah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Rantai AI blockchain berdasarkan data dan model dapat mencatat dengan jelas dan tidak dapat diubah asal kontribusi setiap data dan model ke dalam blockchain, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model dipanggil, distribusi hadiah akan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam perumusan aturan dan iterasi, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi AI Chain OpenLedger
OpenLedger adalah salah satu dari sedikit proyek AI blockchain yang saat ini fokus pada data dan mekanisme insentif model. Ini pertama kali mengusulkan konsep "Payable AI", bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, yang mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama dan mendapatkan imbalan di blockchain berdasarkan kontribusi nyata mereka.
OpenLedger menyediakan rangkaian lengkap dari "penyediaan data" hingga "penempatan model" dan "panggilan bagi hasil", dengan modul inti yang meliputi:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk pelatihan dan penyebaran model kustom berbasis LLM sumber terbuka;
OpenLoRA: Mendukung keberadaan seribu model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penerapan;
PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui pencatatan panggilan di blockchain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan divalidasi melalui kolaborasi komunitas;
Platform Usulan Model (Model Proposal Platform): Pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat dikombinasikan modelnya, mendorong on-chain dari rantai nilai AI.
Dan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
Settling di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
Kompatibel dengan EVM: Memudahkan pengembang untuk dengan cepat mengimplementasikan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan dan memastikan verifikasi data.
Dibandingkan dengan beberapa blockchain AI umum yang lebih berfokus pada lapisan dasar, yang mengutamakan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang berorientasi pada insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat ditelusuri, dapat dikombinasikan, dan berkelanjutan di atas blockchain. Ini adalah infrastruktur insentif model di dunia Web3, yang menggabungkan pengelolaan model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka komposabel di blockchain ala Infura, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tanpa kode model pabrik
ModelFactory adalah platform fine-tuning model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka fine-tuning tradisional, ModelFactory menyediakan operasi antarmuka grafis murni, tanpa perlu alat baris perintah atau integrasi API. Pengguna dapat melakukan fine-tuning model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data otomatis terhubung ke antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), konfigurasi hiperparameter melalui GUI.
Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau pemanggilan berbagi ekosistem.
Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian kemampuan tanya jawab model secara langsung.
RAG menghasilkan jejak sumber: Menjawab dengan kutipan sumber, meningkatkan kepercayaan dan kemampuan untuk diaudit.
Arsitektur sistem Model Factory terdiri dari enam modul, meliputi otentikasi identitas, hak akses data, penyesuaian model, evaluasi dan penyebaran, serta pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkendali, interaktif waktu nyata, dan dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Seri LLaMA: ekosistem terluas, komunitas aktif, kinerja umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling mainstream saat ini.
Mistral: Arsitektur yang efisien, kinerja inferensi yang sangat baik, cocok untuk skenario yang fleksibel dan sumber daya yang terbatas.
Qwen: Produk dari Alibaba, berkinerja baik dalam tugas berbahasa Mandarin, memiliki kemampuan komprehensif yang kuat, cocok sebagai pilihan utama bagi pengembang domestik.
ChatGLM: Efek percakapan dalam bahasa Mandarin sangat menonjol, cocok untuk layanan pelanggan vertikal dan skenario lokalisasi.
Deepseek: Unggul dalam pengkodean dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Model ringan yang diluncurkan oleh Google, dengan struktur yang jelas, mudah untuk dipahami dan dieksplorasi.
Falcon:Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi aktivitas komunitas telah menurun.
BLOOM: Dukungan multi-bahasa yang kuat, tetapi kinerja inferensinya lemah, cocok untuk penelitian yang mencakup berbagai bahasa.
GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan didasarkan pada batasan nyata dari penerapan on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM) yang menghasilkan konfigurasi "prioritas praktis".
Model Factory sebagai rangkaian alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: menyediakan jalur lengkap untuk inkubasi, distribusi, dan pendapatan model;
Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyetelan parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyetelan (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Parameter ini efisien, pelatihan cepat, dan penerapan fleksibel, sehingga merupakan metode penyetelan utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka kerja inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, pelaksanaan inferensi, rute permintaan, dan aspek penting lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multimodel yang efisien dan hemat biaya:
Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori grafis, menghemat sumber daya.
Model Hosting & Adapter Merging Layer (: Semua model fine-tuning menggunakan model besar dasar (base model), saat inferensi adapter LoRA digabungkan secara dinamis, mendukung beberapa adapter untuk inferensi bersama (ensemble), meningkatkan kinerja.
Mesin Inferensi (Inference Engine): Mengintegrasikan berbagai teknologi optimasi CUDA seperti Flash-Attention, Paged-Attention, dan optimasi SGMV.
Modul Pengarahan Permintaan dan Streaming Token )Request Router & Token Streaming(: Mengarahkan secara dinamis ke adapter yang benar berdasarkan model yang diperlukan dalam permintaan, melalui pengoptimalan kernel untuk menghasilkan aliran di tingkat token.
Proses inferensi OpenLoRA termasuk dalam layanan model "matang dan umum" di tingkat teknis, sebagai berikut:
Memuat model dasar: Sistem memuat sebelumnya model besar dasar seperti LLaMA 3, Mistral, ke dalam memori GPU.
Pencarian Dinamis LoRA: Setelah menerima permintaan, dari Hugging Face, Predibase, atau ini
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
6 Suka
Hadiah
6
4
Bagikan
Komentar
0/400
FrogInTheWell
· 08-03 20:43
Siapa bilang enkripsi hanya bisa bertransaksi?
Lihat AsliBalas0
MevHunter
· 08-03 20:37
Daya Komputasi tidak bergerak lagi, pindah ke data ya.
Lihat AsliBalas0
MEVSandwichMaker
· 08-03 20:33
Jujur saja, saya benar-benar tidak mengerti, kecerdasan buatan
OpenLedger: Membangun infrastruktur ekonomi agen cerdas yang didorong oleh data
Laporan Penelitian Kedalaman OpenLedger: Membangun Ekonomi Agen Cerdas yang Didorong oleh Data dan Dapat Dikonfigurasi Model
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dianalogikan dengan bahan bakar (data), mesin (model), dan energi (komputasi) yang merupakan hal yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang umumnya menekankan logika pertumbuhan kasar "memperkuat komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang beralih dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan memiliki nilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang sering kali mencapai 70B hingga 500B, dan biaya untuk sekali pelatihan sering kali mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, dan menggabungkan sejumlah kecil data profesional berkualitas tinggi serta teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan khusus di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi beroperasi dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk routing dinamis, hot-swappable modul LoRA, dan RAG (retrieval-augmented generation). Arsitektur ini mempertahankan kemampuan cakupan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinatorial yang sangat fleksibel.
Nilai dan batas AI Crypto di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), alasan utamanya adalah
Namun, di atas model dasar open-source, proyek Crypto AI masih dapat memperluas nilai melalui penyetelan model bahasa khusus (SLM) dan menggabungkan verifikasi Web3 dan mekanisme insentif. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini terwujud dalam dua arah inti:
Klasifikasi jenis model AI dan analisis kesesuaian blockchain
Dari sini dapat dilihat bahwa titik fokus yang dapat dilakukan untuk proyek Crypto AI berbasis model terutama terletak pada penyempurnaan ringan SLM kecil, integrasi dan verifikasi data on-chain dengan arsitektur RAG, serta penyebaran lokal model Edge dan insentifnya. Dengan menggabungkan kemampuan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah dan rendah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Rantai AI blockchain berdasarkan data dan model dapat mencatat dengan jelas dan tidak dapat diubah asal kontribusi setiap data dan model ke dalam blockchain, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model dipanggil, distribusi hadiah akan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam perumusan aturan dan iterasi, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi AI Chain OpenLedger
OpenLedger adalah salah satu dari sedikit proyek AI blockchain yang saat ini fokus pada data dan mekanisme insentif model. Ini pertama kali mengusulkan konsep "Payable AI", bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, yang mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama dan mendapatkan imbalan di blockchain berdasarkan kontribusi nyata mereka.
OpenLedger menyediakan rangkaian lengkap dari "penyediaan data" hingga "penempatan model" dan "panggilan bagi hasil", dengan modul inti yang meliputi:
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat dikombinasikan modelnya, mendorong on-chain dari rantai nilai AI.
Dan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibandingkan dengan beberapa blockchain AI umum yang lebih berfokus pada lapisan dasar, yang mengutamakan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang berorientasi pada insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat ditelusuri, dapat dikombinasikan, dan berkelanjutan di atas blockchain. Ini adalah infrastruktur insentif model di dunia Web3, yang menggabungkan pengelolaan model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka komposabel di blockchain ala Infura, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tanpa kode model pabrik
ModelFactory adalah platform fine-tuning model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka fine-tuning tradisional, ModelFactory menyediakan operasi antarmuka grafis murni, tanpa perlu alat baris perintah atau integrasi API. Pengguna dapat melakukan fine-tuning model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Arsitektur sistem Model Factory terdiri dari enam modul, meliputi otentikasi identitas, hak akses data, penyesuaian model, evaluasi dan penyebaran, serta pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkendali, interaktif waktu nyata, dan dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan didasarkan pada batasan nyata dari penerapan on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM) yang menghasilkan konfigurasi "prioritas praktis".
Model Factory sebagai rangkaian alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyetelan parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyetelan (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Parameter ini efisien, pelatihan cepat, dan penerapan fleksibel, sehingga merupakan metode penyetelan utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka kerja inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, pelaksanaan inferensi, rute permintaan, dan aspek penting lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multimodel yang efisien dan hemat biaya:
Proses inferensi OpenLoRA termasuk dalam layanan model "matang dan umum" di tingkat teknis, sebagai berikut: