OpenLedger membangun rantai insentif model AI dengan OP Stack dan EigenDA sebagai dasar

OpenLedger Kedalaman Riset: Membangun ekonomi agen yang didorong oleh data dan model yang dapat digabungkan dengan OP Stack + EigenDA sebagai dasar

I. Pendahuluan | Lompatan Lapisan Model Crypto AI

Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 sebagai bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga telah mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi yang secara umum menekankan logika pertumbuhan yang kasar dengan "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap bergeser ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikatif.

Model Umum (LLM) vs Model Khusus (SLM)

Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter mencapai 70B hingga 500B, di mana biaya untuk sekali pelatihan sering kali mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai paradigma penyetelan ringan dari model dasar yang dapat digunakan kembali, biasanya berdasarkan model sumber terbuka seperti LLaMA, Mistral, DeepSeek, yang menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.

Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan berfungsi sama dengan LLM melalui pemanggilan arsitektur Agent, sistem plugin untuk routing dinamis, hot-plug modul LoRA, RAG (Retrieval-Augmented Generation), dan lain-lain. Arsitektur ini mempertahankan kemampuan jangkauan luas LLM sambil meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.

Nilai dan batas AI Crypto di lapisan model

Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), penyebab utamanya adalah

  • Hambatan teknologi terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya perusahaan teknologi besar seperti Amerika Serikat dan China yang memiliki kemampuan tersebut.
  • Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA dan Mixtral telah sumber terbuka, namun kunci untuk mendorong terobosan model tetap terpusat pada lembaga penelitian dan sistem rekayasa tertutup, proyek di blockchain memiliki ruang partisipasi yang terbatas pada lapisan model inti.

Namun, di atas model dasar open source, proyek Crypto AI masih dapat mencapai perpanjangan nilai melalui penyempurnaan model bahasa yang disesuaikan (SLM) dan menggabungkan verifikasi dan mekanisme insentif dari Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini tercermin dalam dua arah inti:

  • Lapisan Verifikasi Tepercaya: Meningkatkan ketelusuran dan ketahanan terhadap manipulasi dari keluaran AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan melalui catatan di blockchain.
  • Mekanisme insentif: Dengan bantuan Token asli, digunakan untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan eksekusi agen (Agent), membangun siklus positif pelatihan dan layanan model.

Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain

Dari sini dapat dilihat bahwa titik jatuh yang layak untuk proyek Crypto AI berbasis model terutama terfokus pada penyempurnaan ringan SLM kecil, pengintegrasian dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah ini, membentuk nilai diferensiasi pada "lapisan antarmuka" AI.

Blockchain AI chain yang berbasis pada data dan model dapat mencatat sumber kontribusi setiap data dan model dengan jelas dan tidak dapat diubah, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi hadiah otomatis akan dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui voting token, berpartisipasi dalam perumusan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.

OpenLedger Kedalaman Riset: Membangun ekonomi agen yang didorong data dan dapat dikombinasikan dengan model menggunakan OP Stack+EigenDA

Dua, Ringkasan Proyek | Visi AI Chain OpenLedger

OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Ini pertama kali mengusulkan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan di blockchain berdasarkan kontribusi nyata.

OpenLedger menyediakan rantai penuh dari "penyediaan data" hingga "penempatan model" dan "pemanggilan pembagian keuntungan", dengan modul inti meliputi:

  • Model Factory: Tanpa perlu pemrograman, dapat menggunakan LoRA untuk fine-tuning dan pelatihan model kustom berbasis LLM sumber terbuka;
  • OpenLoRA: mendukung keberadaan ribuan model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penyebaran;
  • PoA (Proof of Attribution): Mengukur kontribusi dan pembagian hadiah melalui pencatatan panggilan di blockchain;
  • Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan diverifikasi oleh kolaborasi komunitas;
  • Platform Proposal Model (Model Proposal Platform): pasar model on-chain yang dapat dikombinasikan, dipanggil, dan dibayar.

Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen pintar" yang didorong oleh data dan dapat dikombinasikan modelnya, mendorong on-chain dari rantai nilai AI.

Dan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasional data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.

  • Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
  • Settling di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
  • EVM kompatibel: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
  • EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.

dibandingkan dengan NEAR yang lebih berfokus pada lapisan dasar, dan mengutamakan kedaulatan data serta arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan rantai AI khusus yang ditujukan untuk insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat dilacak, dapat dikombinasikan, dan memiliki nilai yang berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka yang dapat dikombinasikan di atas rantai, mendorong jalur realisasi "model sebagai aset".

OpenLedger Kedalaman Riset: Membangun Ekonomi Agen Cerdas yang Didorong Data dan Dapat Dikombinasikan dengan Model Menggunakan OP Stack+EigenDA

Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger

Pabrik Model 3.1, pabrik model tanpa kode

ModelFactory adalah platform penyetelan model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyetelan tradisional, ModelFactory menyediakan antarmuka grafis murni untuk operasi, tanpa perlu alat baris perintah atau integrasi API. Pengguna dapat menyetel model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penerapan, dengan proses inti yang mencakup:

  • Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data otomatis terhubung ke antarmuka pelatihan model.
  • Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), mengonfigurasi hiperparameter melalui GUI.
  • Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
  • Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau panggilan berbagi ekosistem.
  • Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian langsung kemampuan tanya jawab model.
  • RAG menghasilkan jejak: Menjawab dengan kutipan sumber, meningkatkan kepercayaan dan keterauditan.

Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, izin data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkendali, interaktif secara real-time, dan dapat menghasilkan pendapatan secara berkelanjutan.

ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:

  • Seri LLaMA: Ekosistem terluas, komunitas aktif, kinerja umum yang kuat, adalah salah satu model dasar sumber terbuka yang paling dominan saat ini.
  • Mistral: Arsitektur efisien, kinerja inferensi sangat baik, cocok untuk diterapkan dalam skenario yang fleksibel dan sumber daya terbatas.
  • Qwen:Produk dari Alibaba, kinerja tugas dalam bahasa Mandarin sangat baik, kemampuan komprehensif yang kuat, cocok sebagai pilihan utama untuk pengembang domestik.
  • ChatGLM: Efek percakapan dalam bahasa Mandarin menonjol, cocok untuk layanan pelanggan vertikal dan skenario lokal.
  • Deepseek: Unggul dalam generasi kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
  • Gemma: Model ringan yang diluncurkan oleh Google, dengan struktur yang jelas, mudah untuk cepat memulai dan bereksperimen.
  • Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi tingkat aktivitas komunitas telah menurun.
  • BLOOM: Dukungan multi-bahasa yang kuat, tetapi kinerja inferensi lemah, cocok untuk penelitian yang mencakup berbagai bahasa.
  • GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.

Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "pragmatis" yang dibuat berdasarkan batasan nyata dari penyebaran di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).

Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan rendahnya hambatan, dapat dimonetisasi dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:

  • Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi, distribusi, dan pendapatan model;
  • Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
  • Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.

OpenLedger Kedalaman Riset: Membangun Ekonomi Agen yang Didorong Data dan Dapat Digabungkan Model dengan OP Stack+EigenDA sebagai Dasar

3.2 OpenLoRA, aset on-chain dari model fine-tuning

LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rendah-rank" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakan mereka untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Parameter-nya efisien, pelatihan cepat, dan penerapan fleksibel, menjadikannya metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.

OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya pemanfaatan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).

Komponen inti arsitektur sistem OpenLoRA, berbasis desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek-aspek kunci lainnya, untuk mencapai kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah:

  • Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori, menghemat sumber daya.
  • Model Hosting dan Layer Penggabungan Adapter (Model Hosting & Adapter Merging Layer): Semua model fine-tuning menggunakan model dasar (base model) yang sama, penggabungan dinamis LoRA adapter saat inferensi, mendukung inferensi bersama beberapa adapter (ensemble), meningkatkan kinerja.
  • Mesin Inferensi (Inference Engine): Mengintegrasikan berbagai teknik optimasi CUDA seperti Flash-Attention, Paged-Attention, dan SGMV.
OP-13.26%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 5
  • Posting ulang
  • Bagikan
Komentar
0/400
AirdropHunterWangvip
· 20jam yang lalu
Apakah ini akan dipromosikan sampai 2025?
Lihat AsliBalas0
OldLeekMastervip
· 20jam yang lalu
Sekali lagi akan memperdagangkan konsep untuk mendapatkan keuntungan.
Lihat AsliBalas0
ParallelChainMaxivip
· 20jam yang lalu
Heh, narasi bertingkat datang lagi.
Lihat AsliBalas0
GateUser-aa7df71evip
· 20jam yang lalu
Ada orang yang membicarakan AI lagi, bahkan sebelum 2024 tiba, membicarakan 2025 juga adalah bull.
Lihat AsliBalas0
NonFungibleDegenvip
· 20jam yang lalu
ser this ai x opstack play got me bullish af... probably nothing but im aping in hard rn
Balas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)