OpenLedger строит цепочку стимулов для AI-моделей на базе OP Stack и EigenDA

OpenLedger Глубина исследовательский отчет: на основе OP Stack + EigenDA создать экономику интеллектуальных агентов, основанную на данных и модели, которую можно комбинировать.

Один. Введение | Модельный уровень Crypto AI

Данные, модели и вычислительная мощность являются тремя основными компонентами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), которые необходимы друг другу. Подобно эволюции инфраструктуры традиционной отрасли ИИ, область Crypto AI также прошла через аналогичные стадии. В начале 2024 года рынок в значительной степени находился под контролем децентрализованных GPU проектов, которые в основном подчеркивали примитивную логику роста «конкуренции вычислительной мощности». Однако с приходом 2025 года внимание отрасли постепенно сместится на уровень моделей и данных, что будет означать, что Crypto AI переходит от конкуренции за базовые ресурсы к более устойчивой и имеющей прикладную ценность среднеуровневой конструкции.

Универсальная большая модель (LLM) против специализированной модели (SLM)

Традиционные крупные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры, размер параметров колеблется от 70B до 500B, а стоимость одной тренировки может достигать миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесную парадигму тонкой настройки с повторным использованием базовой модели, обычно основанной на открытых моделях, таких как LLaMA, Mistral, DeepSeek и других, в сочетании с небольшим количеством высококачественных специализированных данных и технологиями LoRA, быстро создаются экспертные модели, обладающие знаниями в определенной области, что значительно снижает затраты на обучение и технические барьеры.

Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (усиленная генерация с помощью поиска) и другие подходы. Эта архитектура сохраняет широкую охватность LLM и одновременно улучшает профессиональную производительность с помощью специализированных модулей, создавая высокоэффективную гибридную интеллектуальную систему.

Crypto AI в модели слой ценности и границы

Проекты Crypto AI по сути сложно напрямую улучшить основные способности крупных языковых моделей (LLM), основная причина заключается в том,

  • Технический барьер слишком высок: объем данных, вычислительные ресурсы и инженерные навыки, необходимые для тренировки Foundation Model, чрезвычайно велики, в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
  • Ограничения открытой экосистемы: хотя такие основные модели, как LLaMA и Mixtral, уже открыты, ключ к настоящему прорыву моделей по-прежнему сосредоточен в научных учреждениях и закрытых инженерных системах, а участие цепочных проектов на уровне основных моделей ограничено.

Тем не менее, на основе открытых базовых моделей, проекты Crypto AI все еще могут осуществлять расширение ценности, проводя тонкую настройку специализированных языковых моделей (SLM) и сочетая проверяемость и механизмы стимулов Web3. В качестве «периферийного интерфейсного слоя» цепочки поставок AI это проявляется в двух основных направлениях:

  • Уровень доверенной верификации: через запись на блокчейне пути генерации модели, вклад данных и их использование, увеличивается прослеживаемость и стойкость к подделке выходных данных ИИ.
  • Механизм стимулов: с помощью родного токена для стимулирования загрузки данных, вызова моделей, выполнения агентов и т.д., создание положительного цикла обучения и обслуживания модели.

Классификация типов AI моделей и анализ применимости в блокчейне

Таким образом, можно увидеть, что жизнеспособные точки применения моделей типа Crypto AI в основном сосредоточены на легкой настройке маломасштабных SLM, подключении и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих сценариев моделей с ограниченными ресурсами, формируя дифференцированную ценность "интерфейсного слоя" AI.

Блокчейн AI цепочка, основанная на данных и моделях, может обеспечить четкую и неизменную запись происхождения вложений каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, благодаря механизму смарт-контрактов, автоматическое распределение вознаграждений происходит при вызове данных или моделей, преобразуя действия AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность моделей с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая децентрализованную структуру управления.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, Обзор проекта | Визия AI Chain OpenLedger

OpenLedger является одним из немногих блокчейн AI проектов на текущем рынке, сосредоточенных на механизмах стимуляции данных и моделей. Он первым предложил концепцию «Payable AI», с целью создания справедливой, прозрачной и комбинируемой среды работы AI, которая будет стимулировать участников, предоставляющих данные, разработчиков моделей и строителей AI приложений для сотрудничества на одной платформе и получения дохода на основе фактического вклада.

OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его основные модули включают:

  • Модельный завод:без программирования можно использовать LoRA для тонкой настройки, тренировки и развертывания настраиваемых моделей на основе открытых LLM;
  • OpenLoRA: поддержка сосуществования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
  • PoA (Доказательство Атрибуции): реализует измерение вклада и распределение вознаграждений через записи вызовов на блокчейне;
  • Datanets: Структурированная сеть данных, ориентированная на вертикальные сценарии, созданная и проверенная сообществом;
  • Платформа предложений моделей (Model Proposal Platform): настраиваемый, вызываемый и платёжный рынок моделей на блокчейне.

С помощью вышеуказанных модулей OpenLedger создал «инфраструктуру экономики интеллектуальных агентов», основанную на данных и модели, которая способствует ончейн-реализации цепочки создания стоимости AI.

А в применении технологии блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для работы с данными и контрактами для моделей ИИ.

  • Построено на основе OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
  • Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
  • Совместимость с EVM: удобно для разработчиков быстро развертывать и расширять на основе Solidity;
  • EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.

В отличие от таких более низкоуровневых блокчейнов, как NEAR, которые ориентированы на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированного блокчейна для ИИ, ориентированного на данные и стимулы для моделей, стремясь обеспечить отслеживаемость, совместимость и устойчивую ценностную замкнутость для разработки и вызова моделей в блокчейне. Это инфраструктура стимулов для моделей в мире Web3, которая сочетает в себе хостинг моделей, выставление счетов за использование и интерфейсы для совместного использования на блокчейне, продвигая реализацию «модель как актив».

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)

Три, Основные компоненты и техническая архитектура OpenLedger

3.1 Модельный завод,无需代码模型工厂

ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков для дообучения, ModelFactory предлагает исключительно графический интерфейс, не требующий использования командной строки или интеграции API. Пользователи могут дообучать модели на основе наборов данных, авторизованных и проверенных на OpenLedger. Это реализует интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, в который входят основные процессы:

  • Контроль доступа к данным: Пользователь отправляет запрос на данные, поставщик проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
  • Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
  • Легкая настройка: встроенный движок LoRA / QLoRA, отображающий прогресс тренировки в реальном времени.
  • Оценка и развертывание модели: встроенные инструменты оценки, поддержка экспорта развертывания или совместного использования экосистемы.
  • Интерфейс верификации взаимодействия: Предоставляет чат-интерфейс, упрощающий прямое тестирование способности модели отвечать на вопросы.
  • Генерация RAG отслеживания: ответы с ссылкой на источник, повышающие доверие и возможность аудита.

Архитектура системы Model Factory включает шесть основных модулей, охватывающих идентификацию, управление данными, микронастройку моделей, оценку развертывания и RAG трассировку, создавая интегрированную платформу сервисов моделей с безопасностью, управляемостью, интерактивностью в реальном времени и устойчивой монетизацией.

Краткая таблица возможностей крупных языковых моделей, поддерживаемых ModelFactory, выглядит следующим образом:

  • Серия LLaMA: самая широкая экосистема, активное сообщество, высокая универсальная производительность, одна из самых популярных открытых базовых моделей на текущий момент.
  • Mistral: эффективная архитектура, отличная производительность вывода, подходит для гибкого развертывания в условиях ограниченных ресурсов.
  • Qwen: продукт от Alibaba, показывает отличные результаты на китайских задачах, обладает высокой综合能力, подходит в качестве первого выбора для отечественных разработчиков.
  • ChatGLM: выдаёт отличные результаты в китайских диалогах, подходит для специализированного обслуживания клиентов и локализованных сценариев.
  • Deepseek:В области генерации кода и математического вывода показывает превосходные результаты, подходит для инструментов помощи в интеллектуальной разработке.
  • Gemma: Легкая модель от Google, с четкой структурой, легко осваивается и экспериментируется.
  • Falcon:Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
  • BLOOM: Поддержка нескольких языков довольно сильная, но производительность вывода слабая, подходит для исследований с охватом языков.
  • GPT-2: Классическая ранняя модель, подходит только для учебных и проверочных целей, не рекомендуется для использования в реальных развертываниях.

Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а представляет собой конфигурацию «приоритет практичности», основанную на реальных ограничениях развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).

Model Factory как инструмент без кода, все модели встроили механизм доказательства вклада, чтобы гарантировать права участников данных и разработчиков моделей, обладает низким порогом, возможностью монетизации и композируемостью, по сравнению с традиционными инструментами разработки моделей:

  • Для разработчиков: предоставление полного пути для инкубации моделей, их распределения и получения дохода;
  • Для платформы: формирование модели оборота активов и комбинированной экосистемы;
  • Для пользователей: модели или агенты можно комбинировать, как при вызове API.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, токенизация on-chain активов модели дообучения

LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет изучать новые задачи, вставляя «низкоранговые матрицы» в предварительно обученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает стоимость обучения и требования к хранению. Традиционные большие языковые модели (например, LLaMA, GPT-3) обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Чтобы использовать их для конкретных задач (например, юридических вопросов, медицинских консультаций), необходимо проводить тонкую настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые матричные параметры». Она эффективна по параметрам, быстро обучается и гибко разворачивается, что делает её наиболее подходящим современным методом тонкой настройки для развертывания и комбинированного вызова моделей Web3.

OpenLoRA — это легковесный фреймворк для инференса, созданный OpenLedger, специально разработанный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокие затраты, низкая повторная использование и неэффективное использование ресурсов GPU, а также содействие реализации «оплачиваемого ИИ» (Payable AI).

OpenLoRA системная архитектура ключевые компоненты, основанные на модульном дизайне, охватывающие хранение моделей, выполнение вывода, маршрутизацию запросов и другие ключевые этапы, реализующие эффективную, низкозатратную многомодельную развертку и вызов возможности:

  • Модуль хранения адаптеров LoRA (LoRA Adapters Storage): дообученный адаптер LoRA размещается на OpenLedger, что позволяет загружать его по мере необходимости, избегая предварительной загрузки всех моделей в видеопамять и экономя ресурсы.
  • Модельное хостинг и динамический слой слияния (Model Hosting & Adapter Merging Layer): Все дообученные модели используют базовую большую модель (base model), при выводе LoRA адаптер динамически сливаются, поддерживается совместный вывод нескольких адаптеров (ensemble), что повышает производительность.
  • Инферальный движок (Inference Engine): интеграция технологий CUDA, таких как Flash-Attention, Paged-Attention, оптимизация SGMV и другие.
OP-6.45%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
AirdropHunterWangvip
· 08-14 03:44
Эта волна будет разгоняться до 2025 года?
Посмотреть ОригиналОтветить0
OldLeekMastervip
· 08-14 03:44
Снова будут炒概念收米了
Посмотреть ОригиналОтветить0
ParallelChainMaxivip
· 08-14 03:43
Эх, снова многослойное повествование.
Посмотреть ОригиналОтветить0
GateUser-aa7df71evip
· 08-14 03:41
Снова кто-то говорит об ИИ, 2024 еще не наступил, а уже говорят о 2025, это тоже бык.
Посмотреть ОригиналОтветить0
NonFungibleDegenvip
· 08-14 03:21
сеть этот ai x opstack игра заставила меня быть бычьим af... вероятно, ничего, но я вбиваю деньги по полной rn
Посмотреть ОригиналОтветить0
  • Закрепить