У всьому ланцюгу вартості ШІ, навчання моделей є найбільш ресурсомістким та найвищим за технічними бар'єрами етапом, що безпосередньо визначає верхню межу можливостей моделі та реальний ефект застосування. У порівнянні з легким викликом на етапі виводу, процес навчання вимагає постійних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Концентраційне навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи управління кластером до всіх компонентів навчальної рамки, координується єдиною системою контролю. Така глибока координація архітектури забезпечує оптимальну ефективність обміну пам'яттю, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії на дані, бар'єрів для ресурсів, енергоспоживання та ризиків єдиної точки.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одній машині. Хоча фізично має "дистрибутивні" характеристики, але в цілому все ще контролюється централізованими установами для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, де головний вузол координує всі підзавдання. Основні методи включають:
Паралельність даних: кожен вузол тренує різні дані, параметри спільні, потрібно узгодити ваги моделі
Модельна паралельність: розміщення різних частин моделі на різних вузлах для досягнення високої масштабованості
Паралельне виконання: поетапне серійне виконання, підвищення пропускної здатності
Тензорне паралельне: тонка сегментація матричних обчислень, підвищення паралельної гранулярності
Розподілене навчання є поєднанням "централізоване керівництво + розподілене виконання", аналогічно тому, як один і той же керівник дистанційно координує співпрацю кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренувань означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основними характеристиками є: кілька взаємно недовірливих вузлів, які спільно виконують навчальні завдання без центрального координатора, зазвичай через протокол, що керує розподілом завдань і співпрацею, та за допомогою механізму заохочення через криптографію для забезпечення чесності внесків. Основними викликами, з якими стикається ця модель, є:
Гетерогенність пристроїв та труднощі розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
Проблема ефективності зв'язку: нестабільність мережевої комунікації, чітко виражена проблема синхронізації градієнтів
Відсутність довірчого виконання: відсутність довірчого середовища виконання, важко перевірити, чи дійсно вузли беруть участь у обчисленнях.
Відсутність єдиного координаційного центру: немає центрального диспетчера, розподіл завдань, механізм скасування аномалій складний
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносить обчислювальну потужність для спільного тренування моделі, але "дійсно здійсненне масове децентралізоване тренування" все ще є системним інженерним викликом, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделі та багато інших аспектів, але чи можливо "ефективно співпрацювати + стимулювати чесність + отримати правильні результати" все ще перебуває на етапі раннього прототипування.
Федеративне навчання як перехідна форма між розподіленим і Децентралізація підкреслює збереження даних на місцях і централізовану агрегацію параметрів моделі, що підходить для сценаріїв, що акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні можливості співпраці, а також має переваги розподілених даних у Децентралізація, але воно все ще залежить від надійних координаторів і не має повністю відкритих або антикорупційних характеристик. Його можна розглядати як "контрольовану Децентралізація" у сценаріях відповідності конфіденційності, з відносно м'якими вимогами до навчальних завдань, структур довіри та механізмів зв'язку, що робить його більш підходящим для перехідної архітектури впровадження в промисловості.
Децентралізація тренування: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях через складну структуру завдання, надвисокі вимоги до ресурсів або велику складність співпраці воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної спроможності, що ускладнює їх ефективний розподіл та синхронізацію в відкритих мережах; завдання, які мають сильні обмеження з точки зору конфіденційності даних та суверенітету, обмежені юридичною відповідністю та етичними нормами, не можуть бути відкритими для обміну; а завдання, які позбавлені основи для співпраці, не мають зовнішніх мотивацій для участі. Ці межі разом складають реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у типах завдань з легкою структурою, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: налаштування LoRA, завдання після навчання, пов'язані з вирівнюванням поведінки, навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сценарії спільного навчання з участю крайових пристроїв. Ці завдання, як правило, мають високу паралельність, низьку зв'язаність та терпимість до гетерогенної обчислювальної потужності, що робить їх дуже придатними для спільного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори та інші способи.
Децентралізація тренування класичних проектів аналіз
На даний момент у сфері децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності інженерної реалізації, Prime Intellect, Nous Research та Pluralis.ai представили багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, що відображає сучасні теоретичні дослідження; в той час як шляхи реалізації Gensyn та Flock.io відносно чіткі, вже видно початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано ключові технології та інженерні архітектури цих п'яти проектів, а також далі обговорено їх відмінності та взаємодоповнюючі стосунки в децентралізованій системі навчання AI.
Prime Intellect: тренувальні траєкторії, що можуть бути перевірені, посилювальна навчальна кооперативна мережа-попередник
Prime Intellect прагне створити мережу навчання ШІ, що не вимагає довіри, дозволяючи будь-кому брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з верифікацією, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
01、Структура протоколу Prime Intellect та цінність ключових модулів
Основна архітектура Prime Intellect містить такі ключові модулі:
PRIME-RL: Архітектура задач декомпозованого асинхронного навчання з підкріпленням
TOPLOC: легкий механізм верифікації поведінки навчання
SHARDCAST: Асинхронний протокол агрегації та поширення ваг
02, Детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL є фреймворком моделювання та виконання задач, розробленим компанією Prime Intellect для децентралізованих тренувальних сценаріїв, спеціально створеним для гетерогенних мереж та асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структуруючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань на місцевому рівні та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами навчання під наглядом, PRIME-RL більше підходить для реалізації гнучкого навчання в середовищах без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельного виконання багатозадачності та еволюції стратегій.
TOPLOC – це основний механізм перевірки навчання, запропонований Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення всього моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальні траєкторії узгодженості між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії під час навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу винагороди за навчання без необхідності довіри, що забезпечує життєздатний шлях для створення аудиторських, заохочувальних децентралізованих мереж співпраці.
SHARDCAST є протоколом поширення та агрегування ваг, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та з мінливим станом вузлів реальних мережевих середовищ. Він поєднує механізм поширення gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах несинхронізованого стану, досягаючи поступової конвергенції ваг та еволюції з кількома версіями. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST суттєво підвищує масштабованість та відмовостійкість децентралізованого навчання, що є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo - це комунікаційний оптимізаційний фреймворк, незалежно реалізований і відкритий командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розроблений для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто виникають під час децентралізованого навчання. Його архітектура базується на паралельній обробці даних, шляхом побудови рідкісних топологічних структур, таких як кільця, розширювачі, малі світи, що дозволяє уникнути високих витрат на комунікацію глобальної синхронізації, покладаючись лише на сусідні локальні вузли для завершення спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, що значно підвищує можливість участі у глобальному кооперативному навчанні і є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.
PCCL є легковаговою бібліотекою зв'язку, розробленою Prime Intellect для децентралізованого середовища тренування ШІ, яка має на меті вирішення проблем адаптації традиційних бібліотек зв'язку на гетерогенних пристроях і мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він суттєво підвищує толерантність до пропускної спроможності мережі тренування та сумісність пристроїв, прокладаючи "останні кілометри" зв'язку для створення справді відкритої, без потреби в довірі мережі спільного тренування.
03、Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, що не потребує дозволів, є перевірною та має економічний стимул, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначає навчальне середовище, початкову модель, функцію винагороди та стандарт валідації
Тренувальний вузол: виконання локального навчання, подання оновлення ваг і спостереження за траєкторією
Вузли верифікації: використання механізму TOPLOC для перевірки справжності тренувальної поведінки та участі у розрахунку винагород та агрегації стратегій
Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг і виплату винагород, що утворює стимулююче замкнене коло навколо "реальних навчальних дій".
04、INTELLECT-2: Перше перевірене видання децентралізованої навчальної моделі
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель навчання з підкріпленням, створена за допомогою асинхронних, бездоповідних Децентралізація вузлів. Обсяг параметрів складає 32B. Модель INTELLECT-2 була спільно навчена на понад 100 гетерогенних вузлах з GPU, розташованих на трьох континентах.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 лайків
Нагородити
11
3
Поділіться
Прокоментувати
0/400
airdrop_whisperer
· 07-04 00:05
Хто ще продав свої графічні карти заради ШІ?
Переглянути оригіналвідповісти на0
GateUser-aa7df71e
· 07-01 22:27
Ця хвиля тренувань AI обов'язково буде великим пампом Створити позицію в самий раз
Децентралізація тренувань: аналіз передових технологій ШІ та порівняння представницьких проєктів
Децентралізація тренування: наступний рубіж AI
У всьому ланцюгу вартості ШІ, навчання моделей є найбільш ресурсомістким та найвищим за технічними бар'єрами етапом, що безпосередньо визначає верхню межу можливостей моделі та реальний ефект застосування. У порівнянні з легким викликом на етапі виводу, процес навчання вимагає постійних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Концентраційне навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи управління кластером до всіх компонентів навчальної рамки, координується єдиною системою контролю. Така глибока координація архітектури забезпечує оптимальну ефективність обміну пам'яттю, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії на дані, бар'єрів для ресурсів, енергоспоживання та ризиків єдиної точки.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одній машині. Хоча фізично має "дистрибутивні" характеристики, але в цілому все ще контролюється централізованими установами для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, де головний вузол координує всі підзавдання. Основні методи включають:
Розподілене навчання є поєднанням "централізоване керівництво + розподілене виконання", аналогічно тому, як один і той же керівник дистанційно координує співпрацю кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренувань означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основними характеристиками є: кілька взаємно недовірливих вузлів, які спільно виконують навчальні завдання без центрального координатора, зазвичай через протокол, що керує розподілом завдань і співпрацею, та за допомогою механізму заохочення через криптографію для забезпечення чесності внесків. Основними викликами, з якими стикається ця модель, є:
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносить обчислювальну потужність для спільного тренування моделі, але "дійсно здійсненне масове децентралізоване тренування" все ще є системним інженерним викликом, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделі та багато інших аспектів, але чи можливо "ефективно співпрацювати + стимулювати чесність + отримати правильні результати" все ще перебуває на етапі раннього прототипування.
Федеративне навчання як перехідна форма між розподіленим і Децентралізація підкреслює збереження даних на місцях і централізовану агрегацію параметрів моделі, що підходить для сценаріїв, що акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні можливості співпраці, а також має переваги розподілених даних у Децентралізація, але воно все ще залежить від надійних координаторів і не має повністю відкритих або антикорупційних характеристик. Його можна розглядати як "контрольовану Децентралізація" у сценаріях відповідності конфіденційності, з відносно м'якими вимогами до навчальних завдань, структур довіри та механізмів зв'язку, що робить його більш підходящим для перехідної архітектури впровадження в промисловості.
Децентралізація тренування: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях через складну структуру завдання, надвисокі вимоги до ресурсів або велику складність співпраці воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної спроможності, що ускладнює їх ефективний розподіл та синхронізацію в відкритих мережах; завдання, які мають сильні обмеження з точки зору конфіденційності даних та суверенітету, обмежені юридичною відповідністю та етичними нормами, не можуть бути відкритими для обміну; а завдання, які позбавлені основи для співпраці, не мають зовнішніх мотивацій для участі. Ці межі разом складають реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у типах завдань з легкою структурою, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: налаштування LoRA, завдання після навчання, пов'язані з вирівнюванням поведінки, навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сценарії спільного навчання з участю крайових пристроїв. Ці завдання, як правило, мають високу паралельність, низьку зв'язаність та терпимість до гетерогенної обчислювальної потужності, що робить їх дуже придатними для спільного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори та інші способи.
Децентралізація тренування класичних проектів аналіз
На даний момент у сфері децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності інженерної реалізації, Prime Intellect, Nous Research та Pluralis.ai представили багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, що відображає сучасні теоретичні дослідження; в той час як шляхи реалізації Gensyn та Flock.io відносно чіткі, вже видно початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано ключові технології та інженерні архітектури цих п'яти проектів, а також далі обговорено їх відмінності та взаємодоповнюючі стосунки в децентралізованій системі навчання AI.
Prime Intellect: тренувальні траєкторії, що можуть бути перевірені, посилювальна навчальна кооперативна мережа-попередник
Prime Intellect прагне створити мережу навчання ШІ, що не вимагає довіри, дозволяючи будь-кому брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з верифікацією, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
01、Структура протоколу Prime Intellect та цінність ключових модулів
Основна архітектура Prime Intellect містить такі ключові модулі:
02, Детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL є фреймворком моделювання та виконання задач, розробленим компанією Prime Intellect для децентралізованих тренувальних сценаріїв, спеціально створеним для гетерогенних мереж та асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структуруючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань на місцевому рівні та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами навчання під наглядом, PRIME-RL більше підходить для реалізації гнучкого навчання в середовищах без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельного виконання багатозадачності та еволюції стратегій.
TOPLOC – це основний механізм перевірки навчання, запропонований Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення всього моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальні траєкторії узгодженості між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії під час навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу винагороди за навчання без необхідності довіри, що забезпечує життєздатний шлях для створення аудиторських, заохочувальних децентралізованих мереж співпраці.
SHARDCAST є протоколом поширення та агрегування ваг, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та з мінливим станом вузлів реальних мережевих середовищ. Він поєднує механізм поширення gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах несинхронізованого стану, досягаючи поступової конвергенції ваг та еволюції з кількома версіями. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST суттєво підвищує масштабованість та відмовостійкість децентралізованого навчання, що є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo - це комунікаційний оптимізаційний фреймворк, незалежно реалізований і відкритий командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розроблений для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто виникають під час децентралізованого навчання. Його архітектура базується на паралельній обробці даних, шляхом побудови рідкісних топологічних структур, таких як кільця, розширювачі, малі світи, що дозволяє уникнути високих витрат на комунікацію глобальної синхронізації, покладаючись лише на сусідні локальні вузли для завершення спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, що значно підвищує можливість участі у глобальному кооперативному навчанні і є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.
PCCL є легковаговою бібліотекою зв'язку, розробленою Prime Intellect для децентралізованого середовища тренування ШІ, яка має на меті вирішення проблем адаптації традиційних бібліотек зв'язку на гетерогенних пристроях і мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він суттєво підвищує толерантність до пропускної спроможності мережі тренування та сумісність пристроїв, прокладаючи "останні кілометри" зв'язку для створення справді відкритої, без потреби в довірі мережі спільного тренування.
03、Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, що не потребує дозволів, є перевірною та має економічний стимул, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг і виплату винагород, що утворює стимулююче замкнене коло навколо "реальних навчальних дій".
04、INTELLECT-2: Перше перевірене видання децентралізованої навчальної моделі
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель навчання з підкріпленням, створена за допомогою асинхронних, бездоповідних Децентралізація вузлів. Обсяг параметрів складає 32B. Модель INTELLECT-2 була спільно навчена на понад 100 гетерогенних вузлах з GPU, розташованих на трьох континентах.