الكأس المقدسة للذكاء الاصطناعي في العملات المشفرة: استكشافات متقدمة في التدريب اللامركزي
في سلسلة القيمة الكاملة للذكاء الاصطناعي، يعتبر تدريب النماذج هو المرحلة الأكثر استهلاكًا للموارد والأعلى في متطلبات التكنولوجيا، حيث يحدد مباشرة الحد الأقصى لقدرات النموذج وفعالية تطبيقه الفعلي. بالمقارنة مع الاستدعاء الخفيف في مرحلة الاستدلال، يتطلب عملية التدريب استثمارًا مستمرًا في قوة الحوسبة الكبيرة، وعمليات معالجة البيانات المعقدة، ودعم خوارزميات التحسين عالية الكثافة، مما يجعلها "صناعة ثقيلة" حقيقية لبناء أنظمة الذكاء الاصطناعي. من حيث نماذج البنية، يمكن تصنيف طرق التدريب إلى أربع فئات: التدريب المركزي، التدريب الموزع، التعلم الفيدرالي، والتدريب اللامركزي الذي سيتم مناقشته في هذه المقالة.
تعتبر التدريبات المركزية هي الطريقة التقليدية الأكثر شيوعًا، حيث يتم إكمال جميع عمليات التدريب بواسطة مؤسسة واحدة داخل مجموعة عالية الأداء محليًا، من الأجهزة، والبرمجيات الأساسية، ونظام جدولة المجموعات، إلى جميع مكونات إطار التدريب، يتم تنسيق تشغيلها بواسطة نظام تحكم موحد. تتيح هذه البنية التحتية المتكاملة تحقيق أفضل كفاءة في مشاركة الذاكرة، وتزامن التدرجات، وآليات تحمل الأخطاء، مما يجعلها مناسبة جدًا لتدريب نماذج كبيرة مثل GPT وGemini، مع مزايا عالية الكفاءة وقابلية التحكم في الموارد، ولكن في الوقت نفسه تواجه مشاكل مثل احتكار البيانات، وحواجز الموارد، واستهلاك الطاقة، ومخاطر النقاط الفردية.
التدريب الموزع هو الأسلوب السائد حاليًا في تدريب النماذج الكبيرة، حيث يكمن جوهره في تفكيك مهمة تدريب النموذج ثم توزيعها على عدة آلات لتنفيذها بشكل متعاون، بهدف تجاوز قيود الحساب والتخزين على جهاز واحد. على الرغم من أن لديها خصائص "اللامركزية" من الناحية الفيزيائية، إلا أن الإجمالي لا يزال تحت سيطرة هيئة مركزية تتحكم في الجدولة والتزامن، وغالبًا ما تعمل في بيئة شبكة محلية سريعة، من خلال تقنية NVLink للوصلات السريعة، حيث يقوم العقدة الرئيسية بتنسيق المهام الفرعية بشكل موحد. تشمل الأساليب السائدة:
البيانات المتوازية: كل عقدة تدرب معلمات بيانات مختلفة مع مشاركة الوزن النموذجي، يجب أن تتطابق أوزان النموذج
التوازي النموذجي: نشر أجزاء مختلفة من النموذج على عقد مختلفة لتحقيق قابلية توسيع قوية
أنابيب متوازية: تنفيذ متسلسل على مراحل، زيادة معدل الإنتاج
التوازي التنسوري: تقسيم دقيق لحساب المصفوفات، تحسين حجم التوازي
التدريب الموزع هو مزيج من "التحكم المركزي + التنفيذ الموزع"، يشبه توجيه نفس المدير لعدة موظفين في "مكاتب" مختلفة للتعاون في إنجاز المهام. في الوقت الحالي، يتم تدريب جميع النماذج الكبيرة الرئيسية تقريبًا بهذه الطريقة.
اللامركزية التدريبية تمثل مساراً مستقبلياً أكثر انفتاحاً ومقاومةً للرقابة. تتمثل ميزتها الأساسية في: عدة نقاط غير موثوقة ( قد تكون أجهزة كمبيوتر منزلية، أو GPU سحابية، أو أجهزة طرفية ) تتعاون في إتمام مهام التدريب دون وجود منسق مركزي، عادةً من خلال بروتوكولات تدفع توزيع المهام والتعاون، وتستخدم آليات تشفير لضمان نزاهة المساهمات. تشمل التحديات الرئيسية التي تواجه هذا النموذج:
صعوبة تباين الأجهزة والتقسيم: صعوبة التنسيق بين الأجهزة اللامركزية، وكفاءة تقسيم المهام منخفضة
عنق الزجاجة في كفاءة الاتصال: الاتصال الشبكي غير مستقر، وعائق التزامن في التدرج واضح.
نقص التنفيذ الموثوق: نقص في بيئة التنفيذ الموثوق، مما يجعل من الصعب التحقق مما إذا كانت العقدة تشارك فعليًا في الحساب
نقص التنسيق الموحد: لا يوجد مركز للتحكم, توزيع المهام، وآلية التراجع عن الأخطاء معقدة
يمكن فهم التدريب اللامركزي على أنه: مجموعة من المتطوعين من جميع أنحاء العالم، يساهمون كل منهم بقوة الحوسبة لتدريب النموذج بشكل تعاوني، ولكن "التدريب اللامركزي الكبير القابل للتطبيق حقًا" لا يزال يمثل تحديًا هندسيًا منهجيًا، يتضمن بنية النظام، بروتوكولات الاتصال، أمان التشفير، الآليات الاقتصادية، والتحقق من النموذج، ولكن ما إذا كان يمكن "التعاون بشكل فعال + تحفيز الأمانة + صحة النتائج" لا يزال في مرحلة استكشاف النماذج الأولية المبكرة.
التعلم الفدرالي كمرحلة انتقالية بين التوزيع واللامركزية، يركز على الاحتفاظ بالبيانات محليًا، وتجميع معلمات النموذج مركزيًا، وهو مناسب للسيناريوهات التي تركز على الامتثال للخصوصية ( مثل الرعاية الصحية، والمالية ). يتميز التعلم الفدرالي بهيكل هندسي للتدريب الموزع وقدرة على التعاون المحلي، بينما يحتفظ بمزايا توزيع البيانات في التدريب اللامركزي، ولكنه لا يزال يعتمد على جهة تنسيق موثوقة، ولا يتمتع بخصائص الانفتاح الكامل والمقاومة للرقابة. يمكن اعتباره "لامركزية خاضعة للتحكم" في سياقات الامتثال للخصوصية، حيث تكون مهام التدريب، وبنية الثقة، وآليات الاتصال معتدلة نسبيًا، مما يجعله أكثر ملاءمة كهيكل نشر انتقالي في الصناعة.
اللامركزية تدريب الحدود، الفرص والطرق الواقعية
من حيث نماذج التدريب، فإن التدريب اللامركزي لا يناسب جميع أنواع المهام. في بعض السيناريوهات، بسبب تعقيد هيكل المهمة، وارتفاع متطلبات الموارد، أو صعوبة التعاون، فإنه ليس من الطبيعي أن يتم إكماله بكفاءة بين العقد غير المتجانسة والموثوقة. على سبيل المثال، يعتمد تدريب النماذج الكبيرة غالبًا على سعة ذاكرة عالية، وزمن استجابة منخفض، وعرض نطاق ترددي عالٍ، مما يجعل من الصعب تقسيمه ومزامنته بفعالية في الشبكات المفتوحة؛ كما أن المهام التي تتطلب خصوصية البيانات وقيود السيادة القوية مثل الرعاية الصحية، والمالية، وبيانات سرية ( تخضع للامتثال القانوني والقيود الأخلاقية، مما يمنع المشاركة المفتوحة؛ بينما تفتقر المهام التي تفتقر إلى قاعدة حوافز التعاون مثل نماذج الشركات المغلقة أو تدريب النماذج الأولية الداخلية ) إلى دوافع المشاركة الخارجية. تشكل هذه الحدود معًا القيود الواقعية الحالية للتدريب اللامركزي.
لكن هذا لا يعني أن التدريب اللامركزي هو فكرة زائفة. في الواقع، في أنواع المهام الخفيفة الهيكل، سهلة التوازي، القابلة للتحفيز، يظهر التدريب اللامركزي آفاق تطبيق واضحة. بما في ذلك، على سبيل المثال لا الحصر: ضبط LoRA، المهام بعد التدريب الموجهة للتوافق السلوكي ( مثل RLHF، DPO )، تدريب وتأشير البيانات من خلال الحشود، تدريب نماذج أساسية صغيرة قابلة للتحكم في الموارد، وكذلك سيناريوهات التدريب التعاوني بمشاركة الأجهزة الطرفية. تتميز هذه المهام عمومًا بارتفاع قابلية التوازي، وانخفاض الترابط، والقدرة على تحمل القوة الحوسبية غير المتجانسة، مما يجعلها مناسبة جدًا للتدريب التعاوني من خلال شبكات P2P، بروتوكولات Swarm، والمُحسِّنات الموزعة.
تحليل المشاريع الكلاسيكية للتدريب اللامركزي
في الوقت الحالي، تشمل المشاريع البلوكتشين الممثلة في مجال التدريب اللامركزي والتعلم الفيدرالي كل من Prime Intellect و Pluralis.ai و Gensyn و Nous Research و Flock.io. من حيث الابتكار التكنولوجي وصعوبة التنفيذ الهندسي، قدمت Prime Intellect و Nous Research و Pluralis.ai العديد من الاستكشافات الأصلية في تصميم النظام والخوارزميات، مما يمثل الاتجاهات الرائدة في البحث النظري الحالي؛ بينما طرق تنفيذ Gensyn و Flock.io واضحة نسبيًا، ويمكن رؤية تقدم هندسي أولي. ستقوم هذه المقالة بتحليل التقنيات الأساسية والهياكل الهندسية وراء هذه المشاريع الخمسة، ومناقشة الفروقات والعلاقات التكميلية في نظام تدريب الذكاء الاصطناعي اللامركزي.
( Prime Intellect: رائد شبكة التعلم المعزز التعاونية القابلة للتحقق من مسار التدريب
تكرّس Prime Intellect جهودها لبناء شبكة تدريب AI لا تتطلب الثقة، مما يسمح لأي شخص بالمشاركة في التدريب، والحصول على مكافآت موثوقة مقابل مساهماته الحاسوبية. تأمل Prime Intellect من خلال ثلاثة مكونات هي PRIME-RL و TOPLOC و SHARDCAST، في بناء نظام تدريب AI اللامركزي الذي يتميز بالتحقق، والانفتاح، وآلية الحوافز الكاملة.
)# 01، هيكل بروتوكول Prime Intellect والهيكل القيمي للوحدات الرئيسية
![كأس المقدس للذكاء الاصطناعي: استكشاف الحدود لتدريب اللامركزية]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp###
(# 02، شرح آلية التدريب الرئيسية لـ Prime Intellect
#PRIME-RL: هيكل مهمة التعلم المعزز غير المتزامن المفكك
PRIME-RL هو إطار نمذجة وتنفيذ المهام المصمم خصيصًا من قبل Prime Intellect لمشاهد التدريب اللامركزية، وهو مصمم خصيصًا للشبكات غير المتجانسة والمشاركة غير المتزامنة. يستخدم التعلم المعزز كهدف رئيسي للتكيف، ويفصل هيكليًا عملية التدريب والاستدلال وتحميل الأوزان، مما يسمح لكل عقدة تدريب بإكمال دورة المهام بشكل مستقل محليًا، والتعاون من خلال واجهات موحدة وآليات التحقق والتجميع. مقارنة بعمليات التعلم الخاضعة للإشراف التقليدية، فإن PRIME-RL أكثر ملاءمة لتحقيق التدريب المرن في بيئات بدون جدولة مركزية، مما يقلل من تعقيد النظام، كما أنه يضع الأساس لدعم المهام المتعددة بالتوازي وتطور الاستراتيجيات.
#TOPLOC:آلية تحقق سلوك التدريب الخفيف الوزن
TOPLOC)المراقبة الموثوقة والتحقق من السياسة-الموقع### هو آلية أساسية تم اقتراحها بواسطة Prime Intellect للتحقق من قابلية التدريب، تُستخدم لتحديد ما إذا كان العقدة قد أكملت فعلاً تعلم استراتيجية فعالة بناءً على بيانات المراقبة. على عكس الحلول الثقيلة مثل ZKML، لا يعتمد TOPLOC على إعادة حساب النموذج بالكامل، بل يتم التحقق من الهيكل الخفيف من خلال تحليل "تسلسل المراقبة↔تحديث الاستراتيجية" بين المسارات المحلية التوافقية. إنها تحول لأول مرة السلوكيات الملاحظة خلال عملية التدريب إلى كائنات قابلة للتحقق، وهي الابتكار الرئيسي لتحقيق توزيع مكافآت التدريب دون الحاجة إلى ثقة، مما يوفر مسارًا قابلاً للتطبيق لبناء شبكة تدريب تعاونية لامركزية قابلة للتدقيق والتحفيز.
#SHARDCAST: بروتوكول تجميع الأوزان غير المتزامن ونشرها
SHARDCAST هو بروتوكول انتشار وتجمع الوزن مصمم من قبل Prime Intellect، ومُحسَّن خصيصًا للبيئات الشبكية الحقيقية التي تكون غير متزامنة، وذات عرض نطاق محدود، وحالة العقد فيها متغيرة. يجمع بين آلية نشر القيل والقال واستراتيجية التزامن المحلي، مما يسمح لعدة عقد بتقديم تحديثات جزئية باستمرار في حالة غير متزامنة، مما يحقق تقاربًا تدريجيًا للوزن وتطورات متعددة النسخ. بالمقارنة مع طرق AllReduce المركزية أو المتزامنة، يُحسن SHARDCAST بشكل ملحوظ من قابلية توسيع التدريب اللامركزي وقدرته على تحمل الأخطاء، وهو الأساس الرئيسي لبناء توافق وزن مستقر وتدريب مستمر.
#OpenDiLoCo: إطار الاتصال غير المتزامن النادر
OpenDiLoCo هو إطار عمل لتحسين الاتصال تم تنفيذه بشكل مستقل ومفتوح المصدر من قبل فريق Prime Intellect بناءً على مفهوم DiLoCo الذي اقترحته DeepMind، ومصمم خصيصًا للتحديات الشائعة مثل قيود النطاق الترددي، والتنوع في الأجهزة، وعدم استقرار العقد في التدريب اللامركزي. يعتمد هيكله على التوازي في البيانات، من خلال بناء هياكل طوبولوجية نادرة مثل Ring وExpander وSmall-World، مما يتجنب التكلفة العالية للتزامن العالمي، ويعتمد فقط على العقد المجاورة المحلية لإكمال تدريب النموذج بشكل تعاوني. بالت结合 مع التحديث غير المتزامن وآلية تحمل الأخطاء، يجعل OpenDiLoCo وحدات معالجة الرسوميات من الفئة الاستهلاكية والأجهزة الطرفية تشارك بشكل مستقر في مهام التدريب، مما يعزز بشكل كبير إمكانية المشاركة في التدريب التعاوني العالمي، ويعتبر أحد البنى التحتية الأساسية للاتصالات في بناء شبكة التدريب اللامركزية.
#PCCL: مكتبة الاتصالات التعاونية
PCCL(Prime Collective Communication Library) هو مكتبة اتصالات خفيفة الوزن تم تصميمها بواسطة Prime Intellect لبيئة تدريب AI اللامركزية، وتهدف إلى حل عنق الزجاجة في التكيف مع المكتبات التقليدية( مثل NCCL وGloo) في الأجهزة المتنوعة والشبكات ذات النطاق الترددي المنخفض. يدعم PCCL التوبولوجيا المتناثرة، وضغط التدرجات، والتزامن منخفض الدقة واستعادة النقاط، ويمكن تشغيله على وحدات معالجة الرسومات من فئة المستهلك والعقد غير المستقرة، وهو مكون أساسي يدعم قدرة الاتصال غير المتزامن لبروتوكول OpenDiLoCo. إنه يعزز بشكل كبير من تحمل عرض النطاق الترددي لشبكة التدريب وتوافق الأجهزة، ويفتح "آخر كيلومتر" من البنية التحتية للاتصالات لبناء شبكة تدريب تعاونية حقيقية مفتوحة وموثوقة.
(# 03، شبكة Prime Intellect للتحفيز وتقسيم الأدوار
بني Prime Intellect شبكة تدريب قابلة للتحقق، بدون إذن، وتتميز بآلية تحفيز اقتصادية، مما يسمح لأي شخص بالمشاركة في المهام والحصول على مكافآت بناءً على المساهمات الحقيقية. يعمل البروتوكول على أساس ثلاثة أنواع من الأدوار الأساسية:
عقد التدريب: تنفيذ التدريب المحلي، تقديم تحديثات الوزن ومسارات المراقبة
عقد التحقق: استخدام آلية TOPLOC للتحقق من صحة سلوك التدريب، والمشاركة في حساب المكافآت وتجميع الاستراتيجيات
تشمل العملية الأساسية للبروتوكول نشر المهام، تدريب العقد، التحقق من المسارات، تجميع الأوزان )SHARDCAST### وتوزيع المكافآت، مما يشكل حلقة تحفيزية تدور حول "سلوك التدريب الحقيقي".
(# 04، INTELLECT-2: أول نموذج تدريب لامركزي قابل للتحقق يتم إصداره
أصدرت Prime Intellect في مايو 2025 INTELLECT-2، وهو النموذج الكبير للتعلم المعزز الأول في العالم الذي تم تدريبه بواسطة عقد لامركزية غير موثوقة ومتزامنة، بحجم معلمات يصل إلى 32B. تم تدريب نموذج INTELLECT-2 بواسطة أكثر من 100 عقدة GPU غير متجانسة منتشرة عبر ثلاث قارات، باستخدام بنية متزامنة بالكامل، واستغرق التدريب أكثر من 400 ساعة.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 20
أعجبني
20
7
مشاركة
تعليق
0/400
DAOTruant
· 07-10 05:05
لماذا جعل الأمور معقدة هكذا؟ من الأفضل أن نستفيد مباشرة من النموذج الكبير.
شاهد النسخة الأصليةرد0
LuckyBlindCat
· 07-10 05:03
哈哈 قوة الحوسبة太贵 谁折腾得起
شاهد النسخة الأصليةرد0
MondayYoloFridayCry
· 07-07 07:57
تدريب هذا يكلف الكثير من المال، متى يمكن أن نحصل على ذكاء اصطناعي منزلي؟
اللامركزية تدريب الحدود استكشاف: Prime Intellect بناء شبكة تعاون AI
الكأس المقدسة للذكاء الاصطناعي في العملات المشفرة: استكشافات متقدمة في التدريب اللامركزي
في سلسلة القيمة الكاملة للذكاء الاصطناعي، يعتبر تدريب النماذج هو المرحلة الأكثر استهلاكًا للموارد والأعلى في متطلبات التكنولوجيا، حيث يحدد مباشرة الحد الأقصى لقدرات النموذج وفعالية تطبيقه الفعلي. بالمقارنة مع الاستدعاء الخفيف في مرحلة الاستدلال، يتطلب عملية التدريب استثمارًا مستمرًا في قوة الحوسبة الكبيرة، وعمليات معالجة البيانات المعقدة، ودعم خوارزميات التحسين عالية الكثافة، مما يجعلها "صناعة ثقيلة" حقيقية لبناء أنظمة الذكاء الاصطناعي. من حيث نماذج البنية، يمكن تصنيف طرق التدريب إلى أربع فئات: التدريب المركزي، التدريب الموزع، التعلم الفيدرالي، والتدريب اللامركزي الذي سيتم مناقشته في هذه المقالة.
تعتبر التدريبات المركزية هي الطريقة التقليدية الأكثر شيوعًا، حيث يتم إكمال جميع عمليات التدريب بواسطة مؤسسة واحدة داخل مجموعة عالية الأداء محليًا، من الأجهزة، والبرمجيات الأساسية، ونظام جدولة المجموعات، إلى جميع مكونات إطار التدريب، يتم تنسيق تشغيلها بواسطة نظام تحكم موحد. تتيح هذه البنية التحتية المتكاملة تحقيق أفضل كفاءة في مشاركة الذاكرة، وتزامن التدرجات، وآليات تحمل الأخطاء، مما يجعلها مناسبة جدًا لتدريب نماذج كبيرة مثل GPT وGemini، مع مزايا عالية الكفاءة وقابلية التحكم في الموارد، ولكن في الوقت نفسه تواجه مشاكل مثل احتكار البيانات، وحواجز الموارد، واستهلاك الطاقة، ومخاطر النقاط الفردية.
التدريب الموزع هو الأسلوب السائد حاليًا في تدريب النماذج الكبيرة، حيث يكمن جوهره في تفكيك مهمة تدريب النموذج ثم توزيعها على عدة آلات لتنفيذها بشكل متعاون، بهدف تجاوز قيود الحساب والتخزين على جهاز واحد. على الرغم من أن لديها خصائص "اللامركزية" من الناحية الفيزيائية، إلا أن الإجمالي لا يزال تحت سيطرة هيئة مركزية تتحكم في الجدولة والتزامن، وغالبًا ما تعمل في بيئة شبكة محلية سريعة، من خلال تقنية NVLink للوصلات السريعة، حيث يقوم العقدة الرئيسية بتنسيق المهام الفرعية بشكل موحد. تشمل الأساليب السائدة:
التدريب الموزع هو مزيج من "التحكم المركزي + التنفيذ الموزع"، يشبه توجيه نفس المدير لعدة موظفين في "مكاتب" مختلفة للتعاون في إنجاز المهام. في الوقت الحالي، يتم تدريب جميع النماذج الكبيرة الرئيسية تقريبًا بهذه الطريقة.
اللامركزية التدريبية تمثل مساراً مستقبلياً أكثر انفتاحاً ومقاومةً للرقابة. تتمثل ميزتها الأساسية في: عدة نقاط غير موثوقة ( قد تكون أجهزة كمبيوتر منزلية، أو GPU سحابية، أو أجهزة طرفية ) تتعاون في إتمام مهام التدريب دون وجود منسق مركزي، عادةً من خلال بروتوكولات تدفع توزيع المهام والتعاون، وتستخدم آليات تشفير لضمان نزاهة المساهمات. تشمل التحديات الرئيسية التي تواجه هذا النموذج:
يمكن فهم التدريب اللامركزي على أنه: مجموعة من المتطوعين من جميع أنحاء العالم، يساهمون كل منهم بقوة الحوسبة لتدريب النموذج بشكل تعاوني، ولكن "التدريب اللامركزي الكبير القابل للتطبيق حقًا" لا يزال يمثل تحديًا هندسيًا منهجيًا، يتضمن بنية النظام، بروتوكولات الاتصال، أمان التشفير، الآليات الاقتصادية، والتحقق من النموذج، ولكن ما إذا كان يمكن "التعاون بشكل فعال + تحفيز الأمانة + صحة النتائج" لا يزال في مرحلة استكشاف النماذج الأولية المبكرة.
التعلم الفدرالي كمرحلة انتقالية بين التوزيع واللامركزية، يركز على الاحتفاظ بالبيانات محليًا، وتجميع معلمات النموذج مركزيًا، وهو مناسب للسيناريوهات التي تركز على الامتثال للخصوصية ( مثل الرعاية الصحية، والمالية ). يتميز التعلم الفدرالي بهيكل هندسي للتدريب الموزع وقدرة على التعاون المحلي، بينما يحتفظ بمزايا توزيع البيانات في التدريب اللامركزي، ولكنه لا يزال يعتمد على جهة تنسيق موثوقة، ولا يتمتع بخصائص الانفتاح الكامل والمقاومة للرقابة. يمكن اعتباره "لامركزية خاضعة للتحكم" في سياقات الامتثال للخصوصية، حيث تكون مهام التدريب، وبنية الثقة، وآليات الاتصال معتدلة نسبيًا، مما يجعله أكثر ملاءمة كهيكل نشر انتقالي في الصناعة.
اللامركزية تدريب الحدود، الفرص والطرق الواقعية
من حيث نماذج التدريب، فإن التدريب اللامركزي لا يناسب جميع أنواع المهام. في بعض السيناريوهات، بسبب تعقيد هيكل المهمة، وارتفاع متطلبات الموارد، أو صعوبة التعاون، فإنه ليس من الطبيعي أن يتم إكماله بكفاءة بين العقد غير المتجانسة والموثوقة. على سبيل المثال، يعتمد تدريب النماذج الكبيرة غالبًا على سعة ذاكرة عالية، وزمن استجابة منخفض، وعرض نطاق ترددي عالٍ، مما يجعل من الصعب تقسيمه ومزامنته بفعالية في الشبكات المفتوحة؛ كما أن المهام التي تتطلب خصوصية البيانات وقيود السيادة القوية مثل الرعاية الصحية، والمالية، وبيانات سرية ( تخضع للامتثال القانوني والقيود الأخلاقية، مما يمنع المشاركة المفتوحة؛ بينما تفتقر المهام التي تفتقر إلى قاعدة حوافز التعاون مثل نماذج الشركات المغلقة أو تدريب النماذج الأولية الداخلية ) إلى دوافع المشاركة الخارجية. تشكل هذه الحدود معًا القيود الواقعية الحالية للتدريب اللامركزي.
لكن هذا لا يعني أن التدريب اللامركزي هو فكرة زائفة. في الواقع، في أنواع المهام الخفيفة الهيكل، سهلة التوازي، القابلة للتحفيز، يظهر التدريب اللامركزي آفاق تطبيق واضحة. بما في ذلك، على سبيل المثال لا الحصر: ضبط LoRA، المهام بعد التدريب الموجهة للتوافق السلوكي ( مثل RLHF، DPO )، تدريب وتأشير البيانات من خلال الحشود، تدريب نماذج أساسية صغيرة قابلة للتحكم في الموارد، وكذلك سيناريوهات التدريب التعاوني بمشاركة الأجهزة الطرفية. تتميز هذه المهام عمومًا بارتفاع قابلية التوازي، وانخفاض الترابط، والقدرة على تحمل القوة الحوسبية غير المتجانسة، مما يجعلها مناسبة جدًا للتدريب التعاوني من خلال شبكات P2P، بروتوكولات Swarm، والمُحسِّنات الموزعة.
تحليل المشاريع الكلاسيكية للتدريب اللامركزي
في الوقت الحالي، تشمل المشاريع البلوكتشين الممثلة في مجال التدريب اللامركزي والتعلم الفيدرالي كل من Prime Intellect و Pluralis.ai و Gensyn و Nous Research و Flock.io. من حيث الابتكار التكنولوجي وصعوبة التنفيذ الهندسي، قدمت Prime Intellect و Nous Research و Pluralis.ai العديد من الاستكشافات الأصلية في تصميم النظام والخوارزميات، مما يمثل الاتجاهات الرائدة في البحث النظري الحالي؛ بينما طرق تنفيذ Gensyn و Flock.io واضحة نسبيًا، ويمكن رؤية تقدم هندسي أولي. ستقوم هذه المقالة بتحليل التقنيات الأساسية والهياكل الهندسية وراء هذه المشاريع الخمسة، ومناقشة الفروقات والعلاقات التكميلية في نظام تدريب الذكاء الاصطناعي اللامركزي.
( Prime Intellect: رائد شبكة التعلم المعزز التعاونية القابلة للتحقق من مسار التدريب
تكرّس Prime Intellect جهودها لبناء شبكة تدريب AI لا تتطلب الثقة، مما يسمح لأي شخص بالمشاركة في التدريب، والحصول على مكافآت موثوقة مقابل مساهماته الحاسوبية. تأمل Prime Intellect من خلال ثلاثة مكونات هي PRIME-RL و TOPLOC و SHARDCAST، في بناء نظام تدريب AI اللامركزي الذي يتميز بالتحقق، والانفتاح، وآلية الحوافز الكاملة.
)# 01، هيكل بروتوكول Prime Intellect والهيكل القيمي للوحدات الرئيسية
![كأس المقدس للذكاء الاصطناعي: استكشاف الحدود لتدريب اللامركزية]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp###
(# 02، شرح آلية التدريب الرئيسية لـ Prime Intellect
#PRIME-RL: هيكل مهمة التعلم المعزز غير المتزامن المفكك
PRIME-RL هو إطار نمذجة وتنفيذ المهام المصمم خصيصًا من قبل Prime Intellect لمشاهد التدريب اللامركزية، وهو مصمم خصيصًا للشبكات غير المتجانسة والمشاركة غير المتزامنة. يستخدم التعلم المعزز كهدف رئيسي للتكيف، ويفصل هيكليًا عملية التدريب والاستدلال وتحميل الأوزان، مما يسمح لكل عقدة تدريب بإكمال دورة المهام بشكل مستقل محليًا، والتعاون من خلال واجهات موحدة وآليات التحقق والتجميع. مقارنة بعمليات التعلم الخاضعة للإشراف التقليدية، فإن PRIME-RL أكثر ملاءمة لتحقيق التدريب المرن في بيئات بدون جدولة مركزية، مما يقلل من تعقيد النظام، كما أنه يضع الأساس لدعم المهام المتعددة بالتوازي وتطور الاستراتيجيات.
#TOPLOC:آلية تحقق سلوك التدريب الخفيف الوزن
TOPLOC)المراقبة الموثوقة والتحقق من السياسة-الموقع### هو آلية أساسية تم اقتراحها بواسطة Prime Intellect للتحقق من قابلية التدريب، تُستخدم لتحديد ما إذا كان العقدة قد أكملت فعلاً تعلم استراتيجية فعالة بناءً على بيانات المراقبة. على عكس الحلول الثقيلة مثل ZKML، لا يعتمد TOPLOC على إعادة حساب النموذج بالكامل، بل يتم التحقق من الهيكل الخفيف من خلال تحليل "تسلسل المراقبة↔تحديث الاستراتيجية" بين المسارات المحلية التوافقية. إنها تحول لأول مرة السلوكيات الملاحظة خلال عملية التدريب إلى كائنات قابلة للتحقق، وهي الابتكار الرئيسي لتحقيق توزيع مكافآت التدريب دون الحاجة إلى ثقة، مما يوفر مسارًا قابلاً للتطبيق لبناء شبكة تدريب تعاونية لامركزية قابلة للتدقيق والتحفيز.
#SHARDCAST: بروتوكول تجميع الأوزان غير المتزامن ونشرها
SHARDCAST هو بروتوكول انتشار وتجمع الوزن مصمم من قبل Prime Intellect، ومُحسَّن خصيصًا للبيئات الشبكية الحقيقية التي تكون غير متزامنة، وذات عرض نطاق محدود، وحالة العقد فيها متغيرة. يجمع بين آلية نشر القيل والقال واستراتيجية التزامن المحلي، مما يسمح لعدة عقد بتقديم تحديثات جزئية باستمرار في حالة غير متزامنة، مما يحقق تقاربًا تدريجيًا للوزن وتطورات متعددة النسخ. بالمقارنة مع طرق AllReduce المركزية أو المتزامنة، يُحسن SHARDCAST بشكل ملحوظ من قابلية توسيع التدريب اللامركزي وقدرته على تحمل الأخطاء، وهو الأساس الرئيسي لبناء توافق وزن مستقر وتدريب مستمر.
#OpenDiLoCo: إطار الاتصال غير المتزامن النادر
OpenDiLoCo هو إطار عمل لتحسين الاتصال تم تنفيذه بشكل مستقل ومفتوح المصدر من قبل فريق Prime Intellect بناءً على مفهوم DiLoCo الذي اقترحته DeepMind، ومصمم خصيصًا للتحديات الشائعة مثل قيود النطاق الترددي، والتنوع في الأجهزة، وعدم استقرار العقد في التدريب اللامركزي. يعتمد هيكله على التوازي في البيانات، من خلال بناء هياكل طوبولوجية نادرة مثل Ring وExpander وSmall-World، مما يتجنب التكلفة العالية للتزامن العالمي، ويعتمد فقط على العقد المجاورة المحلية لإكمال تدريب النموذج بشكل تعاوني. بالت结合 مع التحديث غير المتزامن وآلية تحمل الأخطاء، يجعل OpenDiLoCo وحدات معالجة الرسوميات من الفئة الاستهلاكية والأجهزة الطرفية تشارك بشكل مستقر في مهام التدريب، مما يعزز بشكل كبير إمكانية المشاركة في التدريب التعاوني العالمي، ويعتبر أحد البنى التحتية الأساسية للاتصالات في بناء شبكة التدريب اللامركزية.
#PCCL: مكتبة الاتصالات التعاونية
PCCL(Prime Collective Communication Library) هو مكتبة اتصالات خفيفة الوزن تم تصميمها بواسطة Prime Intellect لبيئة تدريب AI اللامركزية، وتهدف إلى حل عنق الزجاجة في التكيف مع المكتبات التقليدية( مثل NCCL وGloo) في الأجهزة المتنوعة والشبكات ذات النطاق الترددي المنخفض. يدعم PCCL التوبولوجيا المتناثرة، وضغط التدرجات، والتزامن منخفض الدقة واستعادة النقاط، ويمكن تشغيله على وحدات معالجة الرسومات من فئة المستهلك والعقد غير المستقرة، وهو مكون أساسي يدعم قدرة الاتصال غير المتزامن لبروتوكول OpenDiLoCo. إنه يعزز بشكل كبير من تحمل عرض النطاق الترددي لشبكة التدريب وتوافق الأجهزة، ويفتح "آخر كيلومتر" من البنية التحتية للاتصالات لبناء شبكة تدريب تعاونية حقيقية مفتوحة وموثوقة.
(# 03، شبكة Prime Intellect للتحفيز وتقسيم الأدوار
بني Prime Intellect شبكة تدريب قابلة للتحقق، بدون إذن، وتتميز بآلية تحفيز اقتصادية، مما يسمح لأي شخص بالمشاركة في المهام والحصول على مكافآت بناءً على المساهمات الحقيقية. يعمل البروتوكول على أساس ثلاثة أنواع من الأدوار الأساسية:
تشمل العملية الأساسية للبروتوكول نشر المهام، تدريب العقد، التحقق من المسارات، تجميع الأوزان )SHARDCAST### وتوزيع المكافآت، مما يشكل حلقة تحفيزية تدور حول "سلوك التدريب الحقيقي".
(# 04، INTELLECT-2: أول نموذج تدريب لامركزي قابل للتحقق يتم إصداره
أصدرت Prime Intellect في مايو 2025 INTELLECT-2، وهو النموذج الكبير للتعلم المعزز الأول في العالم الذي تم تدريبه بواسطة عقد لامركزية غير موثوقة ومتزامنة، بحجم معلمات يصل إلى 32B. تم تدريب نموذج INTELLECT-2 بواسطة أكثر من 100 عقدة GPU غير متجانسة منتشرة عبر ثلاث قارات، باستخدام بنية متزامنة بالكامل، واستغرق التدريب أكثر من 400 ساعة.