Trong toàn bộ chuỗi giá trị AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy luận nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ của các thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học tập liên bang và huấn luyện Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo theo cách tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này giúp chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini với những lợi thế về hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính cho việc đào tạo mô hình lớn hiện nay, cốt lõi là chia nhỏ nhiệm vụ đào tạo mô hình và phân phối tới nhiều máy để thực hiện hợp tác, nhằm vượt qua giới hạn tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "phi tập trung", nhưng tổng thể vẫn được kiểm soát, điều phối và đồng bộ bởi các cơ quan tập trung, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, với nút chính điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút huấn luyện các tham số dữ liệu khác nhau, cần khớp trọng số mô hình
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Ống dẫn song song: Thực hiện tuần tự theo giai đoạn, tăng thông lượng
Phân tán tensor: Chia nhỏ tính toán ma trận, nâng cao độ mịn của song song
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết tất cả các mô hình lớn chính đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai với tính mở và khả năng chống kiểm duyệt cao hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không có người điều phối trung tâm, thường thông qua giao thức điều khiển việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Sự khác biệt giữa thiết bị và khó khăn trong việc phân chia: Khó khăn trong việc phối hợp thiết bị khác nhau, hiệu suất phân chia nhiệm vụ thấp
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ gradient rõ ràng
Thiếu thực thi tin cậy: Thiếu môi trường thực thi tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, phân phối nhiệm vụ, cơ chế hoàn nguyên bất thường phức tạp
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng việc liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập hợp các tham số mô hình, phù hợp cho các tình huống chú trọng vào tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời sở hữu những lợi thế về phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp đều tương đối nhẹ nhàng, phù hợp hơn để triển khai tạm thời trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và lộ trình thực tế
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên rất cao hoặc độ khó trong hợp tác, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và các hạn chế chủ quyền bị ràng buộc bởi tính tuân thủ pháp luật và đạo đức, không thể chia sẻ công khai; trong khi những nhiệm vụ thiếu động lực hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này tạo thành những hạn chế thực tế của việc đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai lầm. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ ràng triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên quan đến hành vi, đào tạo và gán nhãn dữ liệu thông qua crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chấp nhận sức mạnh tính toán khác nhau, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân phối và các phương pháp khác.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên đoàn, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá nguyên bản trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Đường đi huấn luyện có thể xác minh của mạng hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
Kiến trúc cốt lõi của Prime Intellect bao gồm các mô-đun chính sau:
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung bất đồng bộ
TOPLOC: Cơ chế xác thực hành vi đào tạo nhẹ
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
PCCL: Thư viện giao tiếp hợp tác
02、Giải thích chi tiết cơ chế đào tạo Prime Intellect
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó áp dụng học tăng cường làm đối tượng ưu tiên, tách rời cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ và phối hợp với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có phân bổ trung tâm, không chỉ giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC là cơ chế cốt lõi có thể xác minh được do Prime Intellect đề xuất, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ bằng cách phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo đồng nhất cục bộ. Nó lần đầu tiên chuyển đổi các quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp lộ trình khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các bản cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để giải quyết những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết vấn đề thích ứng của các thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu đựng băng thông của mạng huấn luyện và tính tương thích của thiết bị, mở ra "km cuối cùng" cho cơ sở hạ tầng giao tiếp để xây dựng mạng huấn luyện hợp tác thực sự mở và không cần sự tin cậy.
03、Prime Intellect kích thích mạng lưới và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai cũng tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút đào tạo: thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia tính toán phần thưởng cũng như tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tập hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được đào tạo hợp tác bởi hơn 100 nút GPU dị thể trải rộng trên ba châu lục.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 thích
Phần thưởng
11
3
Chia sẻ
Bình luận
0/400
airdrop_whisperer
· 07-04 00:05
Còn ai đã bán card đồ họa vì AI không?
Xem bản gốcTrả lời0
GateUser-aa7df71e
· 07-01 22:27
Đợt huấn luyện AI này chắc chắn sẽ bơm lớn, Tạo vị thế là thời điểm thích hợp.
Phi tập trung đào tạo: Phân tích công nghệ AI tiên tiến và so sánh các dự án đại diện
Phi tập trung训练:AI的下一个前沿
Trong toàn bộ chuỗi giá trị AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy luận nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ của các thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học tập liên bang và huấn luyện Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo theo cách tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này giúp chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini với những lợi thế về hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính cho việc đào tạo mô hình lớn hiện nay, cốt lõi là chia nhỏ nhiệm vụ đào tạo mô hình và phân phối tới nhiều máy để thực hiện hợp tác, nhằm vượt qua giới hạn tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "phi tập trung", nhưng tổng thể vẫn được kiểm soát, điều phối và đồng bộ bởi các cơ quan tập trung, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, với nút chính điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết tất cả các mô hình lớn chính đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai với tính mở và khả năng chống kiểm duyệt cao hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không có người điều phối trung tâm, thường thông qua giao thức điều khiển việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng việc liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập hợp các tham số mô hình, phù hợp cho các tình huống chú trọng vào tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời sở hữu những lợi thế về phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp đều tương đối nhẹ nhàng, phù hợp hơn để triển khai tạm thời trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và lộ trình thực tế
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên rất cao hoặc độ khó trong hợp tác, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và các hạn chế chủ quyền bị ràng buộc bởi tính tuân thủ pháp luật và đạo đức, không thể chia sẻ công khai; trong khi những nhiệm vụ thiếu động lực hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này tạo thành những hạn chế thực tế của việc đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai lầm. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ ràng triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên quan đến hành vi, đào tạo và gán nhãn dữ liệu thông qua crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chấp nhận sức mạnh tính toán khác nhau, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân phối và các phương pháp khác.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên đoàn, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá nguyên bản trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Đường đi huấn luyện có thể xác minh của mạng hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
Kiến trúc cốt lõi của Prime Intellect bao gồm các mô-đun chính sau:
02、Giải thích chi tiết cơ chế đào tạo Prime Intellect
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó áp dụng học tăng cường làm đối tượng ưu tiên, tách rời cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ và phối hợp với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có phân bổ trung tâm, không chỉ giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC là cơ chế cốt lõi có thể xác minh được do Prime Intellect đề xuất, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ bằng cách phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo đồng nhất cục bộ. Nó lần đầu tiên chuyển đổi các quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp lộ trình khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các bản cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để giải quyết những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết vấn đề thích ứng của các thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu đựng băng thông của mạng huấn luyện và tính tương thích của thiết bị, mở ra "km cuối cùng" cho cơ sở hạ tầng giao tiếp để xây dựng mạng huấn luyện hợp tác thực sự mở và không cần sự tin cậy.
03、Prime Intellect kích thích mạng lưới và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai cũng tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tập hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được đào tạo hợp tác bởi hơn 100 nút GPU dị thể trải rộng trên ba châu lục.