Phi tập trung đào tạo các khám phá tiên phong: Prime Intellect xây dựng mạng lưới hợp tác AI

Cái chén thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung

Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có rào cản kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu ứng ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, cách đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học tập liên bang và đào tạo phi tập trung mà bài viết này sẽ thảo luận trọng tâm.

Cái chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung

Đào tạo tập trung là phương thức truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lên lịch cụm, cho đến tất cả các thành phần của khung đào tạo đều được một hệ thống điều khiển thống nhất phối hợp hoạt động. Kiến trúc phối hợp sâu sắc này giúp hiệu suất chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, có ưu điểm hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng gặp các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.

Huấn luyện phân tán là phương pháp chính hiện nay trong huấn luyện mô hình lớn, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua các nút thắt về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "phân tán", nhưng tổng thể vẫn được các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính thống nhất điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:

  • Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
  • Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
  • Đường ống song song: Thực hiện theo từng giai đoạn tuần tự, nâng cao thông lượng
  • Phân tán tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ mịn của song song.

Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính đều hoàn thành đào tạo theo cách này.

Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung

Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và kháng cự kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức thúc đẩy phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:

  • Khó khăn trong việc phân tách và đồng bộ thiết bị: Khó khăn trong việc phối hợp các thiết bị khác nhau, hiệu suất phân tách nhiệm vụ thấp
  • Nút thắt hiệu suất giao tiếp: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng
  • Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh liệu các nút có thực sự tham gia vào việc tính toán hay không.
  • Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, việc phân phát nhiệm vụ và cơ chế khôi phục bất thường phức tạp.

Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng liệu có thể "phối hợp hiệu quả + khuyến khích trung thực + kết quả đúng" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.

Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc lưu giữ dữ liệu cục bộ và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy và không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, thích hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.

Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế

Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút dị thể và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông tốc độ cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ ( như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi tuân thủ pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu động lực hợp tác ( như mô hình mã nguồn đóng của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ) thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của đào tạo phi tập trung hiện tại.

Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo hậu hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị biệt, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.

![Cái chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(

Phi tập trung đào tạo phân tích dự án cổ điển

Hiện nay, trong lĩnh vực đào tạo Phi tập trung và học liên bang tiên tiến, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.

) Prime Intellect: Huấn luyện lộ trình có thể xác minh được của mạng lưới hợp tác học tăng cường tiên phong

Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích hoàn chỉnh.

(# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun quan trọng

![Cúp thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp###

02、Giải thích chi tiết cơ chế huấn luyện Prime Intellect

#PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ phân tách

PRIME-RL là khung mô hình và thực thi nhiệm vụ được tùy chỉnh cho các tình huống huấn luyện Phi tập trung của Prime Intellect, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, cấu trúc tách rời quy trình huấn luyện, suy diễn và tải trọng, cho phép mỗi nút huấn luyện hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ, và phối hợp thông qua các giao diện tiêu chuẩn hóa với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có điều độ trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng hỗ trợ đa nhiệm song song và tiến hóa chiến lược.

#TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ nhàng

TOPLOC(Quan sát Tin cậy & Kiểm tra Tính địa phương) là cơ chế cốt lõi có thể xác minh được đào tạo do Prime Intellect đề xuất, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các phương án nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thông qua việc phân tích các quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược" để hoàn thành xác minh cấu trúc nhẹ. Đây là lần đầu tiên chuyển đổi các quỹ đạo hành vi trong quá trình đào tạo thành các đối tượng có thể xác minh, là đổi mới chính để đạt được phân phối phần thưởng đào tạo không cần tin cậy, cung cấp một con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.

#SHARDCAST:Giao thức tổng hợp và truyền thông trọng số bất đồng bộ

SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ hóa cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là cơ sở cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.

#OpenDiLoCo: Khung giao tiếp bất đối xứng thưa thớt

OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập triển khai và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để đối phó với những thách thức phổ biến trong huấn luyện Phi tập trung như hạn chế băng thông, thiết bị không đồng nhất và độ ổn định của nút. Kiến trúc của nó dựa trên sự song song dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao do đồng bộ toàn cầu, chỉ cần dựa vào các nút láng giềng cục bộ để hoàn thành huấn luyện đồng bộ mô hình. Kết hợp cập nhật không đồng bộ và cơ chế khôi phục điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ huấn luyện, nâng cao đáng kể khả năng tham gia vào huấn luyện hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng huấn luyện Phi tập trung.

#PCCL: Thư viện giao tiếp hợp tác

PCCL###Prime Collective Communication Library( là thư viện giao tiếp nhẹ mà Prime Intellect thiết kế riêng cho môi trường đào tạo AI phi tập trung, nhằm giải quyết những trở ngại về khả năng thích ứng của các thư viện giao tiếp truyền thống) như NCCL, Gloo( trong các thiết bị hỗn hợp và mạng băng thông thấp. PCCL hỗ trợ topo thưa thớt, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp không đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể độ khoan dung băng thông và khả năng tương thích thiết bị của mạng đào tạo, mở ra "km cuối" của cơ sở hạ tầng giao tiếp cho việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.

)# 03、Mạng khuyến khích Prime Intellect và phân công vai trò

Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:

  • Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
  • Nút huấn luyện: thực hiện huấn luyện cục bộ, nộp cập nhật trọng số và theo dõi quan sát
  • Nút xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo, và tham gia vào việc tính toán phần thưởng và tổng hợp chiến lược.

Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh lộ trình, tổng hợp trọng số (SHARDCAST) và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".

![Cúp thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(

)# 04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên

Prime Intellect sẽ phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU đồng nhất trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian đào tạo vượt quá 400 giờ.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 7
  • Chia sẻ
Bình luận
0/400
DAOTruantvip
· 07-10 05:05
Làm phức tạp như vậy để làm gì, không bằng trực tiếp thu hoạch mô hình lớn.
Xem bản gốcTrả lời0
LuckyBlindCatvip
· 07-10 05:03
Haha Khả năng tính toán quá đắt, ai có thể xoay sở được.
Xem bản gốcTrả lời0
MondayYoloFridayCryvip
· 07-07 07:57
Đào tạo tốn kém như vậy, bao giờ mới có AI dùng cho gia đình?
Xem bản gốcTrả lời0
RooftopVIPvip
· 07-07 07:57
Đến lúc làm chuyện rồi
Xem bản gốcTrả lời0
ApeWithNoFearvip
· 07-07 07:53
AI lại muốn lên trời?
Xem bản gốcTrả lời0
gas_fee_therapyvip
· 07-07 07:52
Khả năng tính toán sau khi huấn luyện xong là bao nhiêu?
Xem bản gốcTrả lời0
IfIWereOnChainvip
· 07-07 07:42
挺 chơi đùa với mọi người 真去中心了
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)