AI Eğitim Paradigmasının Evrimi: Merkezi Kontrolden Merkeziyetsizlik İş Birliğine Teknolojik Devrim
AI'nın tüm değer zincirinde, model eğitimi en fazla kaynak tüketen ve en yüksek teknik engel olan aşamadır ve doğrudan modelin yetenek sınırını ve gerçek uygulama etkisini belirler. Çıkarım aşamasının hafif çağrısına kıyasla, eğitim süreci sürekli olarak büyük ölçekli hesaplama gücü yatırımı, karmaşık veri işleme süreçleri ve yüksek yoğunlukta optimizasyon algoritmaları desteği gerektirir ve AI sisteminin inşasında gerçek bir "ağır sanayi"dir. Mimari paradigmasına göre, eğitim yöntemleri dört tipe ayrılabilir: merkezi eğitim, dağıtık eğitim, federatif öğrenme ve bu makalede üzerinde durulan Merkeziyetsizlik eğitimi.
Merkeziyetsiz eğitim, tek bir kuruluşun yerel yüksek performanslı kümeler içinde tüm eğitim süreçlerini tamamladığı en yaygın geleneksel yöntemdir. Donanım, alt yazılım, küme zamanlama sistemi ve eğitim çerçevesinin tüm bileşenleri, tek bir kontrol sistemi tarafından koordine edilir. Bu derin iş birliği mimarisi, bellek paylaşımı, gradyan senkronizasyonu ve hata toleransı mekanizmalarının verimliliğini en üst düzeye çıkarır; GPT, Gemini gibi büyük ölçekli modellerin eğitimine çok uygundur ve yüksek verimlilik, kontrol edilebilir kaynaklar gibi avantajlara sahiptir. Ancak, aynı zamanda veri tekelciliği, kaynak engelleri, enerji tüketimi ve tek nokta riski gibi sorunlar da bulunmaktadır.
Dağıtık eğitim, günümüzde büyük model eğitiminde ana akım bir yöntemdir; temelinde model eğitim görevlerinin parçalanarak birden fazla makineye dağıtılıp işbirliği içinde yürütülmesi yatar. Bu, tek bir makinenin hesaplama ve depolama darboğazını aşmak içindir. Fiziksel olarak "dağıtık" özelliklere sahip olmasına rağmen, genel olarak merkezi bir kuruluş tarafından kontrol edilen, planlanan ve senkronize edilen bir yapıdadır; genellikle yüksek hızlı yerel ağ ortamlarında çalışır ve NVLink yüksek hızlı bağlantı teknolojisi ile ana düğüm, alt görevleri koordine eder. Ana akım yöntemler şunları içerir:
Veri paralelliği: Her düğüm farklı veri parametreleri eğitiyor, model ağırlıklarının eşleşmesi gerekiyor.
Model paralelliği: Modelin farklı kısımlarını farklı düğümlerde dağıtarak güçlü ölçeklenebilirlik sağlamak;
Boru hattı paralel: Aşamalı seri yürütme, verimliliği artırır;
Tensör paralelliği: Matris hesaplamalarını ince bir şekilde bölerek paralelleşme ölçeğini artırır.
Dağıtık eğitim, "Merkeziyetsizlik + Dağıtık yürütme" kombinasyonudur, aynı patronun uzaktan birçok "ofis" çalışanını yönlendirmesi ve görevleri tamamlamasıyla benzerlik gösterir. Şu anda neredeyse tüm önde gelen büyük modeller bu şekilde eğitilmektedir.
Merkeziyetsizlik eğitimi, daha açık ve sansüre karşı özelliklere sahip bir gelecek yolunu temsil etmektedir. Temel özellikleri şunlardır: Birbirine güvenmeyen birden fazla düğüm, merkezi bir koordinatör olmadan eğitim görevlerini işbirliği içinde tamamlar; genellikle protokoller aracılığıyla görev dağıtımı ve işbirliği sağlanır ve katkıların dürüstlüğünü sağlamak için kripto teşvik mekanizmaları kullanılır. Bu modelin karşılaştığı başlıca zorluklar şunlardır:
Cihaz heterojenliği ve bölme zorluğu: Heterojen cihazların koordinasyonu zor, görev bölme verimliliği düşük;
İletişim verimliliği darboğazı: Ağ iletişimi istikrarsız, gradyan senkronizasyonu darboğazı belirgin;
Güvenilir yürütme eksikliği: Güvenilir yürütme ortamı eksikliği nedeniyle, düğümlerin gerçekten hesaplamaya katılıp katılmadığını doğrulamak zordur;
Birlikte koordinasyon eksikliği: Merkezi bir kontrol merkezi yok, görev dağıtımı ve hatalı geri alma mekanizması karmaşık.
Merkeziyetsizlik eğitimi, dünya genelindeki bir grup gönüllünün, kendi hesaplama güçlerini bir araya getirerek model eğitimi yapması olarak anlaşılabilir; ancak "gerçekten uygulanabilir büyük ölçekli merkeziyetsiz eğitim" hala sistematik bir mühendislik zorluğudur. Bu, sistem mimarisi, iletişim protokolleri, şifre güvenliği, ekonomik mekanizmalar, model doğrulama gibi birçok boyutu içerir. Ancak, "etkili işbirliği + dürüstlük teşviki + doğru sonuçlar" sağlanıp sağlanamayacağı henüz erken prototip keşif aşamasındadır.
Federated learning, bir geçiş biçimi olarak dağıtılmışlık ve Merkeziyetsizlik arasında, verilerin yerel olarak saklanmasını, model parametrelerinin merkezi olarak toplanmasını vurgular ve gizlilik uyumuna önem veren senaryolar için uygundur. Federated learning, dağıtılmış eğitim mühendislik yapısına ve yerel iş birliği yeteneğine sahiptir, aynı zamanda Merkeziyetsiz eğitimdeki veri dağıtım avantajlarını da taşır, ancak yine de güvenilir bir koordinatöre bağımlıdır ve tamamen açık ve sansüre dirençli özelliklere sahip değildir. Gizlilik uyum senaryolarında bir "kontrollü Merkeziyetsizlik" çözümü olarak düşünülebilir; eğitim görevleri, güven yapısı ve iletişim mekanizması açısından nispeten ılımlıdır ve endüstri için geçiş niteliğinde bir dağıtım mimarisi olarak daha uygundur.
Merkeziyetsizlik eğitiminin sınırları, fırsatları ve gerçek yolları
Eğitim paradigması açısından, merkeziyetsizlik eğitimi tüm görev türleri için uygun değildir. Bazı senaryolarında, görev yapısının karmaşık olması, kaynak gereksinimlerinin son derece yüksek olması veya işbirliği zorluğu nedeniyle, doğal olarak heterojen, güvenilir olmayan düğümler arasında verimli bir şekilde tamamlanması uygun değildir. Örneğin, büyük model eğitimi genellikle yüksek bellek, düşük gecikme ve yüksek bant genişliğine dayanır, açık ağda etkili bir şekilde bölünmesi ve senkronize edilmesi zordur; veri gizliliği ve egemenlik kısıtlamaları olan görevler, yasal uyumluluk ve etik kısıtlamalar nedeniyle açıkça paylaşılamaz; işbirliği teşviklerinin eksik olduğu görevler ise dış katılım motivasyonundan yoksundur. Bu sınırlar, mevcut merkeziyetsizlik eğitimine dair gerçek kısıtlamaları oluşturmaktadır.
Ancak bu, merkeziyetsizlik eğitiminin bir safsata olduğu anlamına gelmez. Aslında, yapı olarak hafif, kolayca paralelleştirilebilen ve teşvik edici görev türlerinde, merkeziyetsizlik eğitimi belirgin uygulama olanakları göstermektedir. Bunlar arasında, ancak bunlarla sınırlı olmamak üzere: LoRA ince ayarı, davranış hizalama sonrası eğitim görevleri, veri kalabalığı eğitimi ve etiketleme görevleri, kaynak kontrolüne sahip küçük temel model eğitimi ve kenar cihazların katıldığı işbirlikçi eğitim senaryoları bulunmaktadır. Bu görevler genellikle yüksek paralellik, düşük bağlantılılık ve heterojen hesap gücüne tolerans gösterme özelliklerine sahiptir ve P2P ağlar, Swarm protokolü, dağıtılmış optimizer gibi yöntemlerle işbirlikçi eğitim için oldukça uygundur.
Merkeziyetsizlik eğitim klasik proje analizi
Şu anda Merkeziyetsizlik eğitim ve federatif öğrenme alanının öncüsü olarak, temsilci blok zinciri projeleri arasında Prime Intellect, Pluralis.ai, Gensyn, Nous Research ve Flock.io bulunmaktadır. Teknik yenilik ve mühendislik gerçekleştirme zorluğu açısından, Prime Intellect, Nous Research ve Pluralis.ai sistem mimarisi ve algoritma tasarımı konusunda daha fazla özgün keşif önerdi ve mevcut teorik araştırmanın öncü yönlerini temsil ediyor; Gensyn ve Flock.io'nun gerçekleştirme yolları ise görece daha net olup, ilk mühendislik ilerlemeleri gözlemlenmektedir.
Prime Intellect: Eğitim yolları doğrulanabilir güçlendirilmiş öğrenme işbirliği ağının öncüsü
Prime Intellect, güvene ihtiyaç duymayan bir AI eğitim ağı inşa etmeye kendini adamıştır; böylece herkes eğitime katılabilir ve hesaplama katkıları için güvenilir ödüller alabilir. Prime Intellect, PRİME-RL + TOPLOC + SHARDCAST adlı üç ana modül aracılığıyla, doğrulanabilir, açık ve teşvik mekanizması tam olan bir AI Merkeziyetsizlik eğitim sistemi inşa etmeyi hedeflemektedir.
PRIME-RL: Ayrık Asenkron Güçlendirme Öğrenimi Görev Mimarisi
PRIME-RL, Prime Intellect tarafından Merkeziyetsizlik eğitim senaryoları için özelleştirilmiş bir görev modelleme ve yürütme çerçevesidir ve heterojen ağlar ile asenkron katılımcılar için tasarlanmıştır. Güçlendirme öğrenimini öncelikli uyum nesnesi olarak kullanır, eğitim, çıkarım ve ağırlık yükleme süreçlerini yapısal olarak ayrıştırır, böylece her eğitim düğümü yerel olarak bağımsız bir şekilde görev döngüsünü tamamlayabilir ve standart arayüzler aracılığıyla doğrulama ve birleştirme mekanizmalarıyla işbirliği yapabilir. Geleneksel denetimli öğrenme süreçlerine kıyasla, PRIME-RL merkezi bir planlamanın olmadığı ortamlarda esnek eğitim sağlamak için daha uygundur, bu da sistem karmaşıklığını azaltır ve çoklu görev paralelliği ile strateji evrimine temel oluşturur.
TOPLOC:Ağırlıksız eğitim davranış doğrulama mekanizması
TOPLOC, Prime Intellect tarafından önerilen, bir düğümün gerçekten gözlem verilerine dayalı olarak etkili bir strateji öğrenimi gerçekleştirip gerçekleştirmediğini belirlemek için kullanılan doğrulama eğitimi çekirdek mekanizmasıdır. ZKML gibi ağır çözümlerden farklı olarak, TOPLOC tam model yeniden hesaplamasına dayanmaz, bunun yerine "gözlem dizisi↔strateji güncelleme" arasındaki yerel tutarlılık izlerini analiz ederek hafif yapı doğrulaması gerçekleştirir. Eğitim sürecindeki davranış izlerini doğrulanabilir nesnelere dönüştürerek, güven gerektirmeyen eğitim ödül dağıtımını sağlamak için kritik bir yenilik sunar ve denetlenebilir, teşvik edici bir Merkeziyetsizlik işbirliği eğitim ağı inşa etmek için uygulanabilir bir yol sağlar.
SHARDCAST: Asenkron Ağırlık Birleştirme ve Yayılma Protokolü
SHARDCAST, Prime Intellect tarafından tasarlanan bir ağırlık yayılımı ve toplama protokolüdür ve gerçek ağ ortamları için asenkron, bant genişliği kısıtlı ve düğüm durumu değişkenliğine göre optimize edilmiştir. Gossip yayılım mekanizması ve yerel senkronizasyon stratejilerini bir araya getirerek, birden fazla düğümün senkronize olmayan durumlarda kısmi güncellemeler göndermesine olanak tanır ve ağırlıkların kademeli olarak yakınsamasını ve çoklu versiyon evrimini gerçekleştirir. Merkezi veya senkronize AllReduce yöntemlerine kıyasla, SHARDCAST merkeziyetsizlik eğitiminin ölçeklenebilirliğini ve hata toleransını önemli ölçüde artırır ve kararlı ağırlık konsensüsü ve sürekli eğitim iterasyonları oluşturmanın temel temelidir.
OpenDiLoCo: Seyrek Asenkron İletişim Çerçevesi
OpenDiLoCo, Prime Intellect ekibinin DeepMind tarafından önerilen DiLoCo kavramını bağımsız olarak gerçekleştirdiği ve açık kaynak olarak sunduğu bir iletişim optimizasyon çerçevesidir. Merkeziyetsizlik eğitimi sırasında sıkça karşılaşılan bant genişliği kısıtlamaları, cihaz heterojenliği ve düğüm istikrarsızlığı gibi zorluklar için özel olarak tasarlanmıştır. Mimarisi, veri paralelliğine dayanmakta olup, Ring, Expander, Small-World gibi seyrek topoloji yapıları inşa ederek, küresel senkronizasyonun yüksek iletişim maliyetlerinden kaçınmakta ve yalnızca yerel komşu düğümlere dayanarak model işbirlikçi eğitimini tamamlamaktadır. Asenkron güncellemeler ve kesinti tolerans mekanizması ile bir araya getirildiğinde, OpenDiLoCo, tüketici düzeyindeki GPU'ların ve kenar cihazlarının eğitim görevlerine istikrarlı bir şekilde katılmasını sağlar ve küresel işbirlikçi eğitimin katılımcılığını önemli ölçüde artırır; bu, merkeziyetsiz eğitim ağının temel iletişim altyapılarından biridir.
PCCL: İşbirliği İletişim Kütüphanesi
PCCL, Prime Intellect tarafından Merkeziyetsizlik AI eğitim ortamı için özel olarak tasarlanmış hafif bir iletişim kütüphanesidir ve geleneksel iletişim kütüphanelerinin heterojen cihazlar ve düşük bant genişliği ağlarındaki uyum sorunlarını çözmeyi amaçlamaktadır. PCCL, seyrek topoloji, gradyan sıkıştırma, düşük hassasiyet senkronizasyonu ve kesintiden kurtarma desteklemektedir, tüketici sınıfı GPU'lar ve kararsız düğümler üzerinde çalışabilir. OpenDiLoCo protokolünün asenkron iletişim yeteneklerinin temel bileşenidir. Eğitim ağının bant genişliği toleransını ve cihaz uyumluluğunu önemli ölçüde artırarak, gerçek anlamda açık ve güvene ihtiyaç duymayan işbirlikçi eğitim ağının "son kilometre" iletişim altyapısını sağlamlaştırmaktadır.
Prime Intellect, izinsiz, doğrulanabilir ve ekonomik teşvik mekanizması bulunan bir eğitim ağı inşa etti, böylece herkes görevlerde yer alabilir ve gerçek katkılara dayalı ödüller kazanabilir. Protokol, üç ana rol üzerine inşa edilmiştir:
Görev başlatıcısı: Eğitim ortamını, başlangıç modelini, ödül fonksiyonunu ve doğrulama standartlarını tanımlar.
Eğitim düğümü: Yerel eğitim gerçekleştirme, ağırlık güncellemelerini gönderme ve gözlem izlerini izleme
Doğrulama Düğümü: Eğitim davranışının gerçekliğini doğrulamak için TOPLOC mekanizmasını kullanır ve ödül hesaplaması ile strateji birleştirmeye katılır
Protokolün temel süreçleri, görev yayınlama, düğüm eğitimi, iz doğrulama, ağırlık birleştirme ve ödül dağıtımını içerir; bu da "gerçek eğitim davranışı" etrafında bir teşvik kapalı döngü oluşturur.
INTELLECT-2: İlk doğrulanabilir Merkeziyetsizlik eğitim modelinin yayınlanması
Prime Intellect, Mayıs 2025'te INTELLECT-2'yi piyasaya sürdü, bu, asenkron, güvene ihtiyaç duymayan Merkeziyetsizlik düğümleri ile işbirliği içinde eğitilen dünyanın ilk güçlendirilmiş öğrenme büyük modelidir ve parametre ölçeği 32B'ye ulaşmaktadır. INTELLECT-2 modeli, üç kıtada bulunan 100'den fazla GPU heterojen düğüm tarafından işbirliği içinde eğitilmiştir, tamamen asenkron bir mimari kullanılarak, eğitim süresi 400 saati aşmıştır ve asenkron işbirliği ağının uygulanabilirliği ve kararlılığını göstermiştir. Bu model sadece bir performans atılımı değil, aynı zamanda Prime Intellect'in sunduğu "eğitim, konsensustur" paradigmasının ilk sistematik uygulanışıdır. INTELLECT-2, PRIME-RL, TOPLOC ve SHARDCAST gibi temel protokol modüllerini entegre ederek, Merkeziyetsizlik eğitim ağının eğitim sürecinin açık, doğrulayıcı ve ekonomik teşvik kapalı döngüsü sağlanmasını ilk kez gerçekleştirdiğini göstermektedir.
Performans açısından, INTELLECT-2 QwQ-32B üzerinde eğitildi ve kod ile matematikte özel bir RL eğitimi yapıldı, mevcut açık kaynak RL ince ayar modelinin öncülük seviyesindedir. Henüz GPT-4 veya Gemini gibi kapalı kaynak modelleri geçmemiş olsa da, gerçek anlamda
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 Likes
Reward
9
5
Share
Comment
0/400
ProofOfNothing
· 3h ago
Eğitim eğitimi, madencilik yaparak para kazanmak daha iyidir.
View OriginalReply0
OnchainArchaeologist
· 21h ago
Bu para harcama yeni oyunu kim çıkardı?
View OriginalReply0
ShitcoinConnoisseur
· 21h ago
pro yine Blok Zinciri'ni övüyor.
View OriginalReply0
AirdropHunterWang
· 21h ago
Ne eğitim ne öğrenim, bütün gün hikaye anlatmayı biliyor.
Yapay Zeka Eğitim Paradigmasının Evrimi: Merkezden Merkezsizliğe, Prime Intellect Yeni Bir Çağ Açıyor
AI Eğitim Paradigmasının Evrimi: Merkezi Kontrolden Merkeziyetsizlik İş Birliğine Teknolojik Devrim
AI'nın tüm değer zincirinde, model eğitimi en fazla kaynak tüketen ve en yüksek teknik engel olan aşamadır ve doğrudan modelin yetenek sınırını ve gerçek uygulama etkisini belirler. Çıkarım aşamasının hafif çağrısına kıyasla, eğitim süreci sürekli olarak büyük ölçekli hesaplama gücü yatırımı, karmaşık veri işleme süreçleri ve yüksek yoğunlukta optimizasyon algoritmaları desteği gerektirir ve AI sisteminin inşasında gerçek bir "ağır sanayi"dir. Mimari paradigmasına göre, eğitim yöntemleri dört tipe ayrılabilir: merkezi eğitim, dağıtık eğitim, federatif öğrenme ve bu makalede üzerinde durulan Merkeziyetsizlik eğitimi.
Merkeziyetsiz eğitim, tek bir kuruluşun yerel yüksek performanslı kümeler içinde tüm eğitim süreçlerini tamamladığı en yaygın geleneksel yöntemdir. Donanım, alt yazılım, küme zamanlama sistemi ve eğitim çerçevesinin tüm bileşenleri, tek bir kontrol sistemi tarafından koordine edilir. Bu derin iş birliği mimarisi, bellek paylaşımı, gradyan senkronizasyonu ve hata toleransı mekanizmalarının verimliliğini en üst düzeye çıkarır; GPT, Gemini gibi büyük ölçekli modellerin eğitimine çok uygundur ve yüksek verimlilik, kontrol edilebilir kaynaklar gibi avantajlara sahiptir. Ancak, aynı zamanda veri tekelciliği, kaynak engelleri, enerji tüketimi ve tek nokta riski gibi sorunlar da bulunmaktadır.
Dağıtık eğitim, günümüzde büyük model eğitiminde ana akım bir yöntemdir; temelinde model eğitim görevlerinin parçalanarak birden fazla makineye dağıtılıp işbirliği içinde yürütülmesi yatar. Bu, tek bir makinenin hesaplama ve depolama darboğazını aşmak içindir. Fiziksel olarak "dağıtık" özelliklere sahip olmasına rağmen, genel olarak merkezi bir kuruluş tarafından kontrol edilen, planlanan ve senkronize edilen bir yapıdadır; genellikle yüksek hızlı yerel ağ ortamlarında çalışır ve NVLink yüksek hızlı bağlantı teknolojisi ile ana düğüm, alt görevleri koordine eder. Ana akım yöntemler şunları içerir:
Dağıtık eğitim, "Merkeziyetsizlik + Dağıtık yürütme" kombinasyonudur, aynı patronun uzaktan birçok "ofis" çalışanını yönlendirmesi ve görevleri tamamlamasıyla benzerlik gösterir. Şu anda neredeyse tüm önde gelen büyük modeller bu şekilde eğitilmektedir.
Merkeziyetsizlik eğitimi, daha açık ve sansüre karşı özelliklere sahip bir gelecek yolunu temsil etmektedir. Temel özellikleri şunlardır: Birbirine güvenmeyen birden fazla düğüm, merkezi bir koordinatör olmadan eğitim görevlerini işbirliği içinde tamamlar; genellikle protokoller aracılığıyla görev dağıtımı ve işbirliği sağlanır ve katkıların dürüstlüğünü sağlamak için kripto teşvik mekanizmaları kullanılır. Bu modelin karşılaştığı başlıca zorluklar şunlardır:
Merkeziyetsizlik eğitimi, dünya genelindeki bir grup gönüllünün, kendi hesaplama güçlerini bir araya getirerek model eğitimi yapması olarak anlaşılabilir; ancak "gerçekten uygulanabilir büyük ölçekli merkeziyetsiz eğitim" hala sistematik bir mühendislik zorluğudur. Bu, sistem mimarisi, iletişim protokolleri, şifre güvenliği, ekonomik mekanizmalar, model doğrulama gibi birçok boyutu içerir. Ancak, "etkili işbirliği + dürüstlük teşviki + doğru sonuçlar" sağlanıp sağlanamayacağı henüz erken prototip keşif aşamasındadır.
Federated learning, bir geçiş biçimi olarak dağıtılmışlık ve Merkeziyetsizlik arasında, verilerin yerel olarak saklanmasını, model parametrelerinin merkezi olarak toplanmasını vurgular ve gizlilik uyumuna önem veren senaryolar için uygundur. Federated learning, dağıtılmış eğitim mühendislik yapısına ve yerel iş birliği yeteneğine sahiptir, aynı zamanda Merkeziyetsiz eğitimdeki veri dağıtım avantajlarını da taşır, ancak yine de güvenilir bir koordinatöre bağımlıdır ve tamamen açık ve sansüre dirençli özelliklere sahip değildir. Gizlilik uyum senaryolarında bir "kontrollü Merkeziyetsizlik" çözümü olarak düşünülebilir; eğitim görevleri, güven yapısı ve iletişim mekanizması açısından nispeten ılımlıdır ve endüstri için geçiş niteliğinde bir dağıtım mimarisi olarak daha uygundur.
Merkeziyetsizlik eğitiminin sınırları, fırsatları ve gerçek yolları
Eğitim paradigması açısından, merkeziyetsizlik eğitimi tüm görev türleri için uygun değildir. Bazı senaryolarında, görev yapısının karmaşık olması, kaynak gereksinimlerinin son derece yüksek olması veya işbirliği zorluğu nedeniyle, doğal olarak heterojen, güvenilir olmayan düğümler arasında verimli bir şekilde tamamlanması uygun değildir. Örneğin, büyük model eğitimi genellikle yüksek bellek, düşük gecikme ve yüksek bant genişliğine dayanır, açık ağda etkili bir şekilde bölünmesi ve senkronize edilmesi zordur; veri gizliliği ve egemenlik kısıtlamaları olan görevler, yasal uyumluluk ve etik kısıtlamalar nedeniyle açıkça paylaşılamaz; işbirliği teşviklerinin eksik olduğu görevler ise dış katılım motivasyonundan yoksundur. Bu sınırlar, mevcut merkeziyetsizlik eğitimine dair gerçek kısıtlamaları oluşturmaktadır.
Ancak bu, merkeziyetsizlik eğitiminin bir safsata olduğu anlamına gelmez. Aslında, yapı olarak hafif, kolayca paralelleştirilebilen ve teşvik edici görev türlerinde, merkeziyetsizlik eğitimi belirgin uygulama olanakları göstermektedir. Bunlar arasında, ancak bunlarla sınırlı olmamak üzere: LoRA ince ayarı, davranış hizalama sonrası eğitim görevleri, veri kalabalığı eğitimi ve etiketleme görevleri, kaynak kontrolüne sahip küçük temel model eğitimi ve kenar cihazların katıldığı işbirlikçi eğitim senaryoları bulunmaktadır. Bu görevler genellikle yüksek paralellik, düşük bağlantılılık ve heterojen hesap gücüne tolerans gösterme özelliklerine sahiptir ve P2P ağlar, Swarm protokolü, dağıtılmış optimizer gibi yöntemlerle işbirlikçi eğitim için oldukça uygundur.
Merkeziyetsizlik eğitim klasik proje analizi
Şu anda Merkeziyetsizlik eğitim ve federatif öğrenme alanının öncüsü olarak, temsilci blok zinciri projeleri arasında Prime Intellect, Pluralis.ai, Gensyn, Nous Research ve Flock.io bulunmaktadır. Teknik yenilik ve mühendislik gerçekleştirme zorluğu açısından, Prime Intellect, Nous Research ve Pluralis.ai sistem mimarisi ve algoritma tasarımı konusunda daha fazla özgün keşif önerdi ve mevcut teorik araştırmanın öncü yönlerini temsil ediyor; Gensyn ve Flock.io'nun gerçekleştirme yolları ise görece daha net olup, ilk mühendislik ilerlemeleri gözlemlenmektedir.
Prime Intellect: Eğitim yolları doğrulanabilir güçlendirilmiş öğrenme işbirliği ağının öncüsü
Prime Intellect, güvene ihtiyaç duymayan bir AI eğitim ağı inşa etmeye kendini adamıştır; böylece herkes eğitime katılabilir ve hesaplama katkıları için güvenilir ödüller alabilir. Prime Intellect, PRİME-RL + TOPLOC + SHARDCAST adlı üç ana modül aracılığıyla, doğrulanabilir, açık ve teşvik mekanizması tam olan bir AI Merkeziyetsizlik eğitim sistemi inşa etmeyi hedeflemektedir.
PRIME-RL: Ayrık Asenkron Güçlendirme Öğrenimi Görev Mimarisi
PRIME-RL, Prime Intellect tarafından Merkeziyetsizlik eğitim senaryoları için özelleştirilmiş bir görev modelleme ve yürütme çerçevesidir ve heterojen ağlar ile asenkron katılımcılar için tasarlanmıştır. Güçlendirme öğrenimini öncelikli uyum nesnesi olarak kullanır, eğitim, çıkarım ve ağırlık yükleme süreçlerini yapısal olarak ayrıştırır, böylece her eğitim düğümü yerel olarak bağımsız bir şekilde görev döngüsünü tamamlayabilir ve standart arayüzler aracılığıyla doğrulama ve birleştirme mekanizmalarıyla işbirliği yapabilir. Geleneksel denetimli öğrenme süreçlerine kıyasla, PRIME-RL merkezi bir planlamanın olmadığı ortamlarda esnek eğitim sağlamak için daha uygundur, bu da sistem karmaşıklığını azaltır ve çoklu görev paralelliği ile strateji evrimine temel oluşturur.
TOPLOC:Ağırlıksız eğitim davranış doğrulama mekanizması
TOPLOC, Prime Intellect tarafından önerilen, bir düğümün gerçekten gözlem verilerine dayalı olarak etkili bir strateji öğrenimi gerçekleştirip gerçekleştirmediğini belirlemek için kullanılan doğrulama eğitimi çekirdek mekanizmasıdır. ZKML gibi ağır çözümlerden farklı olarak, TOPLOC tam model yeniden hesaplamasına dayanmaz, bunun yerine "gözlem dizisi↔strateji güncelleme" arasındaki yerel tutarlılık izlerini analiz ederek hafif yapı doğrulaması gerçekleştirir. Eğitim sürecindeki davranış izlerini doğrulanabilir nesnelere dönüştürerek, güven gerektirmeyen eğitim ödül dağıtımını sağlamak için kritik bir yenilik sunar ve denetlenebilir, teşvik edici bir Merkeziyetsizlik işbirliği eğitim ağı inşa etmek için uygulanabilir bir yol sağlar.
SHARDCAST: Asenkron Ağırlık Birleştirme ve Yayılma Protokolü
SHARDCAST, Prime Intellect tarafından tasarlanan bir ağırlık yayılımı ve toplama protokolüdür ve gerçek ağ ortamları için asenkron, bant genişliği kısıtlı ve düğüm durumu değişkenliğine göre optimize edilmiştir. Gossip yayılım mekanizması ve yerel senkronizasyon stratejilerini bir araya getirerek, birden fazla düğümün senkronize olmayan durumlarda kısmi güncellemeler göndermesine olanak tanır ve ağırlıkların kademeli olarak yakınsamasını ve çoklu versiyon evrimini gerçekleştirir. Merkezi veya senkronize AllReduce yöntemlerine kıyasla, SHARDCAST merkeziyetsizlik eğitiminin ölçeklenebilirliğini ve hata toleransını önemli ölçüde artırır ve kararlı ağırlık konsensüsü ve sürekli eğitim iterasyonları oluşturmanın temel temelidir.
OpenDiLoCo: Seyrek Asenkron İletişim Çerçevesi
OpenDiLoCo, Prime Intellect ekibinin DeepMind tarafından önerilen DiLoCo kavramını bağımsız olarak gerçekleştirdiği ve açık kaynak olarak sunduğu bir iletişim optimizasyon çerçevesidir. Merkeziyetsizlik eğitimi sırasında sıkça karşılaşılan bant genişliği kısıtlamaları, cihaz heterojenliği ve düğüm istikrarsızlığı gibi zorluklar için özel olarak tasarlanmıştır. Mimarisi, veri paralelliğine dayanmakta olup, Ring, Expander, Small-World gibi seyrek topoloji yapıları inşa ederek, küresel senkronizasyonun yüksek iletişim maliyetlerinden kaçınmakta ve yalnızca yerel komşu düğümlere dayanarak model işbirlikçi eğitimini tamamlamaktadır. Asenkron güncellemeler ve kesinti tolerans mekanizması ile bir araya getirildiğinde, OpenDiLoCo, tüketici düzeyindeki GPU'ların ve kenar cihazlarının eğitim görevlerine istikrarlı bir şekilde katılmasını sağlar ve küresel işbirlikçi eğitimin katılımcılığını önemli ölçüde artırır; bu, merkeziyetsiz eğitim ağının temel iletişim altyapılarından biridir.
PCCL: İşbirliği İletişim Kütüphanesi
PCCL, Prime Intellect tarafından Merkeziyetsizlik AI eğitim ortamı için özel olarak tasarlanmış hafif bir iletişim kütüphanesidir ve geleneksel iletişim kütüphanelerinin heterojen cihazlar ve düşük bant genişliği ağlarındaki uyum sorunlarını çözmeyi amaçlamaktadır. PCCL, seyrek topoloji, gradyan sıkıştırma, düşük hassasiyet senkronizasyonu ve kesintiden kurtarma desteklemektedir, tüketici sınıfı GPU'lar ve kararsız düğümler üzerinde çalışabilir. OpenDiLoCo protokolünün asenkron iletişim yeteneklerinin temel bileşenidir. Eğitim ağının bant genişliği toleransını ve cihaz uyumluluğunu önemli ölçüde artırarak, gerçek anlamda açık ve güvene ihtiyaç duymayan işbirlikçi eğitim ağının "son kilometre" iletişim altyapısını sağlamlaştırmaktadır.
Prime Intellect, izinsiz, doğrulanabilir ve ekonomik teşvik mekanizması bulunan bir eğitim ağı inşa etti, böylece herkes görevlerde yer alabilir ve gerçek katkılara dayalı ödüller kazanabilir. Protokol, üç ana rol üzerine inşa edilmiştir:
Protokolün temel süreçleri, görev yayınlama, düğüm eğitimi, iz doğrulama, ağırlık birleştirme ve ödül dağıtımını içerir; bu da "gerçek eğitim davranışı" etrafında bir teşvik kapalı döngü oluşturur.
INTELLECT-2: İlk doğrulanabilir Merkeziyetsizlik eğitim modelinin yayınlanması
Prime Intellect, Mayıs 2025'te INTELLECT-2'yi piyasaya sürdü, bu, asenkron, güvene ihtiyaç duymayan Merkeziyetsizlik düğümleri ile işbirliği içinde eğitilen dünyanın ilk güçlendirilmiş öğrenme büyük modelidir ve parametre ölçeği 32B'ye ulaşmaktadır. INTELLECT-2 modeli, üç kıtada bulunan 100'den fazla GPU heterojen düğüm tarafından işbirliği içinde eğitilmiştir, tamamen asenkron bir mimari kullanılarak, eğitim süresi 400 saati aşmıştır ve asenkron işbirliği ağının uygulanabilirliği ve kararlılığını göstermiştir. Bu model sadece bir performans atılımı değil, aynı zamanda Prime Intellect'in sunduğu "eğitim, konsensustur" paradigmasının ilk sistematik uygulanışıdır. INTELLECT-2, PRIME-RL, TOPLOC ve SHARDCAST gibi temel protokol modüllerini entegre ederek, Merkeziyetsizlik eğitim ağının eğitim sürecinin açık, doğrulayıcı ve ekonomik teşvik kapalı döngüsü sağlanmasını ilk kez gerçekleştirdiğini göstermektedir.
Performans açısından, INTELLECT-2 QwQ-32B üzerinde eğitildi ve kod ile matematikte özel bir RL eğitimi yapıldı, mevcut açık kaynak RL ince ayar modelinin öncülük seviyesindedir. Henüz GPT-4 veya Gemini gibi kapalı kaynak modelleri geçmemiş olsa da, gerçek anlamda