Sejak rilis “Avatar” pada tahun 2009, film ini meluncurkan pertempuran pertama film 3D dengan gambar nyata yang tak tertandingi. Sebagai kontributor besar di baliknya, Weta Digital berkontribusi pada rendering efek visual seluruh film. Di peternakan server seluas 10.000 kaki persegi di Selandia Baru, kluster komputernya memproses hingga 1,4 juta tugas per hari dan memproses 8GB data per detik. Meskipun demikian, server tersebut terus berjalan selama lebih dari sebulan sebelum semua rendering selesai.
Dengan penempatan mesin berskala besar dan investasi biaya, “Avatar” telah mencapai prestasi luar biasa dalam sejarah film.
Pada tanggal 3 Januari tahun yang sama, Satoshi Nakamoto menambang blok genesis Bitcoin pada server kecil di Helsinki, Finlandia, dan menerima imbalan blok sebesar 50 BTC. Sejak hari pertama cryptocurrency, daya komputasi telah memainkan peran yang sangat penting dalam industri ini.
Rantai terpanjang tidak hanya berfungsi sebagai bukti urutan peristiwa yang disaksikan, tetapi juga bukti bahwa itu berasal dari kolam daya CPU terbesar.
—— Bitcoin Whitepaper
Dalam konteks mekanisme konsensus PoW, kontribusi daya komputasi memberikan jaminan untuk keamanan rantai. Pada saat yang sama, Hashrate yang terus meningkat juga dapat membuktikan investasi berkelanjutan para penambang dalam daya komputasi dan harapan pendapatan positif. Permintaan nyata industri untuk daya komputasi juga sangat mendorong perkembangan produsen chip. Chip mesin penambangan telah melalui tahap pengembangan seperti CPU, GPU, FPGA, dan ASIC. Saat ini, mesin penambangan Bitcoin biasanya menggunakan chip berbasis teknologi ASIC (Application Specific Ingrated Circuit) yang dapat mengeksekusi algoritma tertentu secara efisien, seperti SHA-256. Manfaat ekonomi besar yang dibawa oleh Bitcoin juga mendorong permintaan akan daya komputasi dalam penambangan terkait. Namun, peralatan yang terlalu spesifik dan efek klaster telah menyebabkan efek siphon di antara pesertanya sendiri, baik mereka penambang atau produsen mesin penambangan. Mereka semuanya menunjukkan tren pengembangan terkonsentrasi yang intensif secara modal.
Dengan munculnya kontrak pintar Ethereum, programabilitas, komposabilitas, dan fitur lainnya telah membentuk berbagai aplikasi, terutama di bidang DeFi, yang telah membuat harga ETH naik sepanjang waktu, sementara masih dalam konsensus PoW. Kesulitan penambangan Ethereum pada tahap ini juga terus meningkat. Persyaratan daya komputasi penambang untuk mesin penambangan Ethereum juga semakin meningkat dari hari ke hari. Namun, berbeda dengan Bitcoin yang menggunakan chip ASIC, Ethereum perlu menggunakan unit pemrosesan grafis (GPU) untuk perhitungan penambangan, seperti seri Nvidia RTX. Dengan cara ini, lebih cocok untuk perangkat keras komputasi umum untuk berpartisipasi. Hal ini bahkan memicu persaingan pasar untuk GPU, yang menyebabkan kartu grafis high-end di pasaran habis terjual.
Ketika saatnya tiba pada 30 November 2022, ChatGPT yang dikembangkan oleh OpenAI juga menunjukkan signifikansi yang membuka babak baru di bidang Kecerdasan Buatan. Pengguna terpesona dengan pengalaman baru yang dibawa oleh ChatGPT, yang dapat menyelesaikan berbagai tugas yang diajukan pengguna berdasarkan konteks seperti orang sungguhan. Membutuhkan. Pada versi baru yang diluncurkan pada bulan September tahun ini, kecerdasan buatan generatif yang menambahkan fitur multi-modal seperti suara dan gambar telah membawa pengalaman pengguna ke tingkat yang lebih baru.
Namun, GPT4 memiliki lebih dari satu triliun parameter yang terlibat dalam pra-pelatihan model dan penyetelan halus yang sesuai. Ini adalah dua bagian dengan tuntutan daya komputasi terbesar dalam bidang KI. Di fase pra-pelatihan, sejumlah besar teks dipelajari untuk menguasai pola bahasa, tata bahasa, dan konteks terkait. Memungkinkan untuk memahami pola bahasa untuk menghasilkan teks yang koheren dan kontekstual berdasarkan input. Setelah pra-pelatihan, GPT4 disesuaikan lebih baik untuk menyesuaikan diri dengan jenis konten atau gaya tertentu dan meningkatkan kinerja dan spesialisasi dalam skenario permintaan tertentu.
Sejak arsitektur Transformer yang diadopsi oleh GPT memperkenalkan mekanisme self-attention, mekanisme ini memungkinkan model untuk secara bersamaan memperhatikan hubungan antara bagian-bagian berbeda dari urutan saat memproses urutan masukan. Oleh karena itu, permintaan untuk daya komputasi meningkat tajam. Terutama saat memproses urutan panjang, diperlukan sejumlah besar komputasi paralel dan penyimpanan sejumlah besar skor perhatian, yang juga memerlukan sejumlah besar memori dan kemampuan transmisi data berkecepatan tinggi. LLM mainstream saat ini dengan arsitektur yang sama memiliki permintaan besar untuk GPU kinerja tinggi, yang juga menunjukkan bahwa biaya investasi dalam bidang model AI besar sangat besar. Menurut perkiraan SemiAnalysis yang relevan, biaya pelatihan model GPT4 mencapai $63 juta. Untuk mencapai pengalaman interaktif yang baik, GPT4 juga perlu menginvestasikan sejumlah besar daya komputasi dalam operasinya sehari-hari untuk menjaga operasinya sehari-hari.
Di sini kita perlu memahami jenis-jenis perangkat keras daya komputasi utama saat ini. Skenario permintaan daya komputasi apa yang dapat ditangani oleh CPU, GPU, FPGA, dan ASIC masing-masing.
• Dari diagram arsitektur CPU dan GPU, GPU mengandung lebih banyak inti, yang memungkinkan GPU untuk memproses beberapa tugas komputasi secara bersamaan. Komputasi paralel memiliki kemampuan pemrosesan yang lebih kuat dan cocok untuk memproses sejumlah besar tugas komputasi, sehingga dalam bidang pembelajaran mesin dan pembelajaran mendalam Telah banyak digunakan. CPU memiliki jumlah inti yang lebih sedikit dan cocok untuk memproses satu perhitungan kompleks atau tugas urutan lebih intensif, tetapi tidak efisien seperti GPU saat memproses tugas komputasi paralel. Dalam tugas rendering dan tugas komputasi jaringan saraf, sejumlah besar perhitungan berulang dan perhitungan paralel biasanya perlu diproses, sehingga GPU lebih efisien dan cocok daripada CPU dalam aspek ini.
• FPGA (Field Programmable Gate Array) adalah rangkaian logika semi-kustom dalam bidang sirkuit terpadu khusus aplikasi (ASIC). Sebuah array yang terdiri dari sejumlah besar unit pemrosesan kecil, FPGA dapat dipahami sebagai chip sirkuit logika digital yang dapat diprogram. Aplikasi saat ini terutama berfokus pada percepatan perangkat keras, dan tugas lainnya masih diselesaikan di CPU, memungkinkan FPGA dan CPU untuk bekerja bersama-sama.
• ASIC (Application Specific Integrated Circuit) mengacu pada rangkaian terpadu yang dirancang untuk memenuhi persyaratan pengguna tertentu dan kebutuhan sistem elektronik tertentu. Dibandingkan dengan rangkaian terpadu tujuan umum, ASIC memiliki keunggulan ukuran lebih kecil, konsumsi daya yang lebih rendah, keandalan yang ditingkatkan, kinerja yang ditingkatkan, kerahasiaan yang ditingkatkan, dan biaya yang lebih rendah selama produksi massal. Oleh karena itu, dalam skenario khusus penambangan Bitcoin, yang hanya perlu melakukan tugas komputasi tertentu, ASIC adalah yang paling cocok. Google juga telah meluncurkan TPU (Tensor Processing Unit) yang dirancang khusus untuk pembelajaran mesin sebagai jenis ASIC, tetapi saat ini terutama menyediakan layanan sewa daya komputasi melalui Google Cloud.
• ASIC dibandingkan dengan FPGA, ASIC adalah sirkuit terpadu khusus aplikasi dan sirkuit terpadu ini tetap setelah desain selesai. FPGA mengintegrasikan sejumlah besar gerbang sirkuit digital dasar dan memori ke dalam larik. Pengembang dapat mendefinisikan sirkuit dengan memprogram konfigurasi FPGA, dan pemrograman ini dapat diganti. Namun, mengingat kecepatan pembaruan saat ini di bidang AI, chip yang disesuaikan atau semi-kustom tidak dapat disesuaikan ulang tepat waktu untuk melakukan tugas yang berbeda atau beradaptasi dengan algoritma baru. Oleh karena itu, adaptabilitas dan fleksibilitas umum GPU membuatnya bersinar di bidang AI. Produsen GPU utama juga telah melakukan optimisasi yang relevan untuk adaptasi GPU di bidang AI. Mengambil Nvidia sebagai contoh, telah meluncurkan seri Tesla dan GPU arsitektur Ampere yang dirancang khusus untuk pembelajaran mendalam. Hardware ini mengandung unit perangkat keras (Tensor Cores) yang dioptimalkan untuk perhitungan pembelajaran mesin dan pembelajaran mendalam, yang memungkinkan GPU untuk berkinerja lebih efisien. Konsumsi energi rendah untuk melakukan propagasi maju dan mundur dari jaringan saraf. Selain itu, berbagai alat dan perpustakaan disediakan untuk mendukung pengembangan AI, seperti CUDA (Compute Unified Device Architecture) untuk membantu pengembang menggunakan GPU untuk komputasi paralel lintas tujuan.
Daya komputasi terdesentralisasi mengacu pada metode penyediaan daya pemrosesan melalui sumber daya komputasi terdistribusi. Pendekatan terdesentralisasi ini biasanya dikombinasikan dengan teknologi blockchain atau teknologi buku besar terdistribusi serupa untuk mengumpulkan sumber daya komputasi yang tidak digunakan dan mendistribusikannya kepada pengguna yang membutuhkan untuk mencapai berbagi sumber daya, transaksi, dan manajemen.
• Permintaan perangkat keras komputasi yang kuat. Kemakmuran ekonomi pencipta telah membawa pemrosesan media digital ke dalam era kreasi universal. Permintaan untuk rendering efek visual telah melonjak, dan studio outsourcing rendering khusus, platform rendering cloud, dan bentuk lainnya telah muncul. Namun, pendekatan ini juga Anda perlu menginvestasikan banyak uang sendiri dalam pengadaan awal perangkat keras daya komputasi.
• Hardware daya komputasi berasal dari satu sumber. Pengembangan di bidang kecerdasan buatan telah meningkatkan permintaan akan hardware komputasi. Perusahaan manufaktur GPU terkemuka di dunia, dipimpin oleh Nvidia, telah menghasilkan banyak uang dalam kompetisi daya komputasi kecerdasan buatan ini. Kapasitas pasokannya bahkan telah menjadi faktor kunci yang dapat membatasi perkembangan industri tertentu. Nilai pasar Nvidia juga melampaui satu triliun dolar AS untuk pertama kalinya tahun ini.
• Penyediaan daya komputasi masih terutama bergantung pada platform cloud terpusat. Yang benar-benar mendapat manfaat dari lonjakan permintaan akan komputasi berkinerja tinggi adalah vendor cloud terpusat yang diwakili oleh AWS. Mereka telah meluncurkan layanan komputasi cloud GPU. Mengambil contoh AWS p4d.24xlarge saat ini, menyewa Satu server HPC seperti itu yang mengkhususkan diri dalam ML, yang berisi delapan Nvidia A100 40GB GPU, biayanya US$32,8 per jam, dan margin keuntungan kotor diperkirakan mencapai 61%. Hal ini juga menyebabkan raksasa cloud lainnya berbondong-bondong untuk berpartisipasi dan menyimpan hardware untuk mendapatkan sebanyak mungkin keuntungan pada tahap awal perkembangan industri.
• Intervensi politik, faktor-faktor manusiawi, dan lainnya menyebabkan perkembangan industri yang tidak merata. Ketidakseimbangan. Tidak sulit untuk melihat bahwa kepemilikan dan konsentrasi GPU lebih condong ke arah organisasi dan negara-negara dengan dana dan teknologi yang berlimpah, serta bergantung pada klaster komputasi berkinerja tinggi. Hal ini menyebabkan kekuatan manufaktur chip dan semikonduktor yang diwakili oleh Amerika Serikat juga menerapkan pembatasan yang lebih ketat terhadap ekspor chip kecerdasan buatan untuk melemahkan kemampuan penelitian negara lain di bidang kecerdasan buatan umum.
• Alokasi sumber daya daya komputasi terlalu terkonsentrasi. Inisiatif pengembangan di bidang Kecerdasan Buatan berada di tangan beberapa perusahaan raksasa. Saat ini, para raksasa yang diwakili oleh OpenAI memiliki restu dari Microsoft, dan di belakang mereka adalah sumber daya komputasi yang kaya yang disediakan oleh Microsoft Azure. Hal ini membuat setiap peluncuran produk baru oleh OpenAI menjadi pemodelan kembali dan integrasi industri Kecerdasan Buatan saat ini, sehingga sulit bagi tim lain untuk mengejar di bidang model-model besar.
Jadi di hadapan biaya perangkat keras yang tinggi, pembatasan geografis, dan perkembangan industri yang tidak merata, apakah ada solusi lain?
Platform daya komputasi terdesentralisasi muncul sesuai dengan kebutuhan zaman. Tujuan platform ini adalah untuk menciptakan pasar yang terbuka, transparan, dan otonom untuk lebih efektif memanfaatkan sumber daya komputasi global.
Harga perangkat keras yang tinggi saat ini dan kontrol buatan di sisi pasokan telah memberikan dasar bagi pembangunan jaringan daya komputasi terdesentralisasi.
• Dari perspektif komposisi daya komputasi terdesentralisasi, berbagai penyedia daya komputasi berkisar dari PC pribadi hingga Peralatan Internet of Things kecil sebesar pusat data, IDC, dll., Dan akumulasi daya komputasi dapat memberikan solusi komputasi yang lebih fleksibel dan terukur, sehingga membantu lebih banyak pengembang dan organisasi AI memanfaatkan sumber daya terbatas secara lebih efektif. Pembagian daya komputasi terdesentralisasi dapat dicapai melalui daya komputasi idle individu atau organisasi. Namun, ketersediaan dan stabilitas daya komputasi ini tunduk pada batasan penggunaan pengguna atau batas atas berbagi.
• Salah satu sumber potensial daya komputasi berkualitas tinggi adalah daya komputasi yang disediakan langsung oleh transformasi tambang yang relevan setelah Ethereum dikonversi menjadi PoS. Sumber daya manusia. Ambil Coreweave, penyedia daya komputasi terintegrasi GPU terkemuka di Amerika Serikat, sebagai contoh. Dulunya merupakan peternakan pertambangan Ethereum terbesar di Amerika Utara dan didasarkan pada infrastruktur lengkap yang telah dibangun. Selain itu, mesin pertambangan Ethereum yang sudah pensiun juga mengandung sejumlah besar GPU yang menganggur. Dilaporkan bahwa ada sekitar 27 juta GPU yang bekerja online pada puncak era pertambangan Ethereum. Menghidupkan kembali GPU ini juga dapat menjadi bagian penting dari jaringan daya komputasi terdesentralisasi.
• Dari sudut pandang implementasi teknis, sumber daya komputasi terdesentralisasi digunakan dalam rendering grafis dan transkoding video. Perhitungan tersebut kompleks. Untuk tugas-tugas tingkat rendah, sistem ekonomi yang menggabungkan teknologi blockchain dan web3 dapat memberikan insentif pendapatan yang nyata kepada peserta jaringan dan mengumpulkan model bisnis dan kelompok pelanggan yang efektif sambil memastikan transmisi data informasi yang aman. Bidang kecerdasan buatan melibatkan sejumlah besar komputasi paralel, komunikasi, dan sinkronisasi antar node, dan memiliki persyaratan yang sangat tinggi terhadap lingkungan jaringan dan aspek lainnya. Oleh karena itu, aplikasi saat ini juga difokuskan pada penyetelan halus, inferensi, AIGC, dan lapisan aplikasi lainnya yang lebih banyak.
• Dari sudut pandang logika bisnis, pasar yang hanya membeli dan menjual daya komputasi kurang imajinasi, dan industri hanya dapat mengatasi rantai pasokan dan penentuan harga. Strategi, tetapi ini kebetulan menjadi kelebihan layanan cloud terpusat. Oleh karena itu, langit-langit pasar rendah dan tidak ada ruang untuk lebih banyak imajinasi, sehingga kita juga dapat melihat bahwa jaringan yang awalnya melakukan rendering grafis sederhana sedang mencari transformasi AI. Sebagai contoh, Render Network dan kuartal pertama 2023 juga meluncurkan set alat AI Stabilitas terintegrasi asli, yang pengguna dapat Fungsi ini memperkenalkan operasi Difusi Stabil, dan bisnis tidak lagi terbatas pada operasi rendering tetapi berkembang ke bidang AI.
Dari sudut pandang kelompok pelanggan utama, jelas bahwa pelanggan B-side besar akan lebih memilih layanan cloud terpadu terpusat. Mereka biasanya dengan anggaran yang mencukupi, biasanya terlibat dalam pengembangan model-model dasar besar dan memerlukan bentuk agregasi daya komputasi yang lebih efisien; oleh karena itu, daya komputasi terdesentralisasi melayani lebih banyak tim pengembangan kecil dan menengah atau individu, dan sebagian besar terlibat dalam penyetelan model atau pengembangan lapisan aplikasi, yang tidak memiliki persyaratan tinggi terhadap bentuk daya komputasi yang disediakan. Mereka lebih sensitif terhadap harga. Daya komputasi terdesentralisasi pada dasarnya dapat mengurangi investasi biaya awal, sehingga biaya penggunaan secara keseluruhan juga lebih rendah. Berdasarkan biaya yang sebelumnya dihitung oleh Gensyn, daya komputasi dikonversi menjadi nilai setara yang disediakan oleh V100. Daya komputasi, harga Gensyn hanya US$0.4 per jam, yang 80% lebih rendah dari daya komputasi setara AWS sebesar US$2 per jam. Meskipun bagian bisnis ini tidak mendominasi pengeluaran dalam industri saat ini, karena skenario penggunaan aplikasi AI terus berkembang, ukuran pasar masa depan tidak boleh dianggap enteng.
• Dari sudut pandang layanan yang disediakan, dapat ditemukan bahwa proyek saat ini lebih mirip dengan konsep platform cloud terdesentralisasi, menyediakan seperangkat lengkap manajemen mulai dari pengembangan, implementasi, online, distribusi, dan transaksi. Keuntungannya adalah untuk menarik pengembang, yang dapat menggunakan komponen alat terkait untuk menyederhanakan pengembangan dan implementasi serta meningkatkan efisiensi; pada saat yang sama, dapat menarik pengguna untuk menggunakan produk aplikasi lengkap ini di platform ini, membentuk parit ekologis berdasarkan jaringan daya komputasinya sendiri. Tetapi hal ini juga menempatkan persyaratan yang lebih tinggi untuk operasi proyek. Bagaimana menarik pengembang dan pengguna yang luar biasa dan mencapai retensi sangat penting.
Render Network Platform rendering global berbasis blockchain, tujuannya adalah untuk membantu pencipta dengan kreativitas digital. Ini memungkinkan pencipta untuk memperluas pekerjaan rendering GPU ke node GPU global sesuai permintaan, menyediakan kemampuan rendering yang lebih cepat dan lebih murah. Setelah pencipta mengonfirmasi hasil rendering, jaringan blockchain mengirimkan kode ke node. Hadiah koin. Dibandingkan dengan metode implementasi efek visual tradisional, pendirian infrastruktur rendering lokal atau menambahkan biaya GPU yang sesuai ke layanan cloud yang dibeli memerlukan investasi awal yang tinggi.
Sejak didirikan pada tahun 2017, pengguna Render Network telah merender lebih dari 16 juta frame dan hampir 500.000 scene di jaringan tersebut. Data yang dirilis dari Render Network 2023 Q2 juga dapat menunjukkan bahwa baik jumlah pekerjaan frame rendering maupun jumlah node aktif semakin meningkat. Selain itu, Render Network dan 2023 Q1 juga telah meluncurkan seperangkat alat AI Stabilitas yang terintegrasi secara native. Pengguna dapat menggunakan fungsi ini untuk memperkenalkan operasi Diffusion Stabil, dan bisnis tidak lagi terbatas pada operasi rendering dan berkembang ke bidang AI.
Livepeer menyediakan layanan transkoding video real-time kepada para pembuat konten melalui partisipan jaringan yang memberikan daya komputasi GPU dan bandwidth mereka sendiri. Broadcaster dapat menyelesaikan transkoding berbagai jenis video dengan mengirimkan video ke Livepeer dan mendistribusikannya ke berbagai pengguna di sisi akhir, sehingga mewujudkan penyebaran konten video. Sementara itu, Anda dapat dengan mudah membayar dalam mata uang legal untuk mendapatkan layanan seperti transkoding video, transmisi, dan penyimpanan.
Di jaringan Livepeer, siapapun diperbolehkan untuk menyumbangkan sumber daya komputer pribadi (CPU, GPU, dan bandwidth) untuk mentranskode dan mendistribusikan video guna mendapatkan biaya. Token asli (LPT) mewakili hak dan kepentingan peserta jaringan di dalam jaringan. Jumlah token yang dijanjikan menentukan bobot node di jaringan, sehingga memengaruhi peluangnya untuk mendapatkan tugas transkoding. Pada saat yang sama, LPT juga berperan dalam membimbing node untuk menyelesaikan tugas yang diberikan dengan aman, dapat diandalkan, dan cepat.
Dalam ekosistem saat ini di bidang AI, pemain utama dapat dibagi secara kasar menjadi:
Mulai dari sisi permintaan, terdapat perbedaan yang jelas dalam permintaan akan Daya Komputasi pada berbagai tahap industri. Mengambil pengembangan model dasar sebagai contoh, proses pra-pelatihan memerlukan komputasi paralel yang sangat tinggi, penyimpanan, komunikasi, dll. untuk memastikan efektivitas hasil pelatihan. Hal ini memerlukan klaster daya komputasi besar untuk menyelesaikan tugas terkait. Saat ini, pasokan utama daya komputasi lebih banyak bergantung pada ruang komputer yang dibangun sendiri dan platform layanan cloud terpusat. Pada tahap-tahap selanjutnya dari penajaman model, penalaran real-time, dan pengembangan aplikasi, persyaratan untuk komputasi paralel dan komunikasi antar-node tidak terlalu tinggi. Inilah tempat di mana daya komputasi terdesentralisasi dapat menunjukkan potensinya sepenuhnya.
Melihat proyek-proyek yang telah mendapatkan popularitas yang cukup sebelumnya, Akash Nework telah melakukan beberapa upaya dalam arah daya komputasi terdesentralisasi:
Akash Network menggabungkan komponen teknologi yang berbeda untuk memungkinkan pengguna menyebarkan dan mengelola aplikasi secara efisien dan fleksibel dalam lingkungan cloud yang terdesentralisasi. Pengguna dapat menggunakan teknologi kontainer Docker untuk mengemas aplikasi, lalu menerapkan dan menskalakannya melalui Kubernetes melalui CloudMOS pada sumber daya cloud yang disediakan oleh Akash. Akash menggunakan pendekatan "lelang terbalik", yang membuat harga lebih rendah daripada layanan cloud tradisional.
Akash Network juga mengumumkan pada bulan Agustus tahun ini bahwa akan meluncurkan upgrade keenam jaringan utamanya, menggabungkan dukungan untuk GPU ke layanan cloud-nya, dan menyediakan Daya Komputasi kepada lebih banyak tim AI di masa depan.
Gensyn.ai, sebuah proyek yang telah menarik banyak perhatian di industri tahun ini, dipimpin oleh a16z dan menyelesaikan pendanaan Seri A sebesar US$43 juta. Menurut dokumen yang telah dirilis sejauh ini, proyek ini adalah jaringan utama berbasis protokol L1 PoS dari jaringan Polkadot, berfokus pada pembelajaran mendalam. Tujuannya adalah mendorong batas-batas pembelajaran mesin dengan menciptakan jaringan klaster superkomputasi global. Jaringan ini menghubungkan perangkat mulai dari pusat data dengan daya komputasi berlebih hingga PC yang potensial untuk menyumbangkan GPU pribadi, ASIC khusus, dan SoCs.
Untuk memecahkan beberapa masalah yang saat ini ada dalam daya komputasi terdesentralisasi, Gensyn mengandalkan beberapa hasil penelitian teoritis baru di dunia akademis:
Menerapkan pembelajaran probabilitas bukti, yaitu, menggunakan metadata dari proses optimisasi berbasis gradien untuk membuat bukti pelaksanaan tugas yang relevan untuk mempercepat proses verifikasi;
Protokol Pinpoint Berbasis Graf, GPP berfungsi sebagai jembatan, menghubungkan eksekusi offline dari DNN (Deep Neural Network) dan kerangka kontrak pintar pada blockchain, memecahkan inkonsistensi yang mudah terjadi di seluruh perangkat keras, dan memastikan konsistensi verifikasi.
Sebuah metode insentif yang mirip dengan Truebit, melalui kombinasi staking dan hukuman, membentuk sistem insentif yang memungkinkan peserta secara ekonomis rasional untuk jujur menjalankan tugas yang diberikan. Mekanisme ini menggunakan kriptografi dan metode teori permainan. Sistem verifikasi ini penting untuk mempertahankan integritas dan keandalan perhitungan pelatihan model besar.
Namun, perlu dicatat bahwa konten di atas lebih tentang menyelesaikan tingkat verifikasi penyelesaian tugas, daripada daya komputasi terdesentralisasi untuk mencapai fungsi pelatihan model sebagai sorotan utama dalam dokumen proyek, terutama tentang komputasi paralel dan Optimisasi distribusi komunikasi, sinkronisasi, dan masalah lain antara perangkat keras. Saat ini, dipengaruhi oleh laten jaringan (Latency) dan bandwidth (Bandwidth), komunikasi yang sering antara node akan meningkatkan waktu iterasi dan biaya komunikasi. Ini tidak hanya tidak akan membawa optimisasi sebenarnya, tetapi akan mengurangi efisiensi pelatihan. Pendekatan Gensyn dalam menangani komunikasi node dan komputasi paralel dalam pelatihan model dapat melibatkan protokol koordinasi kompleks untuk mengelola sifat terdistribusi komputasi. Namun, tanpa informasi teknis yang lebih rinci atau pemahaman yang lebih mendalam tentang metode khusus mereka, mekanisme persis yang digunakan Gensyn untuk mencapai pelatihan model berskala besar melalui jaringannya tidak akan benar-benar terungkap hingga proyek berjalan.
Kami juga memperhatikan protokol Edge Matrix Computing (EMC) yang menggunakan teknologi blockchain untuk menerapkan daya komputasi ke kecerdasan buatan, rendering, dan penelitian ilmiah, akses e-commerce AI, dan jenis skenario lainnya, tugas didistribusikan ke node daya komputasi yang berbeda melalui komputasi elastis. Metode ini tidak hanya meningkatkan efisiensi daya komputasi, tetapi juga memastikan keamanan transmisi data. Pada saat yang sama, itu menyediakan pasar daya komputasi di mana pengguna dapat mengakses dan bertukar sumber daya komputasi. Ini memudahkan pengembang untuk implementasi dan mencapai pengguna dengan lebih cepat. Digabungkan dengan bentuk ekonomi Web3, penyedia daya komputasi juga dapat memperoleh manfaat nyata dan subsidi pihak protokol berdasarkan penggunaan aktual pengguna, dan pengembang AI juga dapat memperoleh biaya penalaran dan rendering yang lebih rendah. Berikut adalah gambaran singkat tentang komponen dan fungsi utamanya:
Diharapkan juga bahwa produk RWA berbasis GPU akan diluncurkan. Kunci dari ini adalah untuk merangsang kembali perangkat keras yang awalnya terpasang di ruang komputer dan membaginya serta mengalirkannya dalam bentuk RWA untuk mendapatkan likuiditas tambahan. GPU berkualitas tinggi dapat digunakan sebagai aset dasar dari RWA. Alasannya adalah bahwa daya komputasi dapat dianggap sebagai mata uang kuat di bidang AI. Saat ini terdapat pertentangan yang jelas antara penawaran dan permintaan, dan pertentangan ini tidak dapat diselesaikan dalam jangka pendek, sehingga harga GPU relatif stabil.
Selain itu, mengimplementasikan klaster daya komputasi dengan mendeploy ruang komputer IDC juga merupakan bagian kunci dari protokol EMC. Hal ini tidak hanya memungkinkan GPU untuk beroperasi dalam lingkungan yang terpadu, tetapi juga menangani tugas-tugas pemrosesan daya komputasi berskala besar terkait secara lebih efisien, seperti pra-pelatihan model. Hal ini memenuhi kebutuhan pengguna profesional. Pada saat yang sama, ruang komputer IDC juga dapat secara terpusat meng-host dan menjalankan sejumlah besar GPU untuk memastikan spesifikasi teknis dari perangkat keras berkualitas tinggi yang sama, sehingga memudahkan untuk mengemasnya ke pasar sebagai produk RWA dan membuka gagasan baru untuk DeFi.
Dalam beberapa tahun terakhir, komunitas akademis juga telah mengembangkan teori-teori teknis baru dan praktik aplikasi di bidang komputasi tepi. Sebagai pelengkap dan optimisasi dari komputasi awan, komputasi tepi adalah bagian dari kecerdasan buatan yang sedang bergerak dari awan ke tepi dan ke dalam perangkat IoT yang semakin kecil. Perangkat IoT ini seringkali kecil, sehingga pembelajaran mesin ringan lebih disukai untuk memenuhi isu-isu seperti konsumsi daya, latensi, dan akurasi.
Network3 dibangun dengan membangun Lapisan AI Layer2 yang didedikasikan untuk menyediakan pengembang AI di seluruh dunia dengan optimisasi algoritma model AI dan kompresi, pembelajaran federated, komputasi tepi, dan komputasi privasi. Menyediakan layanan untuk membantu mereka melatih atau memverifikasi model dengan cepat, nyaman, dan efisien. Dengan memanfaatkan sejumlah besar perangkat keras IoT pintar, dapat fokus pada model-model kecil untuk menyediakan daya komputasi yang sesuai, dan dengan membangun TEE (Trusted Execution Environment), pengguna dapat menyelesaikan pelatihan yang relevan hanya dengan mengunggah gradien model untuk memastikan privasi data pengguna dan keamanan.
Dengan perkembangan AI dan bidang lainnya, banyak industri akan mengalami perubahan besar dalam logika dasarnya, daya komputasi akan naik ke posisi yang lebih penting, dan berbagai aspek yang terkait dengannya juga akan menimbulkan eksplorasi yang luas di industri. Jaringan daya komputasi terdesentralisasi memiliki keunggulan sendiri yang dapat mengurangi risiko sentralisasi dan juga dapat berfungsi sebagai pelengkap untuk daya komputasi terpusat.
• Dan tim-tim di bidang AI juga berada di persimpangan jalan. Pilihan apakah menggunakan model-model besar yang terlatih untuk membangun produk mereka sendiri atau untuk berpartisipasi dalam pelatihan model-model besar di wilayah masing-masing sebagian besar bersifat dialektis. Oleh karena itu, daya komputasi terdesentralisasi dapat memenuhi berbagai kebutuhan bisnis. Tren pengembangan ini disambut baik, dan dengan pembaruan teknologi dan iterasi algoritma, akan ada terobosan dalam area-area kunci.
• Jangan takut, hanya perlahan-lahan cari tahu.
Referensi
https://www.semianalysis.com/p/gpt-4-architecture-infrastructure
https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5
https://know.rendernetwork.com/
https://www.youtube.com/watch?v=FDA9wqZmsY8
https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k
https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo
https://docs.gensyn.ai/litepaper/#solusi
https://a16zcrypto.com/posts/announcement/investing-in-gensyn/
https://www.pinecone.io/learn/chunking-strategies/
https://akash.network/blog/the-fast-evolving-ai-landscape/
https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/
https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc
Mời người khác bỏ phiếu
Sejak rilis “Avatar” pada tahun 2009, film ini meluncurkan pertempuran pertama film 3D dengan gambar nyata yang tak tertandingi. Sebagai kontributor besar di baliknya, Weta Digital berkontribusi pada rendering efek visual seluruh film. Di peternakan server seluas 10.000 kaki persegi di Selandia Baru, kluster komputernya memproses hingga 1,4 juta tugas per hari dan memproses 8GB data per detik. Meskipun demikian, server tersebut terus berjalan selama lebih dari sebulan sebelum semua rendering selesai.
Dengan penempatan mesin berskala besar dan investasi biaya, “Avatar” telah mencapai prestasi luar biasa dalam sejarah film.
Pada tanggal 3 Januari tahun yang sama, Satoshi Nakamoto menambang blok genesis Bitcoin pada server kecil di Helsinki, Finlandia, dan menerima imbalan blok sebesar 50 BTC. Sejak hari pertama cryptocurrency, daya komputasi telah memainkan peran yang sangat penting dalam industri ini.
Rantai terpanjang tidak hanya berfungsi sebagai bukti urutan peristiwa yang disaksikan, tetapi juga bukti bahwa itu berasal dari kolam daya CPU terbesar.
—— Bitcoin Whitepaper
Dalam konteks mekanisme konsensus PoW, kontribusi daya komputasi memberikan jaminan untuk keamanan rantai. Pada saat yang sama, Hashrate yang terus meningkat juga dapat membuktikan investasi berkelanjutan para penambang dalam daya komputasi dan harapan pendapatan positif. Permintaan nyata industri untuk daya komputasi juga sangat mendorong perkembangan produsen chip. Chip mesin penambangan telah melalui tahap pengembangan seperti CPU, GPU, FPGA, dan ASIC. Saat ini, mesin penambangan Bitcoin biasanya menggunakan chip berbasis teknologi ASIC (Application Specific Ingrated Circuit) yang dapat mengeksekusi algoritma tertentu secara efisien, seperti SHA-256. Manfaat ekonomi besar yang dibawa oleh Bitcoin juga mendorong permintaan akan daya komputasi dalam penambangan terkait. Namun, peralatan yang terlalu spesifik dan efek klaster telah menyebabkan efek siphon di antara pesertanya sendiri, baik mereka penambang atau produsen mesin penambangan. Mereka semuanya menunjukkan tren pengembangan terkonsentrasi yang intensif secara modal.
Dengan munculnya kontrak pintar Ethereum, programabilitas, komposabilitas, dan fitur lainnya telah membentuk berbagai aplikasi, terutama di bidang DeFi, yang telah membuat harga ETH naik sepanjang waktu, sementara masih dalam konsensus PoW. Kesulitan penambangan Ethereum pada tahap ini juga terus meningkat. Persyaratan daya komputasi penambang untuk mesin penambangan Ethereum juga semakin meningkat dari hari ke hari. Namun, berbeda dengan Bitcoin yang menggunakan chip ASIC, Ethereum perlu menggunakan unit pemrosesan grafis (GPU) untuk perhitungan penambangan, seperti seri Nvidia RTX. Dengan cara ini, lebih cocok untuk perangkat keras komputasi umum untuk berpartisipasi. Hal ini bahkan memicu persaingan pasar untuk GPU, yang menyebabkan kartu grafis high-end di pasaran habis terjual.
Ketika saatnya tiba pada 30 November 2022, ChatGPT yang dikembangkan oleh OpenAI juga menunjukkan signifikansi yang membuka babak baru di bidang Kecerdasan Buatan. Pengguna terpesona dengan pengalaman baru yang dibawa oleh ChatGPT, yang dapat menyelesaikan berbagai tugas yang diajukan pengguna berdasarkan konteks seperti orang sungguhan. Membutuhkan. Pada versi baru yang diluncurkan pada bulan September tahun ini, kecerdasan buatan generatif yang menambahkan fitur multi-modal seperti suara dan gambar telah membawa pengalaman pengguna ke tingkat yang lebih baru.
Namun, GPT4 memiliki lebih dari satu triliun parameter yang terlibat dalam pra-pelatihan model dan penyetelan halus yang sesuai. Ini adalah dua bagian dengan tuntutan daya komputasi terbesar dalam bidang KI. Di fase pra-pelatihan, sejumlah besar teks dipelajari untuk menguasai pola bahasa, tata bahasa, dan konteks terkait. Memungkinkan untuk memahami pola bahasa untuk menghasilkan teks yang koheren dan kontekstual berdasarkan input. Setelah pra-pelatihan, GPT4 disesuaikan lebih baik untuk menyesuaikan diri dengan jenis konten atau gaya tertentu dan meningkatkan kinerja dan spesialisasi dalam skenario permintaan tertentu.
Sejak arsitektur Transformer yang diadopsi oleh GPT memperkenalkan mekanisme self-attention, mekanisme ini memungkinkan model untuk secara bersamaan memperhatikan hubungan antara bagian-bagian berbeda dari urutan saat memproses urutan masukan. Oleh karena itu, permintaan untuk daya komputasi meningkat tajam. Terutama saat memproses urutan panjang, diperlukan sejumlah besar komputasi paralel dan penyimpanan sejumlah besar skor perhatian, yang juga memerlukan sejumlah besar memori dan kemampuan transmisi data berkecepatan tinggi. LLM mainstream saat ini dengan arsitektur yang sama memiliki permintaan besar untuk GPU kinerja tinggi, yang juga menunjukkan bahwa biaya investasi dalam bidang model AI besar sangat besar. Menurut perkiraan SemiAnalysis yang relevan, biaya pelatihan model GPT4 mencapai $63 juta. Untuk mencapai pengalaman interaktif yang baik, GPT4 juga perlu menginvestasikan sejumlah besar daya komputasi dalam operasinya sehari-hari untuk menjaga operasinya sehari-hari.
Di sini kita perlu memahami jenis-jenis perangkat keras daya komputasi utama saat ini. Skenario permintaan daya komputasi apa yang dapat ditangani oleh CPU, GPU, FPGA, dan ASIC masing-masing.
• Dari diagram arsitektur CPU dan GPU, GPU mengandung lebih banyak inti, yang memungkinkan GPU untuk memproses beberapa tugas komputasi secara bersamaan. Komputasi paralel memiliki kemampuan pemrosesan yang lebih kuat dan cocok untuk memproses sejumlah besar tugas komputasi, sehingga dalam bidang pembelajaran mesin dan pembelajaran mendalam Telah banyak digunakan. CPU memiliki jumlah inti yang lebih sedikit dan cocok untuk memproses satu perhitungan kompleks atau tugas urutan lebih intensif, tetapi tidak efisien seperti GPU saat memproses tugas komputasi paralel. Dalam tugas rendering dan tugas komputasi jaringan saraf, sejumlah besar perhitungan berulang dan perhitungan paralel biasanya perlu diproses, sehingga GPU lebih efisien dan cocok daripada CPU dalam aspek ini.
• FPGA (Field Programmable Gate Array) adalah rangkaian logika semi-kustom dalam bidang sirkuit terpadu khusus aplikasi (ASIC). Sebuah array yang terdiri dari sejumlah besar unit pemrosesan kecil, FPGA dapat dipahami sebagai chip sirkuit logika digital yang dapat diprogram. Aplikasi saat ini terutama berfokus pada percepatan perangkat keras, dan tugas lainnya masih diselesaikan di CPU, memungkinkan FPGA dan CPU untuk bekerja bersama-sama.
• ASIC (Application Specific Integrated Circuit) mengacu pada rangkaian terpadu yang dirancang untuk memenuhi persyaratan pengguna tertentu dan kebutuhan sistem elektronik tertentu. Dibandingkan dengan rangkaian terpadu tujuan umum, ASIC memiliki keunggulan ukuran lebih kecil, konsumsi daya yang lebih rendah, keandalan yang ditingkatkan, kinerja yang ditingkatkan, kerahasiaan yang ditingkatkan, dan biaya yang lebih rendah selama produksi massal. Oleh karena itu, dalam skenario khusus penambangan Bitcoin, yang hanya perlu melakukan tugas komputasi tertentu, ASIC adalah yang paling cocok. Google juga telah meluncurkan TPU (Tensor Processing Unit) yang dirancang khusus untuk pembelajaran mesin sebagai jenis ASIC, tetapi saat ini terutama menyediakan layanan sewa daya komputasi melalui Google Cloud.
• ASIC dibandingkan dengan FPGA, ASIC adalah sirkuit terpadu khusus aplikasi dan sirkuit terpadu ini tetap setelah desain selesai. FPGA mengintegrasikan sejumlah besar gerbang sirkuit digital dasar dan memori ke dalam larik. Pengembang dapat mendefinisikan sirkuit dengan memprogram konfigurasi FPGA, dan pemrograman ini dapat diganti. Namun, mengingat kecepatan pembaruan saat ini di bidang AI, chip yang disesuaikan atau semi-kustom tidak dapat disesuaikan ulang tepat waktu untuk melakukan tugas yang berbeda atau beradaptasi dengan algoritma baru. Oleh karena itu, adaptabilitas dan fleksibilitas umum GPU membuatnya bersinar di bidang AI. Produsen GPU utama juga telah melakukan optimisasi yang relevan untuk adaptasi GPU di bidang AI. Mengambil Nvidia sebagai contoh, telah meluncurkan seri Tesla dan GPU arsitektur Ampere yang dirancang khusus untuk pembelajaran mendalam. Hardware ini mengandung unit perangkat keras (Tensor Cores) yang dioptimalkan untuk perhitungan pembelajaran mesin dan pembelajaran mendalam, yang memungkinkan GPU untuk berkinerja lebih efisien. Konsumsi energi rendah untuk melakukan propagasi maju dan mundur dari jaringan saraf. Selain itu, berbagai alat dan perpustakaan disediakan untuk mendukung pengembangan AI, seperti CUDA (Compute Unified Device Architecture) untuk membantu pengembang menggunakan GPU untuk komputasi paralel lintas tujuan.
Daya komputasi terdesentralisasi mengacu pada metode penyediaan daya pemrosesan melalui sumber daya komputasi terdistribusi. Pendekatan terdesentralisasi ini biasanya dikombinasikan dengan teknologi blockchain atau teknologi buku besar terdistribusi serupa untuk mengumpulkan sumber daya komputasi yang tidak digunakan dan mendistribusikannya kepada pengguna yang membutuhkan untuk mencapai berbagi sumber daya, transaksi, dan manajemen.
• Permintaan perangkat keras komputasi yang kuat. Kemakmuran ekonomi pencipta telah membawa pemrosesan media digital ke dalam era kreasi universal. Permintaan untuk rendering efek visual telah melonjak, dan studio outsourcing rendering khusus, platform rendering cloud, dan bentuk lainnya telah muncul. Namun, pendekatan ini juga Anda perlu menginvestasikan banyak uang sendiri dalam pengadaan awal perangkat keras daya komputasi.
• Hardware daya komputasi berasal dari satu sumber. Pengembangan di bidang kecerdasan buatan telah meningkatkan permintaan akan hardware komputasi. Perusahaan manufaktur GPU terkemuka di dunia, dipimpin oleh Nvidia, telah menghasilkan banyak uang dalam kompetisi daya komputasi kecerdasan buatan ini. Kapasitas pasokannya bahkan telah menjadi faktor kunci yang dapat membatasi perkembangan industri tertentu. Nilai pasar Nvidia juga melampaui satu triliun dolar AS untuk pertama kalinya tahun ini.
• Penyediaan daya komputasi masih terutama bergantung pada platform cloud terpusat. Yang benar-benar mendapat manfaat dari lonjakan permintaan akan komputasi berkinerja tinggi adalah vendor cloud terpusat yang diwakili oleh AWS. Mereka telah meluncurkan layanan komputasi cloud GPU. Mengambil contoh AWS p4d.24xlarge saat ini, menyewa Satu server HPC seperti itu yang mengkhususkan diri dalam ML, yang berisi delapan Nvidia A100 40GB GPU, biayanya US$32,8 per jam, dan margin keuntungan kotor diperkirakan mencapai 61%. Hal ini juga menyebabkan raksasa cloud lainnya berbondong-bondong untuk berpartisipasi dan menyimpan hardware untuk mendapatkan sebanyak mungkin keuntungan pada tahap awal perkembangan industri.
• Intervensi politik, faktor-faktor manusiawi, dan lainnya menyebabkan perkembangan industri yang tidak merata. Ketidakseimbangan. Tidak sulit untuk melihat bahwa kepemilikan dan konsentrasi GPU lebih condong ke arah organisasi dan negara-negara dengan dana dan teknologi yang berlimpah, serta bergantung pada klaster komputasi berkinerja tinggi. Hal ini menyebabkan kekuatan manufaktur chip dan semikonduktor yang diwakili oleh Amerika Serikat juga menerapkan pembatasan yang lebih ketat terhadap ekspor chip kecerdasan buatan untuk melemahkan kemampuan penelitian negara lain di bidang kecerdasan buatan umum.
• Alokasi sumber daya daya komputasi terlalu terkonsentrasi. Inisiatif pengembangan di bidang Kecerdasan Buatan berada di tangan beberapa perusahaan raksasa. Saat ini, para raksasa yang diwakili oleh OpenAI memiliki restu dari Microsoft, dan di belakang mereka adalah sumber daya komputasi yang kaya yang disediakan oleh Microsoft Azure. Hal ini membuat setiap peluncuran produk baru oleh OpenAI menjadi pemodelan kembali dan integrasi industri Kecerdasan Buatan saat ini, sehingga sulit bagi tim lain untuk mengejar di bidang model-model besar.
Jadi di hadapan biaya perangkat keras yang tinggi, pembatasan geografis, dan perkembangan industri yang tidak merata, apakah ada solusi lain?
Platform daya komputasi terdesentralisasi muncul sesuai dengan kebutuhan zaman. Tujuan platform ini adalah untuk menciptakan pasar yang terbuka, transparan, dan otonom untuk lebih efektif memanfaatkan sumber daya komputasi global.
Harga perangkat keras yang tinggi saat ini dan kontrol buatan di sisi pasokan telah memberikan dasar bagi pembangunan jaringan daya komputasi terdesentralisasi.
• Dari perspektif komposisi daya komputasi terdesentralisasi, berbagai penyedia daya komputasi berkisar dari PC pribadi hingga Peralatan Internet of Things kecil sebesar pusat data, IDC, dll., Dan akumulasi daya komputasi dapat memberikan solusi komputasi yang lebih fleksibel dan terukur, sehingga membantu lebih banyak pengembang dan organisasi AI memanfaatkan sumber daya terbatas secara lebih efektif. Pembagian daya komputasi terdesentralisasi dapat dicapai melalui daya komputasi idle individu atau organisasi. Namun, ketersediaan dan stabilitas daya komputasi ini tunduk pada batasan penggunaan pengguna atau batas atas berbagi.
• Salah satu sumber potensial daya komputasi berkualitas tinggi adalah daya komputasi yang disediakan langsung oleh transformasi tambang yang relevan setelah Ethereum dikonversi menjadi PoS. Sumber daya manusia. Ambil Coreweave, penyedia daya komputasi terintegrasi GPU terkemuka di Amerika Serikat, sebagai contoh. Dulunya merupakan peternakan pertambangan Ethereum terbesar di Amerika Utara dan didasarkan pada infrastruktur lengkap yang telah dibangun. Selain itu, mesin pertambangan Ethereum yang sudah pensiun juga mengandung sejumlah besar GPU yang menganggur. Dilaporkan bahwa ada sekitar 27 juta GPU yang bekerja online pada puncak era pertambangan Ethereum. Menghidupkan kembali GPU ini juga dapat menjadi bagian penting dari jaringan daya komputasi terdesentralisasi.
• Dari sudut pandang implementasi teknis, sumber daya komputasi terdesentralisasi digunakan dalam rendering grafis dan transkoding video. Perhitungan tersebut kompleks. Untuk tugas-tugas tingkat rendah, sistem ekonomi yang menggabungkan teknologi blockchain dan web3 dapat memberikan insentif pendapatan yang nyata kepada peserta jaringan dan mengumpulkan model bisnis dan kelompok pelanggan yang efektif sambil memastikan transmisi data informasi yang aman. Bidang kecerdasan buatan melibatkan sejumlah besar komputasi paralel, komunikasi, dan sinkronisasi antar node, dan memiliki persyaratan yang sangat tinggi terhadap lingkungan jaringan dan aspek lainnya. Oleh karena itu, aplikasi saat ini juga difokuskan pada penyetelan halus, inferensi, AIGC, dan lapisan aplikasi lainnya yang lebih banyak.
• Dari sudut pandang logika bisnis, pasar yang hanya membeli dan menjual daya komputasi kurang imajinasi, dan industri hanya dapat mengatasi rantai pasokan dan penentuan harga. Strategi, tetapi ini kebetulan menjadi kelebihan layanan cloud terpusat. Oleh karena itu, langit-langit pasar rendah dan tidak ada ruang untuk lebih banyak imajinasi, sehingga kita juga dapat melihat bahwa jaringan yang awalnya melakukan rendering grafis sederhana sedang mencari transformasi AI. Sebagai contoh, Render Network dan kuartal pertama 2023 juga meluncurkan set alat AI Stabilitas terintegrasi asli, yang pengguna dapat Fungsi ini memperkenalkan operasi Difusi Stabil, dan bisnis tidak lagi terbatas pada operasi rendering tetapi berkembang ke bidang AI.
Dari sudut pandang kelompok pelanggan utama, jelas bahwa pelanggan B-side besar akan lebih memilih layanan cloud terpadu terpusat. Mereka biasanya dengan anggaran yang mencukupi, biasanya terlibat dalam pengembangan model-model dasar besar dan memerlukan bentuk agregasi daya komputasi yang lebih efisien; oleh karena itu, daya komputasi terdesentralisasi melayani lebih banyak tim pengembangan kecil dan menengah atau individu, dan sebagian besar terlibat dalam penyetelan model atau pengembangan lapisan aplikasi, yang tidak memiliki persyaratan tinggi terhadap bentuk daya komputasi yang disediakan. Mereka lebih sensitif terhadap harga. Daya komputasi terdesentralisasi pada dasarnya dapat mengurangi investasi biaya awal, sehingga biaya penggunaan secara keseluruhan juga lebih rendah. Berdasarkan biaya yang sebelumnya dihitung oleh Gensyn, daya komputasi dikonversi menjadi nilai setara yang disediakan oleh V100. Daya komputasi, harga Gensyn hanya US$0.4 per jam, yang 80% lebih rendah dari daya komputasi setara AWS sebesar US$2 per jam. Meskipun bagian bisnis ini tidak mendominasi pengeluaran dalam industri saat ini, karena skenario penggunaan aplikasi AI terus berkembang, ukuran pasar masa depan tidak boleh dianggap enteng.
• Dari sudut pandang layanan yang disediakan, dapat ditemukan bahwa proyek saat ini lebih mirip dengan konsep platform cloud terdesentralisasi, menyediakan seperangkat lengkap manajemen mulai dari pengembangan, implementasi, online, distribusi, dan transaksi. Keuntungannya adalah untuk menarik pengembang, yang dapat menggunakan komponen alat terkait untuk menyederhanakan pengembangan dan implementasi serta meningkatkan efisiensi; pada saat yang sama, dapat menarik pengguna untuk menggunakan produk aplikasi lengkap ini di platform ini, membentuk parit ekologis berdasarkan jaringan daya komputasinya sendiri. Tetapi hal ini juga menempatkan persyaratan yang lebih tinggi untuk operasi proyek. Bagaimana menarik pengembang dan pengguna yang luar biasa dan mencapai retensi sangat penting.
Render Network Platform rendering global berbasis blockchain, tujuannya adalah untuk membantu pencipta dengan kreativitas digital. Ini memungkinkan pencipta untuk memperluas pekerjaan rendering GPU ke node GPU global sesuai permintaan, menyediakan kemampuan rendering yang lebih cepat dan lebih murah. Setelah pencipta mengonfirmasi hasil rendering, jaringan blockchain mengirimkan kode ke node. Hadiah koin. Dibandingkan dengan metode implementasi efek visual tradisional, pendirian infrastruktur rendering lokal atau menambahkan biaya GPU yang sesuai ke layanan cloud yang dibeli memerlukan investasi awal yang tinggi.
Sejak didirikan pada tahun 2017, pengguna Render Network telah merender lebih dari 16 juta frame dan hampir 500.000 scene di jaringan tersebut. Data yang dirilis dari Render Network 2023 Q2 juga dapat menunjukkan bahwa baik jumlah pekerjaan frame rendering maupun jumlah node aktif semakin meningkat. Selain itu, Render Network dan 2023 Q1 juga telah meluncurkan seperangkat alat AI Stabilitas yang terintegrasi secara native. Pengguna dapat menggunakan fungsi ini untuk memperkenalkan operasi Diffusion Stabil, dan bisnis tidak lagi terbatas pada operasi rendering dan berkembang ke bidang AI.
Livepeer menyediakan layanan transkoding video real-time kepada para pembuat konten melalui partisipan jaringan yang memberikan daya komputasi GPU dan bandwidth mereka sendiri. Broadcaster dapat menyelesaikan transkoding berbagai jenis video dengan mengirimkan video ke Livepeer dan mendistribusikannya ke berbagai pengguna di sisi akhir, sehingga mewujudkan penyebaran konten video. Sementara itu, Anda dapat dengan mudah membayar dalam mata uang legal untuk mendapatkan layanan seperti transkoding video, transmisi, dan penyimpanan.
Di jaringan Livepeer, siapapun diperbolehkan untuk menyumbangkan sumber daya komputer pribadi (CPU, GPU, dan bandwidth) untuk mentranskode dan mendistribusikan video guna mendapatkan biaya. Token asli (LPT) mewakili hak dan kepentingan peserta jaringan di dalam jaringan. Jumlah token yang dijanjikan menentukan bobot node di jaringan, sehingga memengaruhi peluangnya untuk mendapatkan tugas transkoding. Pada saat yang sama, LPT juga berperan dalam membimbing node untuk menyelesaikan tugas yang diberikan dengan aman, dapat diandalkan, dan cepat.
Dalam ekosistem saat ini di bidang AI, pemain utama dapat dibagi secara kasar menjadi:
Mulai dari sisi permintaan, terdapat perbedaan yang jelas dalam permintaan akan Daya Komputasi pada berbagai tahap industri. Mengambil pengembangan model dasar sebagai contoh, proses pra-pelatihan memerlukan komputasi paralel yang sangat tinggi, penyimpanan, komunikasi, dll. untuk memastikan efektivitas hasil pelatihan. Hal ini memerlukan klaster daya komputasi besar untuk menyelesaikan tugas terkait. Saat ini, pasokan utama daya komputasi lebih banyak bergantung pada ruang komputer yang dibangun sendiri dan platform layanan cloud terpusat. Pada tahap-tahap selanjutnya dari penajaman model, penalaran real-time, dan pengembangan aplikasi, persyaratan untuk komputasi paralel dan komunikasi antar-node tidak terlalu tinggi. Inilah tempat di mana daya komputasi terdesentralisasi dapat menunjukkan potensinya sepenuhnya.
Melihat proyek-proyek yang telah mendapatkan popularitas yang cukup sebelumnya, Akash Nework telah melakukan beberapa upaya dalam arah daya komputasi terdesentralisasi:
Akash Network menggabungkan komponen teknologi yang berbeda untuk memungkinkan pengguna menyebarkan dan mengelola aplikasi secara efisien dan fleksibel dalam lingkungan cloud yang terdesentralisasi. Pengguna dapat menggunakan teknologi kontainer Docker untuk mengemas aplikasi, lalu menerapkan dan menskalakannya melalui Kubernetes melalui CloudMOS pada sumber daya cloud yang disediakan oleh Akash. Akash menggunakan pendekatan "lelang terbalik", yang membuat harga lebih rendah daripada layanan cloud tradisional.
Akash Network juga mengumumkan pada bulan Agustus tahun ini bahwa akan meluncurkan upgrade keenam jaringan utamanya, menggabungkan dukungan untuk GPU ke layanan cloud-nya, dan menyediakan Daya Komputasi kepada lebih banyak tim AI di masa depan.
Gensyn.ai, sebuah proyek yang telah menarik banyak perhatian di industri tahun ini, dipimpin oleh a16z dan menyelesaikan pendanaan Seri A sebesar US$43 juta. Menurut dokumen yang telah dirilis sejauh ini, proyek ini adalah jaringan utama berbasis protokol L1 PoS dari jaringan Polkadot, berfokus pada pembelajaran mendalam. Tujuannya adalah mendorong batas-batas pembelajaran mesin dengan menciptakan jaringan klaster superkomputasi global. Jaringan ini menghubungkan perangkat mulai dari pusat data dengan daya komputasi berlebih hingga PC yang potensial untuk menyumbangkan GPU pribadi, ASIC khusus, dan SoCs.
Untuk memecahkan beberapa masalah yang saat ini ada dalam daya komputasi terdesentralisasi, Gensyn mengandalkan beberapa hasil penelitian teoritis baru di dunia akademis:
Menerapkan pembelajaran probabilitas bukti, yaitu, menggunakan metadata dari proses optimisasi berbasis gradien untuk membuat bukti pelaksanaan tugas yang relevan untuk mempercepat proses verifikasi;
Protokol Pinpoint Berbasis Graf, GPP berfungsi sebagai jembatan, menghubungkan eksekusi offline dari DNN (Deep Neural Network) dan kerangka kontrak pintar pada blockchain, memecahkan inkonsistensi yang mudah terjadi di seluruh perangkat keras, dan memastikan konsistensi verifikasi.
Sebuah metode insentif yang mirip dengan Truebit, melalui kombinasi staking dan hukuman, membentuk sistem insentif yang memungkinkan peserta secara ekonomis rasional untuk jujur menjalankan tugas yang diberikan. Mekanisme ini menggunakan kriptografi dan metode teori permainan. Sistem verifikasi ini penting untuk mempertahankan integritas dan keandalan perhitungan pelatihan model besar.
Namun, perlu dicatat bahwa konten di atas lebih tentang menyelesaikan tingkat verifikasi penyelesaian tugas, daripada daya komputasi terdesentralisasi untuk mencapai fungsi pelatihan model sebagai sorotan utama dalam dokumen proyek, terutama tentang komputasi paralel dan Optimisasi distribusi komunikasi, sinkronisasi, dan masalah lain antara perangkat keras. Saat ini, dipengaruhi oleh laten jaringan (Latency) dan bandwidth (Bandwidth), komunikasi yang sering antara node akan meningkatkan waktu iterasi dan biaya komunikasi. Ini tidak hanya tidak akan membawa optimisasi sebenarnya, tetapi akan mengurangi efisiensi pelatihan. Pendekatan Gensyn dalam menangani komunikasi node dan komputasi paralel dalam pelatihan model dapat melibatkan protokol koordinasi kompleks untuk mengelola sifat terdistribusi komputasi. Namun, tanpa informasi teknis yang lebih rinci atau pemahaman yang lebih mendalam tentang metode khusus mereka, mekanisme persis yang digunakan Gensyn untuk mencapai pelatihan model berskala besar melalui jaringannya tidak akan benar-benar terungkap hingga proyek berjalan.
Kami juga memperhatikan protokol Edge Matrix Computing (EMC) yang menggunakan teknologi blockchain untuk menerapkan daya komputasi ke kecerdasan buatan, rendering, dan penelitian ilmiah, akses e-commerce AI, dan jenis skenario lainnya, tugas didistribusikan ke node daya komputasi yang berbeda melalui komputasi elastis. Metode ini tidak hanya meningkatkan efisiensi daya komputasi, tetapi juga memastikan keamanan transmisi data. Pada saat yang sama, itu menyediakan pasar daya komputasi di mana pengguna dapat mengakses dan bertukar sumber daya komputasi. Ini memudahkan pengembang untuk implementasi dan mencapai pengguna dengan lebih cepat. Digabungkan dengan bentuk ekonomi Web3, penyedia daya komputasi juga dapat memperoleh manfaat nyata dan subsidi pihak protokol berdasarkan penggunaan aktual pengguna, dan pengembang AI juga dapat memperoleh biaya penalaran dan rendering yang lebih rendah. Berikut adalah gambaran singkat tentang komponen dan fungsi utamanya:
Diharapkan juga bahwa produk RWA berbasis GPU akan diluncurkan. Kunci dari ini adalah untuk merangsang kembali perangkat keras yang awalnya terpasang di ruang komputer dan membaginya serta mengalirkannya dalam bentuk RWA untuk mendapatkan likuiditas tambahan. GPU berkualitas tinggi dapat digunakan sebagai aset dasar dari RWA. Alasannya adalah bahwa daya komputasi dapat dianggap sebagai mata uang kuat di bidang AI. Saat ini terdapat pertentangan yang jelas antara penawaran dan permintaan, dan pertentangan ini tidak dapat diselesaikan dalam jangka pendek, sehingga harga GPU relatif stabil.
Selain itu, mengimplementasikan klaster daya komputasi dengan mendeploy ruang komputer IDC juga merupakan bagian kunci dari protokol EMC. Hal ini tidak hanya memungkinkan GPU untuk beroperasi dalam lingkungan yang terpadu, tetapi juga menangani tugas-tugas pemrosesan daya komputasi berskala besar terkait secara lebih efisien, seperti pra-pelatihan model. Hal ini memenuhi kebutuhan pengguna profesional. Pada saat yang sama, ruang komputer IDC juga dapat secara terpusat meng-host dan menjalankan sejumlah besar GPU untuk memastikan spesifikasi teknis dari perangkat keras berkualitas tinggi yang sama, sehingga memudahkan untuk mengemasnya ke pasar sebagai produk RWA dan membuka gagasan baru untuk DeFi.
Dalam beberapa tahun terakhir, komunitas akademis juga telah mengembangkan teori-teori teknis baru dan praktik aplikasi di bidang komputasi tepi. Sebagai pelengkap dan optimisasi dari komputasi awan, komputasi tepi adalah bagian dari kecerdasan buatan yang sedang bergerak dari awan ke tepi dan ke dalam perangkat IoT yang semakin kecil. Perangkat IoT ini seringkali kecil, sehingga pembelajaran mesin ringan lebih disukai untuk memenuhi isu-isu seperti konsumsi daya, latensi, dan akurasi.
Network3 dibangun dengan membangun Lapisan AI Layer2 yang didedikasikan untuk menyediakan pengembang AI di seluruh dunia dengan optimisasi algoritma model AI dan kompresi, pembelajaran federated, komputasi tepi, dan komputasi privasi. Menyediakan layanan untuk membantu mereka melatih atau memverifikasi model dengan cepat, nyaman, dan efisien. Dengan memanfaatkan sejumlah besar perangkat keras IoT pintar, dapat fokus pada model-model kecil untuk menyediakan daya komputasi yang sesuai, dan dengan membangun TEE (Trusted Execution Environment), pengguna dapat menyelesaikan pelatihan yang relevan hanya dengan mengunggah gradien model untuk memastikan privasi data pengguna dan keamanan.
Dengan perkembangan AI dan bidang lainnya, banyak industri akan mengalami perubahan besar dalam logika dasarnya, daya komputasi akan naik ke posisi yang lebih penting, dan berbagai aspek yang terkait dengannya juga akan menimbulkan eksplorasi yang luas di industri. Jaringan daya komputasi terdesentralisasi memiliki keunggulan sendiri yang dapat mengurangi risiko sentralisasi dan juga dapat berfungsi sebagai pelengkap untuk daya komputasi terpusat.
• Dan tim-tim di bidang AI juga berada di persimpangan jalan. Pilihan apakah menggunakan model-model besar yang terlatih untuk membangun produk mereka sendiri atau untuk berpartisipasi dalam pelatihan model-model besar di wilayah masing-masing sebagian besar bersifat dialektis. Oleh karena itu, daya komputasi terdesentralisasi dapat memenuhi berbagai kebutuhan bisnis. Tren pengembangan ini disambut baik, dan dengan pembaruan teknologi dan iterasi algoritma, akan ada terobosan dalam area-area kunci.
• Jangan takut, hanya perlahan-lahan cari tahu.
Referensi
https://www.semianalysis.com/p/gpt-4-architecture-infrastructure
https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5
https://know.rendernetwork.com/
https://www.youtube.com/watch?v=FDA9wqZmsY8
https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k
https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo
https://docs.gensyn.ai/litepaper/#solusi
https://a16zcrypto.com/posts/announcement/investing-in-gensyn/
https://www.pinecone.io/learn/chunking-strategies/
https://akash.network/blog/the-fast-evolving-ai-landscape/
https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/
https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc