AI+Web3融合势不可挡:从 Daya Komputasi 共享到数据激励的全新格局

AI+Web3: Menara dan Lapangan

TL;DR

  1. Proyek Web3 dengan konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.

  2. Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang — melintasi data, penyimpanan, dan komputasi; sambil membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.

  3. AI di industri Web3 terutama digunakan untuk keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) serta membantu pengembangan.

  4. Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk menembus batas.

AI+Web3:Menara dan Plaza

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat, efek kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga telah mengguncang arus di bidang Web3.

Dengan dukungan konsep AI, peningkatan pendanaan pasar kripto yang melambat sangat terlihat. Menurut statistik, hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dan sistem operasi berbasis kecerdasan buatan Zyber365 berhasil mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS di putaran A.

Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu singkat lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI yang signifikan memberikan keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga menjangkau salah satu sektor pengumpulan dana cryptocurrency, Meme: Konsep MemeCoin pertama yang menggunakan AI Agent - GOAT dengan cepat menjadi terkenal dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.

Topik dan penelitian tentang AI+Web3 juga sangat panas, dari AI+Depin hingga AI Memecoin kemudian ke AI Agent dan AI DAO saat ini, emosi FOMO sudah tidak bisa mengikuti kecepatan pergantian narasi baru.

AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan ini, tidak bisa tidak dilihat sebagai pernikahan yang diatur oleh modal, kita tampaknya sulit untuk membedakan di balik jubah mewah ini, apakah ini adalah arena para spekulan, atau malam sebelum ledakan fajar?

Untuk menjawab pertanyaan ini, sebuah pemikiran yang penting bagi kedua belah pihak adalah, apakah akan menjadi lebih baik dengan adanya pihak lain? Apakah bisa mendapatkan manfaat dari pola pihak lain? Dalam artikel ini, kami juga mencoba untuk melihat pola ini dari sudut pandang para pendahulu: bagaimana Web3 dapat berperan dalam setiap lapisan tumpukan teknologi AI, dan apa yang dapat AI bawa ke Web3 untuk memberikan kehidupan baru?

Bagian.1 Apa peluang Web3 di bawah tumpukan AI?

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model besar AI:

AI+Web3: Menara dan Lapangan

Gunakan bahasa yang lebih sederhana untuk menggambarkan keseluruhan proses: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, perlu mengamati dan menyerap informasi luar yang melimpah untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan memahami dan memprediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten pembelajaran mulai terpisah, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan perbaikan, maka masuk ke tahap "fine-tuning" model besar.

Anak-anak yang semakin besar dan belajar berbicara, dapat memahami makna dan mengekspresikan perasaan serta pemikiran mereka dalam percakapan baru. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis masukan bahasa dan teks baru. Bayi mengekspresikan perasaan, menggambarkan objek, dan memecahkan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan penerapan model AI besar setelah dilatih dan digunakan dalam tahap penalaran untuk berbagai tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.

AI Agent semakin mendekati bentuk berikutnya dari model besar—kemampuan untuk secara mandiri menjalankan tugas dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.

Saat ini, untuk mengatasi titik nyeri AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem multi-lapis yang saling terhubung, mencakup setiap tahap proses model AI.

Satu, Lapisan Dasar: Airbnb untuk Kekuatan Perhitungan dan Data

Daya komputasi

Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan model inferensi.

Salah satu contohnya adalah, LLAMA3 dari Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA(, yang merupakan unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) yang memerlukan 30 hari untuk menyelesaikan pelatihan. Versi 80GB dari yang terakhir memiliki harga per unit antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS(GPU+chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.

Untuk pelepasan daya komputasi AI, ini juga merupakan bidang pertama yang berinteraksi antara Web3 dan AI — DePin( jaringan infrastruktur fisik terdesentralisasi) saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek perwakilan berbagi daya komputasi GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.

Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan tingkat pemanfaatan sumber daya GPU yang tidak sepenuhnya digunakan, sehingga pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.

Ciri-cirinya adalah:

  • Mengumpulkan sumber daya GPU yang tidak terpakai: Penyedia utama adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya kelebihan dari tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang berupaya untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.

  • Menghadapi pasar ekor panjang dari kekuatan AI:

a. "Dari sisi teknologi", pasar kekuatan komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dihasilkan oleh GPU dengan skala kluster besar, sedangkan inferensi memiliki kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.

b. "Dari sisi permintaan" pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan melakukan fine-tuning di sekitar beberapa model besar teratas, dan skenario-skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.

  • Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya, dapat menyesuaikan secara fleksibel sesuai permintaan, sekaligus mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan bagaikan ilalang tak berdaya dan tidak berguna, sedangkan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhirnya. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku manusiawi. Saat ini, tantangan kebutuhan data AI terfokus pada empat aspek berikut:

  • Kelaparan data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa OpenAI melatih parameter GPT-4 hingga mencapai tingkat triliunan.

  • Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keragaman data, profesionalisme data vertikal, serta pengambilan sumber data baru seperti emosi media sosial telah menuntut kualitasnya.

  • Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.

  • Biaya pengolahan data yang tinggi: Volume data besar, proses pengolahan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pengolahan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

  1. Pengumpulan Data: Kemampuan untuk menyediakan data dunia nyata yang diambil secara gratis sedang cepat habis, dan pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali kepada para kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data.

Membiarkan pengguna yang benar-benar berkontribusi untuk juga berpartisipasi dalam penciptaan nilai yang dihasilkan oleh data, serta melalui jaringan terdistribusi dan mekanisme insentif, untuk mendapatkan data yang lebih pribadi dan lebih berharga dengan biaya rendah, adalah visi Web3.

  • Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan relai lalu lintas untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;

  • Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka ( seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll. ) ke DLP tertentu, dan secara fleksibel memilih apakah akan memberikan izin penggunaan data tersebut kepada pihak ketiga tertentu;

  • Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.

  1. Pra-pemrosesan Data: Dalam proses pengolahan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas berulang seperti normalisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit tahap manual di industri AI, yang telah melahirkan industri pelabelan data. Seiring meningkatnya tuntutan model terhadap kualitas data, ambang batas untuk pelabelan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
  • Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk memasukkan penandaan data sebagai langkah kunci.

  • Synesis mengemukakan konsep "Train2earn", menekankan kualitas data, di mana pengguna dapat memperoleh hadiah dengan memberikan data berlabel, komentar, atau bentuk input lainnya.

  • Proyek anotasi data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Yang perlu diperjelas adalah, privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sementara keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keuntungan teknologi privasi Web3 dan potensi aplikasi tercermin dalam dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa harus membagikan data asli mereka.

Teknologi privasi yang umum di Web3 saat ini meliputi:

  • Lingkungan Eksekusi Terpercaya(TEE), seperti Protokol Super;

  • Enkripsi Homomorfik Penuh ( FHE ), seperti BasedAI, Fhenix.io atau Inco Network;

  • Teknologi zero-knowledge ( zk ), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor aktivitas, reputasi, dan data identitas dengan aman dari situs web eksternal tanpa mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, sebuah dilema saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:

  • Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.

  • Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan Data: Setelah memiliki data, masih dibutuhkan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding di Ethereum, throughput-nya adalah 0.08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Selisih skala ini membuat solusi di blockchain yang ada tidak mampu menghadapi "aplikasi AI yang membutuhkan sumber daya intensif."
  • 0g.AI adalah proyek perwakilan dalam kategori ini. Ini adalah sebuah platform yang ditujukan untuk
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 5
  • Bagikan
Komentar
0/400
wagmi_eventuallyvip
· 20jam yang lalu
Sekali lagi diangap bodoh
Lihat AsliBalas0
GasWastervip
· 20jam yang lalu
bruh l2s mungkin sebenarnya bisa menyelamatkan ai dari menjadi mimpi buruk gas ngl...
Lihat AsliBalas0
consensus_whisperervip
· 20jam yang lalu
Hanya sekadar sensasi, selanjutnya
Lihat AsliBalas0
OPsychologyvip
· 20jam yang lalu
Tsk, itu hanya trik baru dalam spekulasi.
Lihat AsliBalas0
BearMarketBarbervip
· 20jam yang lalu
Semua hanya memanaskan konsep untuk mengumpulkan uang~
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)