ส่งต่อชื่อเรื่องต้นฉบับ 'AI and Verifiability'
เนื่องจากระบบ AI รวมถึงระบบ blockchain มีการผสมผสานกันมากขึ้น เชื่อมั่นในความสามารถในการตรวจสอบของผลลัพธ์ของ AI เป็นหลักการสำคัญสำหรับการสร้างความเชื่อมั่น ความโปร่งใส และความรับผิดชอบ สิ่งนี้มีความสำคัญอย่างยิ่งสำหรับการเงินที่มีลักษณะกระจาย (DeFi) และการใช้งานตามการพิสูจน์ตัวตนของบุคคล โดยที่ความแม่นยำและความเชื่อถือได้สามารถมีผลต่อผลลัพธ์ทางการเงิน การตัดสินใจของอำนาจ และการระบุตัวตนของผู้ใช้
The Case for Verifiable AI in Decentralized Systems
Ensure that decision-making processes are transparent and understandable. Stakeholders gain insight into how conclusions are derived—vital when decisions influence on-chain transactions or large-scale governance.
Tracks the data, parameters, and model architectures used to generate AI predictions. By establishing provenance, users know where training data came from and which models were employed, enhancing trust and reducing the likelihood of misinformation.
ยืนยันว่าผลลัพธ์ AI ที่สุดท้ายทั้งความแม่นยำและไม่ถูกเปลี่ยนแปลง ในบริบทแบบกระจายนี้ มักจะมีกลไกการพิสูจน์ (เช่น พิสูจน์ความรู้ซึ่งศูนย์ศูนย์, การตรวจสอบตัวอย่าง) เพื่อให้แน่ใจว่าการคำนวณหรือการสรุปไม่ถูกแก้ไขออกจากเชื่อมต่อ
ความท้าทายในการยืนยัน AI On-Chain
ในขณะที่บล็อกเชนเป็นเจ้าของการให้บันทึกที่ไม่สามารถเปลี่ยนแปลงได้และความเชื่อถือแบ่งปัน การคำนวณ AI on-chain อาจทำให้แพงเกินไป เช่น การคูณเมทริกซ์สำหรับจำนวนเต็ม 1000×1000 อาจใช้ gas หลายพันล้าน - เกินจากขีดจำกัด gas บล็อกปัจจุบันของ Ethereum (Zheng et al., 2021) ด้วยเหตุนี้ โครงการ AI ส่วนใหญ่พึ่งการคำนวณ off-chain พร้อมการตรวจสอบ on-chain
แต่วิธีที่อยู่นอกเชื่อมโยงเส้นทางใหม่ ยังเป็นการเผชิญกับความท้าทายใหม่
ภัยคุกคามที่เป็นไปได้: โดยไม่มีการยืนยันอย่างแข็งแรง ผู้กระทำที่มีความชั่วร้ายสามารถส่งข้อมูลที่ไม่ถูกต้องหรือถูกจัดการได้
จุดอ่อนแห่งการจัดกลาง: การพึ่งพาบนออร์เคิลหรือเซิร์ฟเวอร์ส่วนตัวสามารถทำให้จรรยาบรรณแบบไม่มีการจัดกลางถูกทำลาย ทำให้เกิดการเซ็นเซอร์หรือจุดเสียหายเดียว
ดังนั้น โซลูชันที่กำลังเกิดขึ้นมุ่งเน้นที่จะรักษาประสิทธิภาพสูงในขณะที่รวมรหัสลับหรือการตรวจสอบที่ใช้การสุ่ม เพื่อสมดุลความมีประสิทธิภาพและการกระจายอำนาจ
EigenLayer เป็นโปรโตคอลที่ใช้ให้ผู้ตรวจสอบ Ethereum "ทำการ restake" ETH ของพวกเขาเพื่อรักษาบริการที่มีความกระจายอย่างเพียงพอ ที่รู้จักกันด้วยชื่อ Actively Validated Services (AVS) นอกเหนือจากการต้องการเซ็ตผู้ตรวจสอบใหม่สำหรับแต่ละงานที่เชี่ยวชาญ (เช่น การตรวจสอบ AI, การดำเนินการ cross-chain) EigenLayer ใช้ใหม่เครือข่ายผู้ตรวจสอบ Ethereum ที่มั่นคงและกระจาย
EigenLayer เสริมความปลอดภัยโดยอนุญาตให้บริการ Actively Validated Services (AVS) ใหม่เข้าถึงชุดตรวจสอบของ Ethereum ที่มีอยู่อย่างมากมาย เป็นทุนทรัพย์มากมายและกระจายทางภูมิศาสตร์ มีการรับรองความปลอดภัยด้านเศรษฐศาสตร์ที่แข็งแรงโดยไม่จำเป็นต้องเริ่มต้นเครือข่ายใหม่ตั้งแต่ต้น
โดยเปิดใช้งานการเพิ่มเติม EigenLayer ลดความซับซ้อนในการดำเนินการอย่างมีนัยสำคัญ โครงการไม่จำเป็นต้องสร้างและบำรุงรักษาระบบ validator เองอีกต่อไป ซึ่งลดต้นทุนการสร้างโครงสร้างพื้นฐานและกำหนดขีดจำกัดในการเปิดให้บริการบริการดีเซ็นทรัลไล่ลงบนเชน
นอกจากนี้ระบบยังมีความยืดหยุ่นสูง AVS สามารถปรับแต่งตรรกะและตรรกะการตรวจสอบของตนเองในขณะที่ยังสืบทอดความปลอดภัยในระดับฐานของ Ethereum ทำให้ EigenLayer เป็นพื้นฐานที่เหมาะสมสำหรับแอปพลิเคชันระบบกระจายที่มีความยืดหยุ่นปลอดภัยและมีขนาดยึดเพิ่มเติม
Hyperbolic Labs แนะนำ Proof of Sampling (PoSP), วิธีทดสอบที่มีประสิทธิภาพและมีขนาดใหญ่เป็นทางเลือกต่อการใช้ zkML หรือ optimistic fraud proofs เพื่อการตรวจสอบ AI โดยใช้การสุ่มอย่างใหม่นี้ โพรโทคอลการตรวจสอบโดยใช้การสุ่มนี้ จะช่วยให้ผู้ใช้ของเรามั่นใจในผลลัพธ์ของโมเดลที่กำลังถูกฝึกและเรียกใช้บนเครือข่าย GPU แบบกระจายของเรา โปรโตคอลนี้ที่รู้จักในชื่อ Proof of Sampling (PoSP) เป็นมาตรฐานทองใหม่สำหรับการตรวจสอบใน AI
พัฒนาโดยทีม Hyperbolic ร่วมกับนักวิจัยจาก UC Berkeley และ Columbia University PoSP ใช้ทฤษฎีเกมเพื่อป้องกันระบบที่มีลักษณะกระจาย มันตรวจสอบตัวอย่างกลยุทธ์ของผลลัพธ์ และใช้กระบวนการตัดสินใจสำหรับโหนดที่ไม่ซื่อสัตย์เพื่อสร้างสรรค์พฤติกรรมที่ซื่อสัตย์ 100% ในเครือข่าย
Proof of Spontaneous Proofs (PoSP) มีข้อดีที่สําคัญหลายประการ: ช่วยให้สามารถตรวจสอบได้อย่างมีประสิทธิภาพโดยการเพิ่มค่าใช้จ่ายในการคํานวณน้อยกว่า 1% ทําให้โหนดสามารถรักษาความเร็วในการทํางานแบบเนทีฟได้ การรักษาความปลอดภัยที่แข็งแกร่งช่วยให้ผู้เข้าร่วมยังคงซื่อสัตย์เนื่องจากการสุ่มตรวจสอบทําให้การฉ้อโกงมีความเสี่ยงเกินกว่าจะคุ้มค่า ด้วยแรงจูงใจในเกมทฤษฎี PoSP สร้างกลยุทธ์ที่บริสุทธิ์ Nash Equilibrium ซึ่งพฤติกรรมที่ซื่อสัตย์เป็นทางเลือกที่มีเหตุผลเสมอ สุดท้าย PoSP สามารถปรับขนาดได้สูงสําหรับบริการ AI ซึ่งสามารถรองรับปริมาณงาน AI แบบกระจายอํานาจขนาดใหญ่ในขณะที่มั่นใจได้ว่ากระบวนการประมวลผลและการอนุมานที่มีประสิทธิภาพสูงยังคงตรวจสอบได้และเชื่อถือได้
การตรวจสอบแบบสุ่ม: ชุดของผู้ตรวจสอบที่หมุนเวียน (ผ่าน EigenLayer) จะสุ่มตรวจสอบคำนวณ AI อย่างสม่ำเสมอ การตรวจสอบต่อเนื่องนี้จะป้องกันการโกงแบบระบบ
Nash Equilibrium Incentives: พฤติกรรมที่ไม่ดีเศร้าเป็นเรื่องทางเศรษฐศาสตร์สำหรับผู้ตรวจสอบ - ผลลัพธ์ที่ไม่ซื่อสัตย์หรือไม่สม่ำเสมอทำให้ต้องมีการลดเพิ่ม
การส่งผ่านสูง: การทำงานที่มีภาระการทำงานต่ำของ PoSP ทำให้มันเหมาะสำหรับกรณีการใช้งานที่ต้องการการสร้างสรรค์ AI ที่รวดเร็วและบ่อยครั้ง
ไม่เหมือนกับโซลูชั่น AI แบบกระจายที่อื่น ๆ เมื่อคุณรันการอินเฟอเรนซ์บนเครือข่ายที่กระจายของ Hyperbolic คุณสามารถมั่นใจได้ว่าคุณจะได้รับผลลัพธ์ที่ถูกต้อง
โดยการผสาน PoSP เข้ากับ EigenLayer บริการ AI ที่ไม่ centralize สามารถบรรลุเฟรมเวิร์กที่ปลอดภัยและได้รับความเชื่อมั่นที่สุดเล็กน้อย ซึ่งสามารถจัดการกับคำขอการอ่านที่เพิ่มขึ้นโดยไม่เสียการกระจายหรือคุณต่อความมั่นคงทางเงิน
การตรวจสอบแบบสุ่ม: ผู้ตรวจสอบถูกเลือกโดยสุ่มเพื่อยืนยันผลลัพธ์เพื่อให้ได้ผลลัพธ์ที่ไม่เห็นแก่การ
Scalable AVS Support: PoSP ลดความต้องการทางคำนวณ ทำให้ EigenLayer สามารถป้องกันบริการขนาดใหญ่ได้อย่างมีประสิทธิภาพ
การป้องกันการทุจริต: การลงโทษอย่างเข้มงวดทำให้ความไม่ซื่อสัตย์ไม่ได้รับกำไร ในขณะที่พฤติกรรมที่ซื่อสัตย์ยังคงเป็นกลยุทธ์ที่ดีที่สุด
โปรโตคอล EigenLayer ที่รวมกับ Proof of Sampling ของเราเปลี่ยนแปลงอย่างเร้นระวังถึงวิธีที่เรารักษาบริการที่ไม่มีการรวมกันตอนนี้เรามีโครงสร้างพื้นฐานที่สามารถขยายได้เชื่อถือได้และต้านการทุจริตในราคาเพียงเพียงบางส่วน” - Jasper Zhang ประธานบริษัท Hyperbolic
อ่านเอกสารเต็มเรื่องเรื่อง PoSP ที่นี่
เครือข่าย Mira มุ่งเน้นการแก้ไขท้ายที่พื้นฐานใน AI ซึ่งคือแนวโน้มของโมเดลภาษาขนาดใหญ่ (LLMs) ที่สร้างข้อมูลที่ไม่ถูกต้อง ออกแบบเพื่อลดอาการตัวเห็นและสูงสุดให้ความแม่นยำในการส่งเสริมโดยไม่ต้องมีการตรวจสอบของมนุษย์ Mira ใช้เครือข่ายที่กระจายอย่างแยกต่างหากเพื่อยืนยันผลลัพธ์ AI อย่างไม่มีความเชื่อถือในขณะเดียวกัน
มีขั้นตอนสามขั้นตอนในสถาปัตยกรรมของมีรา
การทำให้เป็นไบนารี
กระบวนการแยกออกเป็น 'ข้อเรียกร้อง' ที่ง่ายขึ้น
การตรวจสอบแบบกระจาย
การอ้างอิงข้างต้นได้รับการยืนยันจากเครือข่ายของโหนดตัวยืนยันที่ทำงานด้วยแบบจำลองที่เฉพาะเจาะจงเพื่อทำการยืนยันการอ้างอิง การยืนยันจะทำในรูปแบบของคำถามหลายตัวเลือก การอ้างอิงสำหรับการยืนยันจะถูกแบ่งแยกออกไปที่ตัวยืนยันโดยสุ่มซึ่งทำให้มันยากต่อการซ่อมแซม
Proof-of-Verification
การสร้างกลไกการตกลงแบบผสมที่รวมกันระบบพิสูจน์ (Proof-of-Work) และพิสูจน์ความเป็นเจ้าของ (Proof-of-Stake) ได้รับการใช้งาน ผู้ตรวจสอบแต่ละคนจำเป็นต้องมีการพนันเพื่อเข้าร่วมในการตรวจสอบ วิธีการนี้ทำให้ผู้ตรวจสอบสามารถทำการอนุมัติอย่างแท้จริง แทนที่จะเพียร์เซอร์เท่านั้น การพนันของผู้ตรวจสอบจะถูกลบถ้าพบว่าผลลัพธ์ของพวกเขามีแนวโน้มที่คงที่ที่จะต่างไปจากความเห็นร่วม
เมื่อมีการเห็นด้วยร่วมกันโดยเครือข่ายเกี่ยวกับผลลัพธ์ จะสร้างใบรับรองทางคริปโตและเขียนลงบนบล็อกเชนเพื่อสร้างบันทึกที่ไม่เปลี่ยนแปลงของข้อมูลที่ได้รับการตรวจสอบ
Source:เอกสารขาว Mira Network
ความเป็นส่วนตัวเป็นสิ่งสําคัญในการออกแบบของ Mira เนื่องจากการอ้างสิทธิ์ถูกแบ่งแบบสุ่มจึงเป็นไปไม่ได้ที่ตัวดําเนินการโหนดเดียวจะสร้างเอาต์พุตดั้งเดิมขึ้นใหม่ นอกจากนี้คําตอบการตรวจสอบจากผู้ตรวจสอบอิสระจะถูกเก็บไว้เป็นส่วนตัวก่อนที่จะมีมติเป็นเอกฉันท์เพื่อป้องกันการรั่วไหลของข้อมูล
Mira กำลังมองหาการยืนยันเนื้อหาที่ซับซ้อนขึ้นทุกวัน ซึ่งรวมถึงโค้ด ข้อมูลโครงสร้างและเนื้อหามัลติมีเดีย ในอนาคต Mira ยังจะสร้างเนื้อหาที่ไม่ถูกต้องเมื่อตรวจพบเนื้อหาที่ไม่ถูกต้องเพื่อทำให้ได้ความแม่นยำและรวดเร็วในการผลลัพธ์ AI ในที่สุด Mira Network จะสามารถสะสมข้อมูลที่มีประกันความปลอดภัยทางเศษเป็นฐานข้อมูลสำหรับการตรวจสอบข้อเท็จจริง
เมื่อการใช้งานเครือข่ายเพิ่มขึ้น - การสร้างค่าธรรมเนียมสูงขึ้น - การรับรางวัลการตรวจสอบที่ดีขึ้น - ดึงดูดผู้ดำเนินการโหนดมากขึ้น - ความแม่นยำ ความต้องการใช้งาน และความเร็วในการตรวจสอบคำตอบที่ดีขึ้น
Atoma เป็นเครือข่ายการประมวลผล AI ที่มีลักษณะที่ไม่ centralize, เป็นส่วนตัวและสามารถยืนยันได้ ที่มีอยู่บนเครือข่าย Sui mainnet โครงสร้างหลักประกอบด้วยสามองค์ประกอบ: (a) ชั้นการคำนวณและ; (b) ชั้นการยืนยันและ; (c) ชั้นความเป็นส่วนตัว
ชั้นคำนวณ
เครือข่ายโลกของโหนดดำเนินการที่ประมวลผลคำขอการสืบค้น มีจำนวนโหนดมากมายที่สามารถใช้งานได้โดยการทำงานร่วมกับศูนย์ข้อมูลต่าง ๆ และอุปกรณ์ขอบเขตเช่นอุปกรณ์ดิจิทัลของบุคคล
ด้วย Atoma น้ำหนักของโมเดลพร้อมใช้งานภายในเครือข่ายโหนดเพิ่มความเร็วของการสรุปเมื่อได้รับคำขอ นอกจากนี้คำขอที่ได้รับจะถูกนำไปสู่โหนดที่เหมาะสมที่สุดที่ตรงกับงานและประสิทธิภาพที่เหมาะสม
Atoma เน้นการปรับปรุงความมีประสิทธิภาพของการทำข้อสรุปผ่านคู่มือคุณลักษณะ ซึ่งรวมถึง FlashAttention และ Paged Attention ซึ่งเป็นส่วนที่ช่วยลดภาระการคำนวณ
เลเยอร์การตรวจสอบ
ความสมบูรณ์ของการคำนวณถูกตรวจสอบผ่านการเชื่อมต่อข้อมูลที่เลือกสุ่ม นี่คือกระบวนการที่เลือกโหนดโดยสุ่มเพื่อรันการอ่านและสร้างแฮชข้อมูลเข้ารหัส หากทุกแฮชที่สร้างโดยชุดโหนดที่เลือกตรงกันกัน ผลลัพธ์การอ่านถูกตรวจสอบ หากมีความขัดแย้งในแฮชที่สร้าง เครือข่ายจะค้นหาโหนดที่ไม่ซื่อสัตย์ ที่จะถูกลดลงโดยการลดมูลค่าสินทรัพย์ของมัน
โอกาสที่ผู้โจมตีที่มีความประสงค์ร้ายจะสามารถควบคุมครึ่งหรือมากกว่าครึ่งของพลัง GPU ของเครือข่ายทั้งหมดเพื่อเล่นระบบนั้นต่ำมาก และกลายเป็นยากขึ้นเมื่อเครือข่ายโหนดขยายตัว จำนวนโหนดที่เลือกสำหรับการสุ่มเป็นไปได้ สำหรับงานที่มีเงินเดิมพันสูง สามารถเลือกเซ็ตของโหนดที่ใหญ่ขึ้น
Privacy Layer
Atoma ให้ความสำคัญกับการรักษาข้อมูลผู้ใช้ไว้ในระดับความปลอดภัยและเป็นส่วนตัว โดยการเรียกใช้การคำนวณใน Trusted Execution Environment (TEE) ข้อมูลที่ผู้ใช้ป้อนเข้าไปถูกเข้ารหัสและถูกถอดรหัสเฉพาะใน TEE เหล่านี้ป้องกันให้สิ่งอื่น ๆ บนบล็อกเชนไม่สามารถมองข้อมูลของผู้ใช้ หลังจากที่การอินเฟอเรนซ์ได้รับการเรียกใช้แล้ว ผลลัพธ์ถูกเข้ารหัสก่อนที่จะส่งกลับไปยังผู้ใช้
นับถือว่ามีความปลอดภัย แต่ควรระวังว่ามีการแลกเปลี่ยนในเชิงการคำนวณที่สูง ซึ่งอาจส่งผลให้ค่าธรรมเนียมสูงขึ้นสำหรับผู้ใช้
คล้ายกับเครือข่าย Atoma ด้านบน Aizel Network เลือกใช้วิธีการที่ใช้ TEE เช่นกัน ความแตกต่างที่นี่คือ Aizel ได้รวม Multi-Party Computation (MPC) เข้าไปในขั้นตอนการทำงานของพวกเขา ที่ทำให้งานทำนายถูกส่งไปที่ TEE ต่าง ๆ นี้มุ่งเน้นที่จะทำให้เครือข่ายที่กระจายอยู่ และทำให้แน่ใจว่าการทำนายยังเป็นไปได้อยู่ แม้ว่า TEE หนึ่งจะถูก hack หรือล่ม
Fortytwo champions a “swarm inference” model built around Small, Specialized Models (SLMs). Instead of relying on one massive monolithic AI, the network orchestrates multiple contributor-run models, each fine-tuned for specific tasks or domains. These models work in parallel—verifying, refining, and cross-checking each other’s outputs—to deliver more accurate and trustworthy inferences.
โครงสร้างที่ไม่มีศูนย์กลางนี้จะต่อสู้กับปัญหาที่โมเดลขนาดใหญ่เดี่ยวมักเจอ เช่นการขัดข้องในการฝึกอบรม ความต้องการฮาร์ดแวร์ที่มีค่าแพง และจุดล้มเหลวเดียว โดยการกระจายอำนาจในโมเดลขนาดเล็กและผู้สนับสนุนจำนวนมาก Fortytwo ยืนยันให้แน่ใจว่ามีความมั่นคงทั้งในด้านการขยายขนาดและความทนทานต่อข้อผิดพลาด
การเริ่มต้นความ Absoluteness ก่อน
ก่อนที่งานใด ๆ จะเริ่ม ผู้สนับสนุนจะระบุเป้าหมาย งบประมาณ และข้อจำกัด การเข้าถึงนี้จะทำให้ SLM ทุกตัวสอดคล้องกับภาระหน้าที่โดยรวม - ไม่ว่าจะเป็นการสรุปข้อความ การวิเคราะห์โค้ด หรือการอุทิศทางเฉพาะอื่น ๆ
ความเชี่ยวชาญที่ผู้มีส่วนร่วมกำหนดเอง
ผู้ดำเนินงานโหนดแต่ละคนนำโมเดลที่ปรับแต่งอย่างดีของตนเองเข้าสู่เครือข่าย พวกเขายังคงควบคุมน้ำหนัก เบียส และข้อมูลที่เป็นกรรมสิทธิ์อย่างเต็มที่ - ทำให้มั่นใจว่าความเป็นส่วนตัวสำหรับเจ้าของโมเดลแต่ละคน โมเดลที่เชี่ยวชาญเหล่านี้สามารถเน้นไปที่พื้นที่เช่นการวิเคราะห์อารมณ์ การแยกวิเคราะห์ข้อความทางกฎหมาย หรือแม้กระทั่งการสร้างโค้ดที่เฉพาะทางในโดเมน
ความเป็นส่วนตัวของ Weights & Biases
ประเด็นสำคัญของ Fortytwo คือผู้สนับสนุนไม่ต้องแบ่งปันภายในโมเดลในรูปแบบของข้อมูลเชิงวิเคราะห์เท่านั้น ผลการสรุปถูกแชร์กับเครือข่ายเท่านั้น การออกแบบนี้รักษาทรัพย์สินทางปัญญาของเจ้าของโมเดลแต่ละรายและช่วยลดความเสี่ยงที่เกี่ยวข้องกับการเปิดเผยข้อมูลที่อ่อนไหว
ความร่วมมือ SLM หลายรายการ
งานถูกแบ่งออกเป็น 7-8 (หรือมากกว่า) SLMs ที่เชี่ยวชาญ แต่ละต่อเข้ามุมมองของโดเมนที่ไม่ซ้ำกัน โดยการแบ่งงานขนาดใหญ่เป็นปัญหาย่อยๆ ทำให้เครือข่ายใช้ประโยชน์จากจุดเด่นของแต่ละโมเดลได้อย่างมีประสิทธิภาพมากยิ่งขึ้น
Flat Mixture-of-Experts (MoE)
แทนที่จะเรียงซ้อนผู้เชี่ยวชาญย่อยในชั้นหลายชั้น Fortytwo ใช้วิธีการ MoE แบบ "flat" โดยที่แต่ละโมเดลประมวลผลข้อมูลโดยอิสระ การออกแบบนี้สามารถเป็นไปได้อย่างมีประสิทธิภาพโดยเฉพาะเพราะมันหลบเลี่ยงความซับซ้อนจากการประตูชั้นยาง เพื่อให้ผู้เชี่ยวชาญสามารถโฟกัสเฉพาะกับงานย่อยของตนเองเท่านั้น
การตรวจหาข้อผิดพลาดร่วม
การประเมินระดับเท่าเทียมมีบทบาทสำคัญในการรักษาความแม่นยำของการอ่านข้อมูล เมื่อโมเดลไม่เห็นด้วย ระบบจะทำเครื่องหมายให้เห็นถึงความไม่เหมือนกันสำหรับการวิเคราะห์เชิงลึก กระบวนการตรวจสอบข้ามนี้เป็นสิ่งสำคัญในการจับข้อผิดพลาดไว้ล่วงหน้าและให้ผลลัพธ์ที่มีคุณภาพสูง
Consumer-Grade Hardware
Fortytwo ถูกปรับแต่งให้เหมาะสมกับอุปกรณ์เช่น Apple Silicon และ RTX GPUs ซึ่งช่วยลดอุปทรกรรมและขยายฐานข้อมูลของผู้ดำเนินโหนดที่เป็นไปได้ แนวทางนี้ทำให้การเป็นประชาธิปไตยของ AI โดยการทำให้บุคคลทั่วไปมากขึ้น และไม่ใช่เฉพาะศูนย์ข้อมูลขนาดใหญ่
กลุ่มการจัดการ
ผู้ดำเนินโหนดมากมักเลือกแพลตฟอร์มคลาวด์ (เช่น AWS) หรือกลุ่มที่ติดตั้งเองเพื่อลดความล่าช้า กลุ่มที่ทำงานร่วมกันอย่างดีกลายเป็นสิ่งมีค่าอย่างยิ่งในสถานการณ์ที่ต้องการการทำงานในเวลาที่มีความสำคัญโดยเฉพาะที่ทำให้ความล่าช้าเล็กน้อยก็สามารถมีผลกระทบต่อประสบการณ์ของผู้ใช้ได้มากทีเดียว
การเข้าร่วมที่เพิ่มขึ้น
พันธมิตรหลายรายได้แสดงความสนใจที่จะเป็นโหนดการอ่านข้อมูลทำนาย ซึ่งสร้างเครือข่ายที่หลากหลายและกระจายอย่างกว้างขวาง การขยายตัวนี้ทำให้มีทรัพยากรคำนวณมากขึ้นออนไลน์ ทำให้ประสิทธิภาพและความทนทานเพิ่มขึ้น
ระบบการมีส่วนร่วมแบบวิกิพีเดีย
เช่นเดียวกับวิกิพีเดียที่บรรลุความร่วมมือกันในการเขียนบทความ ผู้ดำเนินการโหนดแต่ละคนสามารถเพิ่มคุณภาพหรือปรับปรุงโมเดลที่เฉพาะเจาะจงและแบ่งปันเทคนิคการสรุปที่ดีขึ้น การบำรุงรักษาและปรับปรุงร่วมกันนี้ส่งเสริมนวัตกรรมอย่างต่อเนื่องและเพิ่มความฉลาดโดยรวมของเครือข่าย
Lagrange อยู่ที่จุดตัดขอบของการใช้เทคโนโลยี Zero-Knowledge (ZK) เพื่อนำความสามารถในการตรวจสอบมาสู่ AI โค้ดด้านของพวกเขา—“อนาคตของ AI คือ ZK และอนาคตของมนุษย์คือ Lagrange”—เน้นให้เห็นถึงความเชื่อว่าเมื่อ AI พัฒนาไปสู่ซุปเปอร์อินเทลลิเจนซ์ เราต้องรักษาความ๏วรงและความเชื่อในวิธีที่แบบจำลองเหล่านี้ทำงาน
DeepProve: High-Performance zkML
โดยการลบการปฏิสัมพันธ์ AI แบบ "กล่องดำ" Lagrange ให้แน่ใจว่าผู้ใช้ไม่ต้องเชื่อถือ AI อย่างบอบบาง ในสภาพแวดล้อมที่เป็นระบบกระจายที่การลดความเชื่อถือเป็นสำคัญมาก ความแน่ใจทางกลของความสมบูรณ์ของแบบจำลองและความถูกต้องของผลลัพธ์กลายเป็นสิ่งสำคัญ
นอกจากนี้ Inference Labs ดำเนินงานเป็นแขนงแอปพลิเคชันของ Lagrange ซึ่งเชื่อมสายการวิจัยและการใช้งานในปฏิบัติ ในขณะที่ Lagrange มุ่งเน้นไปที่การออกแบบรหัสเข้ารหัสและวงจรหลัก Inference Labs จะให้ความมั่นใจว่าความก้าวหน้าเหล่านี้พร้อมใช้งานในการผลิต
การผสานเข้ากับโลกของความเป็นจริง
ฝัง zkML เข้าสู่พายไลน์การเรียนรู้ของเครื่องที่มีอยู่แล้ว โดยเน้นที่ภาคธุรกิจเช่น DeFi, เกม, การดูแลสุขภาพ, และการพิสูจน์แหล่งกำเนิดของโซนอุปทาน
ร่วมงานกับผู้นำในอุตสาหกรรมเพื่อทดสอบคุณสมบัติ Lagrange ใหม่ในเงื่อนไขของโลกจริง (เช่น จำนวนพารามิเตอร์มาก, ความต้องการในการล่าช้าอย่างเข้มงวด)
EZKL เป็นระบบโอเพนซอร์สสำหรับการสร้าง AI และการวิเคราะห์ที่สามารถยืนยันได้โดยใช้พิสูจน์ทราบศาสตร์ศูนย์ (ZKPs) มันช่วยให้นักพัฒนาสามารถพิสูจน์ว่าโมเดล AI ได้รับการดำเนินการอย่างถูกต้องโดยไม่เปิดเผยข้อมูลที่เป็นความลับหรือรายละเอียดของโมเดลที่เป็นทรัพย์สิน โดยได้แรงบันดาลจากระบบที่คล้ายกับ Apple’s Face ID EZKL ขยายความปลอดภัยของโมเดลที่ไม่สามารถปฏิเสธได้ไปสู่โมเดลใด ๆ บนอุปกรณ์ใด ๆ — โดยไม่ต้องพึ่งพาระบบฮาร์ดแวร์ที่เชี่ยวชาญเช่น TEEs
Infrastruktur Zero-Knowledge Proof
EZKL อัตโนมัติเตอร์วงจรชีพของ ZKP ทั้งหมด - ตั้งแต่การคอมไพล์โมเดลไปจนถึงการสร้างและการตรวจสอบพิสูจน์ เจ้าของได้รับโมเดล AI ในรูปแบบ ONNX ซึ่ง EZKL จะคอมไพล์เป็นวงจรที่เหมาะสมกับ ZK โดยใช้รุ่นที่ปรับปรุงของระบบ Halo2 proving system ระบบจะสร้างพิสูจน์ทางคริปโทกราฟิกของการประมวลผลโมเดลที่ถูกต้องที่สามารถตรวจสอบได้บนอุปกรณ์ใดก็ได้
กระบวนการทางคริปโตนี้ช่วยให้มีความเชื่อถือแบบกระจายในแอปพลิเคชัน AI ที่มีความเสี่ยงสูง เช่น การตัดสินใจทางการเงิน การตรวจสอบชีพจรชีวิต และการตรวจสอบข้อมูลแบบเรียลไทม์
Collaborative SNARKs (Cosnarks)
EZKL ได้แนะนำ Collaborative SNARKs (cosnarks) ล่าสุด ซึ่งช่วยให้สองฝ่าย - เช่นเจ้าของโมเดลและเจ้าของข้อมูล - สามารถสร้าง ZK proof ร่วมกันโดยไม่เปิดเผยทรัพย์สินลับของตน ต่างจากระบบการพิสูจน์ MPC แบบมอบหมาย, cosnarks กำจัดการสมัครเล่นเพิ่มเติมด้วยการจำกัดการคำนวณไว้กับฝ่ายที่เกี่ยวข้องเท่านั้น
การก้าวหน้านี้ทำให้ใช้งานได้ เช่น การประเมินวงเงินเครดิตส่วนตัว กลยุทธ์การซื้อขายที่อยู่ในความลับ และการยืนยันตัวตนโดยไม่เปิดเผยข้อมูลเลย การนำมาใช้ใช้เทคโนโลยี Renegade's 2PC-optimized MPC library และได้รับการผสมผสานโดยตรงเข้ากับ Lilith, ชั้นเรียงความพร้อมของเมฆ EZKL
รองรับโมเดลและความยืดหยุ่น
EZKL รองรับหลากหลายสถาปัตยกรรม AI/ML รวมถึง CNNs, RNNs, transformers สไตล์ GPT, ต้นไม้การตัดสินใจ, และโมเดลการแพร่กระจายที่เสถียร โมเดลใดที่เข้ากันได้กับมาตรฐาน ONNX สามารถแปลงเป็นวงจร ZK ได้
โดยการทำให้โลจิกโมเดลกลายเป็นวงจรทางคณิตศาสตร์ EZKL ทำให้สามารถดำเนินการสรุปที่คุ้มครองความเป็นส่วนตัวได้ทั่วอุตสาหกรรม เช่น การเงิน การดูแลสุขภาพ และเอกลักษณ์ โลจิกที่ใช้ต้นไม้ กลไกความสนใจ และการดำเนินการเมทริกซ์ขนาดใหญ่ ได้รับการสนับสนุนทั้งหมดภายในกรอบงาน Halo2
ประสบการณ์นักพัฒนา
EZKL มีการตั้งความสำคัญในเรื่องของความเข้าถึงและการนำเสนอความซับซ้อน นักพัฒนาไม่จำเป็นต้องมีความรู้ทางด้านการเข้ารหัสลับล่าสุด, ประสบการณ์ในการออกแบบวงจร หรือทักษะที่เชี่ยวชาญในด้าน DevOps ระบบนี้มีการผูกพันใน CLI, Python, JavaScript, และ Rust—ทำให้ง่ายต่อการฝังเข้าไปในกระบวนการทำงานของ ZK ในท่อไปของ ML ที่มีอยู่แล้ว
การสร้างเงื่อนไขโดยอัตโนมัติ คำสั่งการพิสูจน์ที่เรียบง่าย และการผสานอย่างไม่มีช่องโหว่กับเครื่องมือการจัดการทำให้นักพัฒนาสามารถมุ่งเน้นไปที่โลจิกแอปพลิเคชันอย่างเดียว
ORA เป็นโปรโตคอลออราเคิลที่ไม่ขึ้นกับเชน ที่เชื่อมโยง AI และ blockchain ทำให้นักพัฒนาสามารถสร้างแอปพลิเคชันที่完全ไว้วางใจแบบไม่มีกลางที่ถูกขับเคลื่อนด้วยการเรียนรู้ของเครื่องที่สามารถตรวจสอบได้ ผ่านโครงสร้างของตน ORA นำเสนอการสรุป AI การสร้างเนื้อหา และการคำนวณที่ซับซ้อนโดยตรงบนเชน ลดความขึ้นอยู่กับ API นอกเชนหรือคำนวณศูนย์กลาง นวัตกรรมหลักของมันอยู่ในการรวมการดำเนินการ AI กับพิสูจน์ทางการเขียนโปรแกรม สร้างท่อประมวลผล AI ที่สามารถตรวจสอบได้ในตัว
โปรโตคอลช่วยให้นักพัฒนาทุกคนสามารถสร้างแอปพลิเคชันที่เอไอเอ็อาจลูกผลิตได้ - ไม่ว่าจะเป็นการตอบสนองโมเดลภาษา การสร้างภาพ หรือคำให้การ - สามารถฝังลงในสมาร์ทคอนแทรคพร้อมการตรวจสอบและการรับรองความถูกต้อง
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) เป็นผลิตภัณฑ์ปัจจุบันของ ORA ซึ่งทำให้สมาร์ทคอนแทรคสามารถขอข้อมูล รับข้อมูล และดำเนินการต่อผลลัพธ์ของการอินเฟอเรนซ์ AI ที่ทำงานออฟเชน แต่ได้รับการตรวจสอบและตกลงบนเชน นักพัฒนาสามารถเรียกใช้งานงานอินเฟอเรนซ์ AI ผ่านเครือข่าย opML ของ ORA ผลลัพธ์นั้นจะถูกส่งกลับผ่านฟังก์ชัน callback ในสัญญาของผู้ใช้ ทำให้แอปพลิเคชันบนเชนเป็น AI-native และเต็มรูปแบบอัตโนมัติ
OAO รองรับโมเดลขนาดใหญ่หลายรูปแบบ - เช่น LLaMA3, Stable Diffusion, OpenLM Chat/Score - ทำงานผ่านโครงสร้างที่สามารถยืนยันได้ นักพัฒนาสามารถรวม OAO บนเครือข่ายที่เข้ากันได้กับ EVM ใดก็ได้ และสัญญาฉลาดที่สร้างไว้เช่น Prompt และ SimplePrompt ช่วยให้การจำลองรวดเร็วโดยใส่ใจถึงการจัดการแก๊ส
opML และกระบวนการที่สามารถยืนยันได้
ระบบเรียนรู้ของเครื่องที่เชื่อมั่นใน ORA (opML) ขับเคลื่อนเลเยอร์ที่สามารถตรวจสอบได้ของมัน เมื่อมีงานตัดสินใจเกิดขึ้น ผลลัพธ์จะถูกโพสต์บนเชนพร้อมกับช่วงเวลาทดสอบ ในระหว่างช่วงเวลานี้ ผู้ตรวจสอบ opML สามารถตรวจสอบผลลัพธ์ และหากไม่ถูกต้อง ส่งข้อพิสูจน์การฉ้อโกง ผลลัพธ์ที่ถูกต้องจะแทนที่ผลลัพธ์ที่ถูกท้าทาย สิ่งนี้ทำให้ผลลัพธ์ AI ที่ฝังอยู่ในสมาร์ทคอนแทรคเป็นไปได้ในการตรวจสอบ ทนต่อการเซ็นเซอร์ชัน และปลอดภัยทางเศรษฐกิจ
การเข้าใจที่เต็มไปด้วยความสมดุลระหว่างประสิทธิภาพและการกระจายอำนาจ ไม่เหมือนกับ zkML ที่อาจต้องการการคำนวณหนักแน่นล่วงหน้า opML ทำให้เป็นไปไม่ได้ทางด้านเศรษฐศาสตร์สำหรับพฤติกรรมที่ไม่ซื่อสัตย์ให้สำเร็จ โดยเฉพาะเมื่อเครือข่ายผู้ตรวจสอบขยายตัว
การผสานรวมนักพัฒนา
นักพัฒนาจะทำงานกับ OAO ผ่านอินเทอร์เฟซที่เป็นมอดูลที่เอกสารถูกเขียนไว้อย่างดี เพื่อรวม AI เข้ากับสมาร์ทคอนแทรคท์ นักพัฒนาจะสืบทอด AIOracleCallbackReceiver และดำเนินการในฟังก์ชัน aiOracleCallback() เพื่อรับผลลัพธ์ จากนั้นพวกเขาสามารถเรียกออราเคิลเพื่อเริ่มกระบวนการอินเฟอเรนซ์ด้วย ID ของโมเดล ข้อมูลนำเข้า และที่อยู่ของการโทรกลับ
มีโมเดล 4 รายการที่ใช้งานบน Arbitrum ณ ปัจจุบัน และการผสานอาจง่ายเพียงแค่ใช้เทมเพลต Prompt ของ ORA โครงสร้างพื้นฐานยังรองรับกรณีการใช้งานที่ซับซ้อนมากขึ้นผ่านการจัดการคำสั่งคำนวณที่ใช้พลังงาน Lilith เพื่อเปิดให้เกิดการสรุปแบบเร็วและงานที่มีประสิทธิภาพสูง
Initial Model Offering (IMO)
ORA สร้างกรอบ Initial Model Offering (IMO) เพื่อทำให้การเป็นเจ้าของโมเดล AI เป็นที่มาแบบกระจายทรัพย์, รายได้ และการปกครอง IMOs ทำให้โมเดล AI เป็นโทเคนผ่านโครงสร้างโทเคนคู่
โดยเปิดใช้งานการปกครองและการพ่นเงินด้วยโทเค็น IMOs สนับสนุนการพัฒนาโอเพนซอร์สให้มั่นใจว่าโครงสร้าง AI ยังคงต้านการเซ็นเซอร์สชิปสามารถเข้าถึงได้ทั่วโลก และเป็นที่เชื่อมั่นร่วมกัน
สรุป
เนื่องจากด้านดิจิทัล AI ยังคงเติบโตอย่างต่อเนื่อง การต้องการผลลัพธ์ AI ที่สามารถยืนยันได้กลายเป็นสิ่งที่สำคัญขึ้น จากที่ได้กล่าวมาข้างต้น จะเห็นได้ว่ามีวิธีการที่หลากหลายในการให้ความน่าเชื่อถือในโซลูชั่น AI แบบไร้ความเชื่อมั่น ซึ่งรวมถึงสภาพแวดล้อมการดำเนินงานที่น่าเชื่อถือ (TEEs), พิสูจน์ที่มีการสุ่ม (PoSP), การเรียนรู้ของเครื่องโดยไม่มีความรู้ (ZKML), และการเรียนรู้ของเครื่องที่เต็มไปด้วยความเชื่อมั่น (OPML)
วิธีการแตกต่างกันในด้านต่าง ๆ คือค่าใช้จ่าย เวลาที่ใช้ และระดับของความรับประกันความปลอดภัย มีโอกาสที่ทุกวิธีการที่กล่าวถึงทั้งหมดจะถูกใช้ในทางที่หนึ่งหรืออีกหนึ่งขึ้นอยู่กับกรณีการใช้งานที่เฉพาะเจาะจง
ส่งต่อชื่อเรื่องต้นฉบับ 'AI and Verifiability'
เนื่องจากระบบ AI รวมถึงระบบ blockchain มีการผสมผสานกันมากขึ้น เชื่อมั่นในความสามารถในการตรวจสอบของผลลัพธ์ของ AI เป็นหลักการสำคัญสำหรับการสร้างความเชื่อมั่น ความโปร่งใส และความรับผิดชอบ สิ่งนี้มีความสำคัญอย่างยิ่งสำหรับการเงินที่มีลักษณะกระจาย (DeFi) และการใช้งานตามการพิสูจน์ตัวตนของบุคคล โดยที่ความแม่นยำและความเชื่อถือได้สามารถมีผลต่อผลลัพธ์ทางการเงิน การตัดสินใจของอำนาจ และการระบุตัวตนของผู้ใช้
The Case for Verifiable AI in Decentralized Systems
Ensure that decision-making processes are transparent and understandable. Stakeholders gain insight into how conclusions are derived—vital when decisions influence on-chain transactions or large-scale governance.
Tracks the data, parameters, and model architectures used to generate AI predictions. By establishing provenance, users know where training data came from and which models were employed, enhancing trust and reducing the likelihood of misinformation.
ยืนยันว่าผลลัพธ์ AI ที่สุดท้ายทั้งความแม่นยำและไม่ถูกเปลี่ยนแปลง ในบริบทแบบกระจายนี้ มักจะมีกลไกการพิสูจน์ (เช่น พิสูจน์ความรู้ซึ่งศูนย์ศูนย์, การตรวจสอบตัวอย่าง) เพื่อให้แน่ใจว่าการคำนวณหรือการสรุปไม่ถูกแก้ไขออกจากเชื่อมต่อ
ความท้าทายในการยืนยัน AI On-Chain
ในขณะที่บล็อกเชนเป็นเจ้าของการให้บันทึกที่ไม่สามารถเปลี่ยนแปลงได้และความเชื่อถือแบ่งปัน การคำนวณ AI on-chain อาจทำให้แพงเกินไป เช่น การคูณเมทริกซ์สำหรับจำนวนเต็ม 1000×1000 อาจใช้ gas หลายพันล้าน - เกินจากขีดจำกัด gas บล็อกปัจจุบันของ Ethereum (Zheng et al., 2021) ด้วยเหตุนี้ โครงการ AI ส่วนใหญ่พึ่งการคำนวณ off-chain พร้อมการตรวจสอบ on-chain
แต่วิธีที่อยู่นอกเชื่อมโยงเส้นทางใหม่ ยังเป็นการเผชิญกับความท้าทายใหม่
ภัยคุกคามที่เป็นไปได้: โดยไม่มีการยืนยันอย่างแข็งแรง ผู้กระทำที่มีความชั่วร้ายสามารถส่งข้อมูลที่ไม่ถูกต้องหรือถูกจัดการได้
จุดอ่อนแห่งการจัดกลาง: การพึ่งพาบนออร์เคิลหรือเซิร์ฟเวอร์ส่วนตัวสามารถทำให้จรรยาบรรณแบบไม่มีการจัดกลางถูกทำลาย ทำให้เกิดการเซ็นเซอร์หรือจุดเสียหายเดียว
ดังนั้น โซลูชันที่กำลังเกิดขึ้นมุ่งเน้นที่จะรักษาประสิทธิภาพสูงในขณะที่รวมรหัสลับหรือการตรวจสอบที่ใช้การสุ่ม เพื่อสมดุลความมีประสิทธิภาพและการกระจายอำนาจ
EigenLayer เป็นโปรโตคอลที่ใช้ให้ผู้ตรวจสอบ Ethereum "ทำการ restake" ETH ของพวกเขาเพื่อรักษาบริการที่มีความกระจายอย่างเพียงพอ ที่รู้จักกันด้วยชื่อ Actively Validated Services (AVS) นอกเหนือจากการต้องการเซ็ตผู้ตรวจสอบใหม่สำหรับแต่ละงานที่เชี่ยวชาญ (เช่น การตรวจสอบ AI, การดำเนินการ cross-chain) EigenLayer ใช้ใหม่เครือข่ายผู้ตรวจสอบ Ethereum ที่มั่นคงและกระจาย
EigenLayer เสริมความปลอดภัยโดยอนุญาตให้บริการ Actively Validated Services (AVS) ใหม่เข้าถึงชุดตรวจสอบของ Ethereum ที่มีอยู่อย่างมากมาย เป็นทุนทรัพย์มากมายและกระจายทางภูมิศาสตร์ มีการรับรองความปลอดภัยด้านเศรษฐศาสตร์ที่แข็งแรงโดยไม่จำเป็นต้องเริ่มต้นเครือข่ายใหม่ตั้งแต่ต้น
โดยเปิดใช้งานการเพิ่มเติม EigenLayer ลดความซับซ้อนในการดำเนินการอย่างมีนัยสำคัญ โครงการไม่จำเป็นต้องสร้างและบำรุงรักษาระบบ validator เองอีกต่อไป ซึ่งลดต้นทุนการสร้างโครงสร้างพื้นฐานและกำหนดขีดจำกัดในการเปิดให้บริการบริการดีเซ็นทรัลไล่ลงบนเชน
นอกจากนี้ระบบยังมีความยืดหยุ่นสูง AVS สามารถปรับแต่งตรรกะและตรรกะการตรวจสอบของตนเองในขณะที่ยังสืบทอดความปลอดภัยในระดับฐานของ Ethereum ทำให้ EigenLayer เป็นพื้นฐานที่เหมาะสมสำหรับแอปพลิเคชันระบบกระจายที่มีความยืดหยุ่นปลอดภัยและมีขนาดยึดเพิ่มเติม
Hyperbolic Labs แนะนำ Proof of Sampling (PoSP), วิธีทดสอบที่มีประสิทธิภาพและมีขนาดใหญ่เป็นทางเลือกต่อการใช้ zkML หรือ optimistic fraud proofs เพื่อการตรวจสอบ AI โดยใช้การสุ่มอย่างใหม่นี้ โพรโทคอลการตรวจสอบโดยใช้การสุ่มนี้ จะช่วยให้ผู้ใช้ของเรามั่นใจในผลลัพธ์ของโมเดลที่กำลังถูกฝึกและเรียกใช้บนเครือข่าย GPU แบบกระจายของเรา โปรโตคอลนี้ที่รู้จักในชื่อ Proof of Sampling (PoSP) เป็นมาตรฐานทองใหม่สำหรับการตรวจสอบใน AI
พัฒนาโดยทีม Hyperbolic ร่วมกับนักวิจัยจาก UC Berkeley และ Columbia University PoSP ใช้ทฤษฎีเกมเพื่อป้องกันระบบที่มีลักษณะกระจาย มันตรวจสอบตัวอย่างกลยุทธ์ของผลลัพธ์ และใช้กระบวนการตัดสินใจสำหรับโหนดที่ไม่ซื่อสัตย์เพื่อสร้างสรรค์พฤติกรรมที่ซื่อสัตย์ 100% ในเครือข่าย
Proof of Spontaneous Proofs (PoSP) มีข้อดีที่สําคัญหลายประการ: ช่วยให้สามารถตรวจสอบได้อย่างมีประสิทธิภาพโดยการเพิ่มค่าใช้จ่ายในการคํานวณน้อยกว่า 1% ทําให้โหนดสามารถรักษาความเร็วในการทํางานแบบเนทีฟได้ การรักษาความปลอดภัยที่แข็งแกร่งช่วยให้ผู้เข้าร่วมยังคงซื่อสัตย์เนื่องจากการสุ่มตรวจสอบทําให้การฉ้อโกงมีความเสี่ยงเกินกว่าจะคุ้มค่า ด้วยแรงจูงใจในเกมทฤษฎี PoSP สร้างกลยุทธ์ที่บริสุทธิ์ Nash Equilibrium ซึ่งพฤติกรรมที่ซื่อสัตย์เป็นทางเลือกที่มีเหตุผลเสมอ สุดท้าย PoSP สามารถปรับขนาดได้สูงสําหรับบริการ AI ซึ่งสามารถรองรับปริมาณงาน AI แบบกระจายอํานาจขนาดใหญ่ในขณะที่มั่นใจได้ว่ากระบวนการประมวลผลและการอนุมานที่มีประสิทธิภาพสูงยังคงตรวจสอบได้และเชื่อถือได้
การตรวจสอบแบบสุ่ม: ชุดของผู้ตรวจสอบที่หมุนเวียน (ผ่าน EigenLayer) จะสุ่มตรวจสอบคำนวณ AI อย่างสม่ำเสมอ การตรวจสอบต่อเนื่องนี้จะป้องกันการโกงแบบระบบ
Nash Equilibrium Incentives: พฤติกรรมที่ไม่ดีเศร้าเป็นเรื่องทางเศรษฐศาสตร์สำหรับผู้ตรวจสอบ - ผลลัพธ์ที่ไม่ซื่อสัตย์หรือไม่สม่ำเสมอทำให้ต้องมีการลดเพิ่ม
การส่งผ่านสูง: การทำงานที่มีภาระการทำงานต่ำของ PoSP ทำให้มันเหมาะสำหรับกรณีการใช้งานที่ต้องการการสร้างสรรค์ AI ที่รวดเร็วและบ่อยครั้ง
ไม่เหมือนกับโซลูชั่น AI แบบกระจายที่อื่น ๆ เมื่อคุณรันการอินเฟอเรนซ์บนเครือข่ายที่กระจายของ Hyperbolic คุณสามารถมั่นใจได้ว่าคุณจะได้รับผลลัพธ์ที่ถูกต้อง
โดยการผสาน PoSP เข้ากับ EigenLayer บริการ AI ที่ไม่ centralize สามารถบรรลุเฟรมเวิร์กที่ปลอดภัยและได้รับความเชื่อมั่นที่สุดเล็กน้อย ซึ่งสามารถจัดการกับคำขอการอ่านที่เพิ่มขึ้นโดยไม่เสียการกระจายหรือคุณต่อความมั่นคงทางเงิน
การตรวจสอบแบบสุ่ม: ผู้ตรวจสอบถูกเลือกโดยสุ่มเพื่อยืนยันผลลัพธ์เพื่อให้ได้ผลลัพธ์ที่ไม่เห็นแก่การ
Scalable AVS Support: PoSP ลดความต้องการทางคำนวณ ทำให้ EigenLayer สามารถป้องกันบริการขนาดใหญ่ได้อย่างมีประสิทธิภาพ
การป้องกันการทุจริต: การลงโทษอย่างเข้มงวดทำให้ความไม่ซื่อสัตย์ไม่ได้รับกำไร ในขณะที่พฤติกรรมที่ซื่อสัตย์ยังคงเป็นกลยุทธ์ที่ดีที่สุด
โปรโตคอล EigenLayer ที่รวมกับ Proof of Sampling ของเราเปลี่ยนแปลงอย่างเร้นระวังถึงวิธีที่เรารักษาบริการที่ไม่มีการรวมกันตอนนี้เรามีโครงสร้างพื้นฐานที่สามารถขยายได้เชื่อถือได้และต้านการทุจริตในราคาเพียงเพียงบางส่วน” - Jasper Zhang ประธานบริษัท Hyperbolic
อ่านเอกสารเต็มเรื่องเรื่อง PoSP ที่นี่
เครือข่าย Mira มุ่งเน้นการแก้ไขท้ายที่พื้นฐานใน AI ซึ่งคือแนวโน้มของโมเดลภาษาขนาดใหญ่ (LLMs) ที่สร้างข้อมูลที่ไม่ถูกต้อง ออกแบบเพื่อลดอาการตัวเห็นและสูงสุดให้ความแม่นยำในการส่งเสริมโดยไม่ต้องมีการตรวจสอบของมนุษย์ Mira ใช้เครือข่ายที่กระจายอย่างแยกต่างหากเพื่อยืนยันผลลัพธ์ AI อย่างไม่มีความเชื่อถือในขณะเดียวกัน
มีขั้นตอนสามขั้นตอนในสถาปัตยกรรมของมีรา
การทำให้เป็นไบนารี
กระบวนการแยกออกเป็น 'ข้อเรียกร้อง' ที่ง่ายขึ้น
การตรวจสอบแบบกระจาย
การอ้างอิงข้างต้นได้รับการยืนยันจากเครือข่ายของโหนดตัวยืนยันที่ทำงานด้วยแบบจำลองที่เฉพาะเจาะจงเพื่อทำการยืนยันการอ้างอิง การยืนยันจะทำในรูปแบบของคำถามหลายตัวเลือก การอ้างอิงสำหรับการยืนยันจะถูกแบ่งแยกออกไปที่ตัวยืนยันโดยสุ่มซึ่งทำให้มันยากต่อการซ่อมแซม
Proof-of-Verification
การสร้างกลไกการตกลงแบบผสมที่รวมกันระบบพิสูจน์ (Proof-of-Work) และพิสูจน์ความเป็นเจ้าของ (Proof-of-Stake) ได้รับการใช้งาน ผู้ตรวจสอบแต่ละคนจำเป็นต้องมีการพนันเพื่อเข้าร่วมในการตรวจสอบ วิธีการนี้ทำให้ผู้ตรวจสอบสามารถทำการอนุมัติอย่างแท้จริง แทนที่จะเพียร์เซอร์เท่านั้น การพนันของผู้ตรวจสอบจะถูกลบถ้าพบว่าผลลัพธ์ของพวกเขามีแนวโน้มที่คงที่ที่จะต่างไปจากความเห็นร่วม
เมื่อมีการเห็นด้วยร่วมกันโดยเครือข่ายเกี่ยวกับผลลัพธ์ จะสร้างใบรับรองทางคริปโตและเขียนลงบนบล็อกเชนเพื่อสร้างบันทึกที่ไม่เปลี่ยนแปลงของข้อมูลที่ได้รับการตรวจสอบ
Source:เอกสารขาว Mira Network
ความเป็นส่วนตัวเป็นสิ่งสําคัญในการออกแบบของ Mira เนื่องจากการอ้างสิทธิ์ถูกแบ่งแบบสุ่มจึงเป็นไปไม่ได้ที่ตัวดําเนินการโหนดเดียวจะสร้างเอาต์พุตดั้งเดิมขึ้นใหม่ นอกจากนี้คําตอบการตรวจสอบจากผู้ตรวจสอบอิสระจะถูกเก็บไว้เป็นส่วนตัวก่อนที่จะมีมติเป็นเอกฉันท์เพื่อป้องกันการรั่วไหลของข้อมูล
Mira กำลังมองหาการยืนยันเนื้อหาที่ซับซ้อนขึ้นทุกวัน ซึ่งรวมถึงโค้ด ข้อมูลโครงสร้างและเนื้อหามัลติมีเดีย ในอนาคต Mira ยังจะสร้างเนื้อหาที่ไม่ถูกต้องเมื่อตรวจพบเนื้อหาที่ไม่ถูกต้องเพื่อทำให้ได้ความแม่นยำและรวดเร็วในการผลลัพธ์ AI ในที่สุด Mira Network จะสามารถสะสมข้อมูลที่มีประกันความปลอดภัยทางเศษเป็นฐานข้อมูลสำหรับการตรวจสอบข้อเท็จจริง
เมื่อการใช้งานเครือข่ายเพิ่มขึ้น - การสร้างค่าธรรมเนียมสูงขึ้น - การรับรางวัลการตรวจสอบที่ดีขึ้น - ดึงดูดผู้ดำเนินการโหนดมากขึ้น - ความแม่นยำ ความต้องการใช้งาน และความเร็วในการตรวจสอบคำตอบที่ดีขึ้น
Atoma เป็นเครือข่ายการประมวลผล AI ที่มีลักษณะที่ไม่ centralize, เป็นส่วนตัวและสามารถยืนยันได้ ที่มีอยู่บนเครือข่าย Sui mainnet โครงสร้างหลักประกอบด้วยสามองค์ประกอบ: (a) ชั้นการคำนวณและ; (b) ชั้นการยืนยันและ; (c) ชั้นความเป็นส่วนตัว
ชั้นคำนวณ
เครือข่ายโลกของโหนดดำเนินการที่ประมวลผลคำขอการสืบค้น มีจำนวนโหนดมากมายที่สามารถใช้งานได้โดยการทำงานร่วมกับศูนย์ข้อมูลต่าง ๆ และอุปกรณ์ขอบเขตเช่นอุปกรณ์ดิจิทัลของบุคคล
ด้วย Atoma น้ำหนักของโมเดลพร้อมใช้งานภายในเครือข่ายโหนดเพิ่มความเร็วของการสรุปเมื่อได้รับคำขอ นอกจากนี้คำขอที่ได้รับจะถูกนำไปสู่โหนดที่เหมาะสมที่สุดที่ตรงกับงานและประสิทธิภาพที่เหมาะสม
Atoma เน้นการปรับปรุงความมีประสิทธิภาพของการทำข้อสรุปผ่านคู่มือคุณลักษณะ ซึ่งรวมถึง FlashAttention และ Paged Attention ซึ่งเป็นส่วนที่ช่วยลดภาระการคำนวณ
เลเยอร์การตรวจสอบ
ความสมบูรณ์ของการคำนวณถูกตรวจสอบผ่านการเชื่อมต่อข้อมูลที่เลือกสุ่ม นี่คือกระบวนการที่เลือกโหนดโดยสุ่มเพื่อรันการอ่านและสร้างแฮชข้อมูลเข้ารหัส หากทุกแฮชที่สร้างโดยชุดโหนดที่เลือกตรงกันกัน ผลลัพธ์การอ่านถูกตรวจสอบ หากมีความขัดแย้งในแฮชที่สร้าง เครือข่ายจะค้นหาโหนดที่ไม่ซื่อสัตย์ ที่จะถูกลดลงโดยการลดมูลค่าสินทรัพย์ของมัน
โอกาสที่ผู้โจมตีที่มีความประสงค์ร้ายจะสามารถควบคุมครึ่งหรือมากกว่าครึ่งของพลัง GPU ของเครือข่ายทั้งหมดเพื่อเล่นระบบนั้นต่ำมาก และกลายเป็นยากขึ้นเมื่อเครือข่ายโหนดขยายตัว จำนวนโหนดที่เลือกสำหรับการสุ่มเป็นไปได้ สำหรับงานที่มีเงินเดิมพันสูง สามารถเลือกเซ็ตของโหนดที่ใหญ่ขึ้น
Privacy Layer
Atoma ให้ความสำคัญกับการรักษาข้อมูลผู้ใช้ไว้ในระดับความปลอดภัยและเป็นส่วนตัว โดยการเรียกใช้การคำนวณใน Trusted Execution Environment (TEE) ข้อมูลที่ผู้ใช้ป้อนเข้าไปถูกเข้ารหัสและถูกถอดรหัสเฉพาะใน TEE เหล่านี้ป้องกันให้สิ่งอื่น ๆ บนบล็อกเชนไม่สามารถมองข้อมูลของผู้ใช้ หลังจากที่การอินเฟอเรนซ์ได้รับการเรียกใช้แล้ว ผลลัพธ์ถูกเข้ารหัสก่อนที่จะส่งกลับไปยังผู้ใช้
นับถือว่ามีความปลอดภัย แต่ควรระวังว่ามีการแลกเปลี่ยนในเชิงการคำนวณที่สูง ซึ่งอาจส่งผลให้ค่าธรรมเนียมสูงขึ้นสำหรับผู้ใช้
คล้ายกับเครือข่าย Atoma ด้านบน Aizel Network เลือกใช้วิธีการที่ใช้ TEE เช่นกัน ความแตกต่างที่นี่คือ Aizel ได้รวม Multi-Party Computation (MPC) เข้าไปในขั้นตอนการทำงานของพวกเขา ที่ทำให้งานทำนายถูกส่งไปที่ TEE ต่าง ๆ นี้มุ่งเน้นที่จะทำให้เครือข่ายที่กระจายอยู่ และทำให้แน่ใจว่าการทำนายยังเป็นไปได้อยู่ แม้ว่า TEE หนึ่งจะถูก hack หรือล่ม
Fortytwo champions a “swarm inference” model built around Small, Specialized Models (SLMs). Instead of relying on one massive monolithic AI, the network orchestrates multiple contributor-run models, each fine-tuned for specific tasks or domains. These models work in parallel—verifying, refining, and cross-checking each other’s outputs—to deliver more accurate and trustworthy inferences.
โครงสร้างที่ไม่มีศูนย์กลางนี้จะต่อสู้กับปัญหาที่โมเดลขนาดใหญ่เดี่ยวมักเจอ เช่นการขัดข้องในการฝึกอบรม ความต้องการฮาร์ดแวร์ที่มีค่าแพง และจุดล้มเหลวเดียว โดยการกระจายอำนาจในโมเดลขนาดเล็กและผู้สนับสนุนจำนวนมาก Fortytwo ยืนยันให้แน่ใจว่ามีความมั่นคงทั้งในด้านการขยายขนาดและความทนทานต่อข้อผิดพลาด
การเริ่มต้นความ Absoluteness ก่อน
ก่อนที่งานใด ๆ จะเริ่ม ผู้สนับสนุนจะระบุเป้าหมาย งบประมาณ และข้อจำกัด การเข้าถึงนี้จะทำให้ SLM ทุกตัวสอดคล้องกับภาระหน้าที่โดยรวม - ไม่ว่าจะเป็นการสรุปข้อความ การวิเคราะห์โค้ด หรือการอุทิศทางเฉพาะอื่น ๆ
ความเชี่ยวชาญที่ผู้มีส่วนร่วมกำหนดเอง
ผู้ดำเนินงานโหนดแต่ละคนนำโมเดลที่ปรับแต่งอย่างดีของตนเองเข้าสู่เครือข่าย พวกเขายังคงควบคุมน้ำหนัก เบียส และข้อมูลที่เป็นกรรมสิทธิ์อย่างเต็มที่ - ทำให้มั่นใจว่าความเป็นส่วนตัวสำหรับเจ้าของโมเดลแต่ละคน โมเดลที่เชี่ยวชาญเหล่านี้สามารถเน้นไปที่พื้นที่เช่นการวิเคราะห์อารมณ์ การแยกวิเคราะห์ข้อความทางกฎหมาย หรือแม้กระทั่งการสร้างโค้ดที่เฉพาะทางในโดเมน
ความเป็นส่วนตัวของ Weights & Biases
ประเด็นสำคัญของ Fortytwo คือผู้สนับสนุนไม่ต้องแบ่งปันภายในโมเดลในรูปแบบของข้อมูลเชิงวิเคราะห์เท่านั้น ผลการสรุปถูกแชร์กับเครือข่ายเท่านั้น การออกแบบนี้รักษาทรัพย์สินทางปัญญาของเจ้าของโมเดลแต่ละรายและช่วยลดความเสี่ยงที่เกี่ยวข้องกับการเปิดเผยข้อมูลที่อ่อนไหว
ความร่วมมือ SLM หลายรายการ
งานถูกแบ่งออกเป็น 7-8 (หรือมากกว่า) SLMs ที่เชี่ยวชาญ แต่ละต่อเข้ามุมมองของโดเมนที่ไม่ซ้ำกัน โดยการแบ่งงานขนาดใหญ่เป็นปัญหาย่อยๆ ทำให้เครือข่ายใช้ประโยชน์จากจุดเด่นของแต่ละโมเดลได้อย่างมีประสิทธิภาพมากยิ่งขึ้น
Flat Mixture-of-Experts (MoE)
แทนที่จะเรียงซ้อนผู้เชี่ยวชาญย่อยในชั้นหลายชั้น Fortytwo ใช้วิธีการ MoE แบบ "flat" โดยที่แต่ละโมเดลประมวลผลข้อมูลโดยอิสระ การออกแบบนี้สามารถเป็นไปได้อย่างมีประสิทธิภาพโดยเฉพาะเพราะมันหลบเลี่ยงความซับซ้อนจากการประตูชั้นยาง เพื่อให้ผู้เชี่ยวชาญสามารถโฟกัสเฉพาะกับงานย่อยของตนเองเท่านั้น
การตรวจหาข้อผิดพลาดร่วม
การประเมินระดับเท่าเทียมมีบทบาทสำคัญในการรักษาความแม่นยำของการอ่านข้อมูล เมื่อโมเดลไม่เห็นด้วย ระบบจะทำเครื่องหมายให้เห็นถึงความไม่เหมือนกันสำหรับการวิเคราะห์เชิงลึก กระบวนการตรวจสอบข้ามนี้เป็นสิ่งสำคัญในการจับข้อผิดพลาดไว้ล่วงหน้าและให้ผลลัพธ์ที่มีคุณภาพสูง
Consumer-Grade Hardware
Fortytwo ถูกปรับแต่งให้เหมาะสมกับอุปกรณ์เช่น Apple Silicon และ RTX GPUs ซึ่งช่วยลดอุปทรกรรมและขยายฐานข้อมูลของผู้ดำเนินโหนดที่เป็นไปได้ แนวทางนี้ทำให้การเป็นประชาธิปไตยของ AI โดยการทำให้บุคคลทั่วไปมากขึ้น และไม่ใช่เฉพาะศูนย์ข้อมูลขนาดใหญ่
กลุ่มการจัดการ
ผู้ดำเนินโหนดมากมักเลือกแพลตฟอร์มคลาวด์ (เช่น AWS) หรือกลุ่มที่ติดตั้งเองเพื่อลดความล่าช้า กลุ่มที่ทำงานร่วมกันอย่างดีกลายเป็นสิ่งมีค่าอย่างยิ่งในสถานการณ์ที่ต้องการการทำงานในเวลาที่มีความสำคัญโดยเฉพาะที่ทำให้ความล่าช้าเล็กน้อยก็สามารถมีผลกระทบต่อประสบการณ์ของผู้ใช้ได้มากทีเดียว
การเข้าร่วมที่เพิ่มขึ้น
พันธมิตรหลายรายได้แสดงความสนใจที่จะเป็นโหนดการอ่านข้อมูลทำนาย ซึ่งสร้างเครือข่ายที่หลากหลายและกระจายอย่างกว้างขวาง การขยายตัวนี้ทำให้มีทรัพยากรคำนวณมากขึ้นออนไลน์ ทำให้ประสิทธิภาพและความทนทานเพิ่มขึ้น
ระบบการมีส่วนร่วมแบบวิกิพีเดีย
เช่นเดียวกับวิกิพีเดียที่บรรลุความร่วมมือกันในการเขียนบทความ ผู้ดำเนินการโหนดแต่ละคนสามารถเพิ่มคุณภาพหรือปรับปรุงโมเดลที่เฉพาะเจาะจงและแบ่งปันเทคนิคการสรุปที่ดีขึ้น การบำรุงรักษาและปรับปรุงร่วมกันนี้ส่งเสริมนวัตกรรมอย่างต่อเนื่องและเพิ่มความฉลาดโดยรวมของเครือข่าย
Lagrange อยู่ที่จุดตัดขอบของการใช้เทคโนโลยี Zero-Knowledge (ZK) เพื่อนำความสามารถในการตรวจสอบมาสู่ AI โค้ดด้านของพวกเขา—“อนาคตของ AI คือ ZK และอนาคตของมนุษย์คือ Lagrange”—เน้นให้เห็นถึงความเชื่อว่าเมื่อ AI พัฒนาไปสู่ซุปเปอร์อินเทลลิเจนซ์ เราต้องรักษาความ๏วรงและความเชื่อในวิธีที่แบบจำลองเหล่านี้ทำงาน
DeepProve: High-Performance zkML
โดยการลบการปฏิสัมพันธ์ AI แบบ "กล่องดำ" Lagrange ให้แน่ใจว่าผู้ใช้ไม่ต้องเชื่อถือ AI อย่างบอบบาง ในสภาพแวดล้อมที่เป็นระบบกระจายที่การลดความเชื่อถือเป็นสำคัญมาก ความแน่ใจทางกลของความสมบูรณ์ของแบบจำลองและความถูกต้องของผลลัพธ์กลายเป็นสิ่งสำคัญ
นอกจากนี้ Inference Labs ดำเนินงานเป็นแขนงแอปพลิเคชันของ Lagrange ซึ่งเชื่อมสายการวิจัยและการใช้งานในปฏิบัติ ในขณะที่ Lagrange มุ่งเน้นไปที่การออกแบบรหัสเข้ารหัสและวงจรหลัก Inference Labs จะให้ความมั่นใจว่าความก้าวหน้าเหล่านี้พร้อมใช้งานในการผลิต
การผสานเข้ากับโลกของความเป็นจริง
ฝัง zkML เข้าสู่พายไลน์การเรียนรู้ของเครื่องที่มีอยู่แล้ว โดยเน้นที่ภาคธุรกิจเช่น DeFi, เกม, การดูแลสุขภาพ, และการพิสูจน์แหล่งกำเนิดของโซนอุปทาน
ร่วมงานกับผู้นำในอุตสาหกรรมเพื่อทดสอบคุณสมบัติ Lagrange ใหม่ในเงื่อนไขของโลกจริง (เช่น จำนวนพารามิเตอร์มาก, ความต้องการในการล่าช้าอย่างเข้มงวด)
EZKL เป็นระบบโอเพนซอร์สสำหรับการสร้าง AI และการวิเคราะห์ที่สามารถยืนยันได้โดยใช้พิสูจน์ทราบศาสตร์ศูนย์ (ZKPs) มันช่วยให้นักพัฒนาสามารถพิสูจน์ว่าโมเดล AI ได้รับการดำเนินการอย่างถูกต้องโดยไม่เปิดเผยข้อมูลที่เป็นความลับหรือรายละเอียดของโมเดลที่เป็นทรัพย์สิน โดยได้แรงบันดาลจากระบบที่คล้ายกับ Apple’s Face ID EZKL ขยายความปลอดภัยของโมเดลที่ไม่สามารถปฏิเสธได้ไปสู่โมเดลใด ๆ บนอุปกรณ์ใด ๆ — โดยไม่ต้องพึ่งพาระบบฮาร์ดแวร์ที่เชี่ยวชาญเช่น TEEs
Infrastruktur Zero-Knowledge Proof
EZKL อัตโนมัติเตอร์วงจรชีพของ ZKP ทั้งหมด - ตั้งแต่การคอมไพล์โมเดลไปจนถึงการสร้างและการตรวจสอบพิสูจน์ เจ้าของได้รับโมเดล AI ในรูปแบบ ONNX ซึ่ง EZKL จะคอมไพล์เป็นวงจรที่เหมาะสมกับ ZK โดยใช้รุ่นที่ปรับปรุงของระบบ Halo2 proving system ระบบจะสร้างพิสูจน์ทางคริปโทกราฟิกของการประมวลผลโมเดลที่ถูกต้องที่สามารถตรวจสอบได้บนอุปกรณ์ใดก็ได้
กระบวนการทางคริปโตนี้ช่วยให้มีความเชื่อถือแบบกระจายในแอปพลิเคชัน AI ที่มีความเสี่ยงสูง เช่น การตัดสินใจทางการเงิน การตรวจสอบชีพจรชีวิต และการตรวจสอบข้อมูลแบบเรียลไทม์
Collaborative SNARKs (Cosnarks)
EZKL ได้แนะนำ Collaborative SNARKs (cosnarks) ล่าสุด ซึ่งช่วยให้สองฝ่าย - เช่นเจ้าของโมเดลและเจ้าของข้อมูล - สามารถสร้าง ZK proof ร่วมกันโดยไม่เปิดเผยทรัพย์สินลับของตน ต่างจากระบบการพิสูจน์ MPC แบบมอบหมาย, cosnarks กำจัดการสมัครเล่นเพิ่มเติมด้วยการจำกัดการคำนวณไว้กับฝ่ายที่เกี่ยวข้องเท่านั้น
การก้าวหน้านี้ทำให้ใช้งานได้ เช่น การประเมินวงเงินเครดิตส่วนตัว กลยุทธ์การซื้อขายที่อยู่ในความลับ และการยืนยันตัวตนโดยไม่เปิดเผยข้อมูลเลย การนำมาใช้ใช้เทคโนโลยี Renegade's 2PC-optimized MPC library และได้รับการผสมผสานโดยตรงเข้ากับ Lilith, ชั้นเรียงความพร้อมของเมฆ EZKL
รองรับโมเดลและความยืดหยุ่น
EZKL รองรับหลากหลายสถาปัตยกรรม AI/ML รวมถึง CNNs, RNNs, transformers สไตล์ GPT, ต้นไม้การตัดสินใจ, และโมเดลการแพร่กระจายที่เสถียร โมเดลใดที่เข้ากันได้กับมาตรฐาน ONNX สามารถแปลงเป็นวงจร ZK ได้
โดยการทำให้โลจิกโมเดลกลายเป็นวงจรทางคณิตศาสตร์ EZKL ทำให้สามารถดำเนินการสรุปที่คุ้มครองความเป็นส่วนตัวได้ทั่วอุตสาหกรรม เช่น การเงิน การดูแลสุขภาพ และเอกลักษณ์ โลจิกที่ใช้ต้นไม้ กลไกความสนใจ และการดำเนินการเมทริกซ์ขนาดใหญ่ ได้รับการสนับสนุนทั้งหมดภายในกรอบงาน Halo2
ประสบการณ์นักพัฒนา
EZKL มีการตั้งความสำคัญในเรื่องของความเข้าถึงและการนำเสนอความซับซ้อน นักพัฒนาไม่จำเป็นต้องมีความรู้ทางด้านการเข้ารหัสลับล่าสุด, ประสบการณ์ในการออกแบบวงจร หรือทักษะที่เชี่ยวชาญในด้าน DevOps ระบบนี้มีการผูกพันใน CLI, Python, JavaScript, และ Rust—ทำให้ง่ายต่อการฝังเข้าไปในกระบวนการทำงานของ ZK ในท่อไปของ ML ที่มีอยู่แล้ว
การสร้างเงื่อนไขโดยอัตโนมัติ คำสั่งการพิสูจน์ที่เรียบง่าย และการผสานอย่างไม่มีช่องโหว่กับเครื่องมือการจัดการทำให้นักพัฒนาสามารถมุ่งเน้นไปที่โลจิกแอปพลิเคชันอย่างเดียว
ORA เป็นโปรโตคอลออราเคิลที่ไม่ขึ้นกับเชน ที่เชื่อมโยง AI และ blockchain ทำให้นักพัฒนาสามารถสร้างแอปพลิเคชันที่完全ไว้วางใจแบบไม่มีกลางที่ถูกขับเคลื่อนด้วยการเรียนรู้ของเครื่องที่สามารถตรวจสอบได้ ผ่านโครงสร้างของตน ORA นำเสนอการสรุป AI การสร้างเนื้อหา และการคำนวณที่ซับซ้อนโดยตรงบนเชน ลดความขึ้นอยู่กับ API นอกเชนหรือคำนวณศูนย์กลาง นวัตกรรมหลักของมันอยู่ในการรวมการดำเนินการ AI กับพิสูจน์ทางการเขียนโปรแกรม สร้างท่อประมวลผล AI ที่สามารถตรวจสอบได้ในตัว
โปรโตคอลช่วยให้นักพัฒนาทุกคนสามารถสร้างแอปพลิเคชันที่เอไอเอ็อาจลูกผลิตได้ - ไม่ว่าจะเป็นการตอบสนองโมเดลภาษา การสร้างภาพ หรือคำให้การ - สามารถฝังลงในสมาร์ทคอนแทรคพร้อมการตรวจสอบและการรับรองความถูกต้อง
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) เป็นผลิตภัณฑ์ปัจจุบันของ ORA ซึ่งทำให้สมาร์ทคอนแทรคสามารถขอข้อมูล รับข้อมูล และดำเนินการต่อผลลัพธ์ของการอินเฟอเรนซ์ AI ที่ทำงานออฟเชน แต่ได้รับการตรวจสอบและตกลงบนเชน นักพัฒนาสามารถเรียกใช้งานงานอินเฟอเรนซ์ AI ผ่านเครือข่าย opML ของ ORA ผลลัพธ์นั้นจะถูกส่งกลับผ่านฟังก์ชัน callback ในสัญญาของผู้ใช้ ทำให้แอปพลิเคชันบนเชนเป็น AI-native และเต็มรูปแบบอัตโนมัติ
OAO รองรับโมเดลขนาดใหญ่หลายรูปแบบ - เช่น LLaMA3, Stable Diffusion, OpenLM Chat/Score - ทำงานผ่านโครงสร้างที่สามารถยืนยันได้ นักพัฒนาสามารถรวม OAO บนเครือข่ายที่เข้ากันได้กับ EVM ใดก็ได้ และสัญญาฉลาดที่สร้างไว้เช่น Prompt และ SimplePrompt ช่วยให้การจำลองรวดเร็วโดยใส่ใจถึงการจัดการแก๊ส
opML และกระบวนการที่สามารถยืนยันได้
ระบบเรียนรู้ของเครื่องที่เชื่อมั่นใน ORA (opML) ขับเคลื่อนเลเยอร์ที่สามารถตรวจสอบได้ของมัน เมื่อมีงานตัดสินใจเกิดขึ้น ผลลัพธ์จะถูกโพสต์บนเชนพร้อมกับช่วงเวลาทดสอบ ในระหว่างช่วงเวลานี้ ผู้ตรวจสอบ opML สามารถตรวจสอบผลลัพธ์ และหากไม่ถูกต้อง ส่งข้อพิสูจน์การฉ้อโกง ผลลัพธ์ที่ถูกต้องจะแทนที่ผลลัพธ์ที่ถูกท้าทาย สิ่งนี้ทำให้ผลลัพธ์ AI ที่ฝังอยู่ในสมาร์ทคอนแทรคเป็นไปได้ในการตรวจสอบ ทนต่อการเซ็นเซอร์ชัน และปลอดภัยทางเศรษฐกิจ
การเข้าใจที่เต็มไปด้วยความสมดุลระหว่างประสิทธิภาพและการกระจายอำนาจ ไม่เหมือนกับ zkML ที่อาจต้องการการคำนวณหนักแน่นล่วงหน้า opML ทำให้เป็นไปไม่ได้ทางด้านเศรษฐศาสตร์สำหรับพฤติกรรมที่ไม่ซื่อสัตย์ให้สำเร็จ โดยเฉพาะเมื่อเครือข่ายผู้ตรวจสอบขยายตัว
การผสานรวมนักพัฒนา
นักพัฒนาจะทำงานกับ OAO ผ่านอินเทอร์เฟซที่เป็นมอดูลที่เอกสารถูกเขียนไว้อย่างดี เพื่อรวม AI เข้ากับสมาร์ทคอนแทรคท์ นักพัฒนาจะสืบทอด AIOracleCallbackReceiver และดำเนินการในฟังก์ชัน aiOracleCallback() เพื่อรับผลลัพธ์ จากนั้นพวกเขาสามารถเรียกออราเคิลเพื่อเริ่มกระบวนการอินเฟอเรนซ์ด้วย ID ของโมเดล ข้อมูลนำเข้า และที่อยู่ของการโทรกลับ
มีโมเดล 4 รายการที่ใช้งานบน Arbitrum ณ ปัจจุบัน และการผสานอาจง่ายเพียงแค่ใช้เทมเพลต Prompt ของ ORA โครงสร้างพื้นฐานยังรองรับกรณีการใช้งานที่ซับซ้อนมากขึ้นผ่านการจัดการคำสั่งคำนวณที่ใช้พลังงาน Lilith เพื่อเปิดให้เกิดการสรุปแบบเร็วและงานที่มีประสิทธิภาพสูง
Initial Model Offering (IMO)
ORA สร้างกรอบ Initial Model Offering (IMO) เพื่อทำให้การเป็นเจ้าของโมเดล AI เป็นที่มาแบบกระจายทรัพย์, รายได้ และการปกครอง IMOs ทำให้โมเดล AI เป็นโทเคนผ่านโครงสร้างโทเคนคู่
โดยเปิดใช้งานการปกครองและการพ่นเงินด้วยโทเค็น IMOs สนับสนุนการพัฒนาโอเพนซอร์สให้มั่นใจว่าโครงสร้าง AI ยังคงต้านการเซ็นเซอร์สชิปสามารถเข้าถึงได้ทั่วโลก และเป็นที่เชื่อมั่นร่วมกัน
สรุป
เนื่องจากด้านดิจิทัล AI ยังคงเติบโตอย่างต่อเนื่อง การต้องการผลลัพธ์ AI ที่สามารถยืนยันได้กลายเป็นสิ่งที่สำคัญขึ้น จากที่ได้กล่าวมาข้างต้น จะเห็นได้ว่ามีวิธีการที่หลากหลายในการให้ความน่าเชื่อถือในโซลูชั่น AI แบบไร้ความเชื่อมั่น ซึ่งรวมถึงสภาพแวดล้อมการดำเนินงานที่น่าเชื่อถือ (TEEs), พิสูจน์ที่มีการสุ่ม (PoSP), การเรียนรู้ของเครื่องโดยไม่มีความรู้ (ZKML), และการเรียนรู้ของเครื่องที่เต็มไปด้วยความเชื่อมั่น (OPML)
วิธีการแตกต่างกันในด้านต่าง ๆ คือค่าใช้จ่าย เวลาที่ใช้ และระดับของความรับประกันความปลอดภัย มีโอกาสที่ทุกวิธีการที่กล่าวถึงทั้งหมดจะถูกใช้ในทางที่หนึ่งหรืออีกหนึ่งขึ้นอยู่กับกรณีการใช้งานที่เฉพาะเจาะจง