(Sam Altman สามข้อสังเกต: ต้นทุนลดลง 10 เท่าทุกปี, ตัวแทน AI เป็นมาตรฐานงานใหม่, สินทรัพย์ที่ไม่สามารถถูกแทนที่ด้วย AI จะมีมูลค่าเพิ่มขึ้น)
บล็อกเชน + AI: สร้างบัตรเข้าชมอนาคตของตัวแทน AI
เมื่อเผชิญกับระบบ AI ที่ซับซ้อนมากขึ้น Gorbunov เชื่อว่าเทคโนโลยีบล็อกเชนสามารถ提供พื้นฐานความไว้วางใจที่เข้ารหัสที่จำเป็นและช่วยในการสร้างโครงสร้างการตรวจสอบที่แข็งแกร่ง:
การรวม AI ตัวแทนที่ใช้เทคโนโลยีบล็อกเชนไม่เพียงแต่สามารถเพิ่มความเชื่อถือได้และความยืดหยุ่นเท่านั้น แต่ยังทำให้สมาร์ทคอนแทรคมีความ "ชาญฉลาด" จริง ๆ และเปิดทางสำหรับการประยุกต์ใช้ AI ในอนาคต
ในตอนท้าย Gorbunov ยังแนบลิงก์ไปยังรายการ YouTube ของเขา "The Future of AI" เน้นย้ำว่าการพัฒนาในอนาคตของ AI ไม่ได้มีแค่การสร้างโมเดลที่ทรงพลังขึ้นเท่านั้น แต่ยังต้องสามารถ:
พิสูจน์ผลลัพธ์ของการกระทำของเขา
การนำเสนอขั้นตอนการให้เหตุผลอย่างโปร่งใส
ชนะความไว้วางใจผ่านกลไกการเข้ารหัส
เขาเน้นว่า: "只有การบรรลุเป้าหมายสามประการนี้ AI ตัวแทน才能ทำงานได้อย่างปลอดภัยในระบบในอนาคต."
บทความนี้ จากที่ปรึกษาทางการเงินถึงเลขานุการ ดูความท้าทายด้านความไว้วางใจของ AI ตัวแทน: เราสามารถเชื่อมั่นในการตัดสินใจอิสระของปัญญาประดิษฐ์ได้หรือไม่? ปรากฏครั้งแรกใน ข่าวสาย Blockchain ABMedia.
จากที่ปรึกษาการเงินถึงเลขา ความท้าทายด้านความเชื่อมั่นของ AI ตัวแทน: เราสามารถเชื่อมั่นในการตัดสินใจอิสระของปัญญาประดิษฐ์ได้หรือไม่?
ด้วยเทคโนโลยี AI ตัวแทน (AI agent) ที่ขยายตัวอย่างรวดเร็วในซิลิคอนวัลเลย์ การลงทุนในปี 2024 สูงถึง 8.2 พันล้านดอลลาร์ สาระสำคัญของระบบอิสระเหล่านี้กำลังค่อยๆ แทรกซึมเข้าสู่ด้านการเงิน โครงสร้างพื้นฐาน และการตัดสินใจ อย่างไรก็ตาม ในการปฏิวัตินี้มีปัญหาที่สำคัญแต่มักถูกมองข้ามเกิดขึ้น: "เราจะตรวจสอบพฤติกรรมของ AI ตัวแทนว่าน่าเชื่อถือได้อย่างไร?"
ซิลิคอนวัลเลย์ลงทุน 8.2 พันล้านดอลลาร์ในตัวแทน AI เมื่อปีที่แล้ว.
เร็ว ๆ นี้ พวกเขาจะควบคุมเงินของเรา โครงสร้างพื้นฐาน และการตัดสินใจของเรา
แต่มีปัญหาหนึ่งที่ไม่มีใครพูดถึง:
เราจะตรวจสอบได้อย่างไรว่าตัวแทน AI กำลังพูดความจริง? pic.twitter.com/zEj7z5mGyX
— Sergey Gorbunov (@sergey_nog) 22 เมษายน 2025
การลงทุนที่ร้อนแรงใน AI ตัวแทนที่ซิลิคอนวัลเลย์ แต่ยังคงมีพื้นฐานความไว้วางใจเป็น "กล่องดำ" หรือไม่?
Sergey Gorbunov ผู้ร่วมก่อตั้ง Chainlink ชี้ให้เห็นเมื่อคืนนี้ว่าแม้ว่าตัวแทน AI จะถูกบรรจุเป็นระบบอัตโนมัติที่สามารถทํางานที่ซับซ้อนได้อย่างอิสระ แต่ส่วนใหญ่ยังคงเป็นการดําเนินการ "กล่องดํา" นั่นคือผู้ใช้ไม่สามารถรู้กระบวนการตัดสินใจภายในของพวกเขาและสามารถเลือก blind trust ได้เท่านั้น:
ตัวแทน AI ที่มีความสามารถในการตัดสินใจด้วยตนเองจริง ๆ ควรมีคุณสมบัติ "ไม่สามารถหยุด" และ "สามารถตรวจสอบได้" แต่ระบบในปัจจุบันมักไม่ตรงตามมาตรฐานนี้.
(AI โลกของ USB-C อินเตอร์เฟซ: Model Context Protocol (MCP) คืออะไร? การตีความโปรโตคอลบริบททั่วไปของ AI ผู้ช่วย )
ทำไม "ความสามารถในการตรวจสอบ" ถึงเป็นการรับประกันความปลอดภัยที่แท้จริง?
Gorbunov เน้นย้ำว่าความสามารถในการตรวจสอบหมายถึงตัวแทน AI ต้องสามารถอธิบายอย่างชัดเจนว่า "มันทำอะไร? ทำอย่างไร? มีการปฏิบัติตามกฎที่กำหนดไว้หรือไม่?"
หากขาดกลไกเหล่านี้ เมื่อ AI ตัวแทนได้รับการควบคุมโครงสร้างพื้นฐานที่สำคัญ อาจก่อให้เกิดความเสี่ยงอย่างมาก ช่องว่างการตรวจสอบ (verification gap) นี้ หากไม่ได้รับการจัดการอย่างเหมาะสม อาจกลายเป็นภัยซ่อนเร้นในการพัฒนาเทคโนโลยี.
สามประเภทของตัวแทน AI ซึ่งมีความต้องการการตรวจสอบที่แตกต่างกัน
ตามที่ Sreeram Kannan ผู้ก่อตั้ง EigenLayer กล่าว ตัวแทน AI สามารถแบ่งออกเป็นสามประเภทตามกลุ่มเป้าหมายบริการ
ตัวแทนส่วนบุคคล (Personal Agents): การให้บริการบุคคลเป็นหลักเช่นผู้ช่วยดิจิทัลมีความต้องการการตรวจสอบค่อนข้างต่ํา
ตัวแทนสาธารณะ (Commons Agents): บริการชุมชน ต้องการการตรวจสอบในระดับปานกลางเพื่อให้แน่ใจว่ามีความยุติธรรมและเชื่อถือได้.
ตัวแทนอธิปไตย (Sovereign Agents): ต้องมีความสามารถในการตรวจสอบในระดับสูงสุด โดยไม่ต้องพึ่งพาการดำเนินการของมนุษย์เลย
ในห้าปีข้างหน้า ตัวแทนอธิปไตยเหล่านี้อาจควบคุมทรัพย์สินมูลค่าหลายล้านล้านดอลลาร์ หากกลไกการตรวจสอบไม่เพียงพอ ก็จะเหมือนกับ "การสร้างบ้านบนทรายใน".
ระบบการตรวจสอบสามชั้น: สร้างรากฐานความไว้วางใจสำหรับตัวแทน AI
เพื่อแก้ปัญหาการตรวจสอบ Kannan จึงได้เสนอกรอบการตรวจสอบสามระดับ:
ส่งต่อ (Proactive Verification) การตรวจสอบความถูกต้อง: ประเมินงานก่อนที่จะดําเนินการ
การตรวจสอบย้อนหลัง (Retroactive Verification): ตรวจสอบความถูกต้องหลังจากที่ทำภารกิจเสร็จสิ้น.
การตรวจสอบพร้อมกัน (Concurrent Verification): การตรวจสอบและบันทึกอย่างต่อเนื่องในระหว่างการดำเนินงานของภารกิจ.
โครงสร้างนี้ช่วยทำให้การกระทำของ AI โปร่งใส เพื่อเพิ่มความน่าเชื่อถือ.
จากการชดใช้ประกันไปจนถึงการคาดการณ์ตลาด: การประยุกต์ใช้ AI ที่สามารถตรวจสอบได้
Kannan ยังกล่าวถึงการใช้ AI ตัวแทนที่สามารถตรวจสอบได้ในด้านการชดใช้ประกันภัย โดยปัจจุบันอุตสาหกรรมประกันภัยมีบริษัทเดียวที่ดำเนินการออกกรมธรรม์และตรวจสอบ ทำให้เกิดวิกฤตความเชื่อมั่นบ่อยครั้ง:
ผ่านตัวแทน AI ที่สามารถตรวจสอบได้ กระบวนการชดเชยสามารถเปลี่ยนเป็นการตรวจสอบอิสระ และดำเนินการและตรวจสอบโดยกลไกที่โปร่งใส เพื่อเสริมสร้างความเป็นธรรมและความเชื่อมั่น
นอกจากนี้แพลตฟอร์มเช่น EigenBets ยังรวม ZK-TLS เข้ากับเทคโนโลยีชั้นการอนุมานที่ตรวจสอบได้เพื่อให้ตลาดการคาดการณ์ทํางานอย่างโปร่งใสมากขึ้นและลดการพึ่งพาอํานาจส่วนกลาง
(Sam Altman สามข้อสังเกต: ต้นทุนลดลง 10 เท่าทุกปี, ตัวแทน AI เป็นมาตรฐานงานใหม่, สินทรัพย์ที่ไม่สามารถถูกแทนที่ด้วย AI จะมีมูลค่าเพิ่มขึ้น)
บล็อกเชน + AI: สร้างบัตรเข้าชมอนาคตของตัวแทน AI
เมื่อเผชิญกับระบบ AI ที่ซับซ้อนมากขึ้น Gorbunov เชื่อว่าเทคโนโลยีบล็อกเชนสามารถ提供พื้นฐานความไว้วางใจที่เข้ารหัสที่จำเป็นและช่วยในการสร้างโครงสร้างการตรวจสอบที่แข็งแกร่ง:
การรวม AI ตัวแทนที่ใช้เทคโนโลยีบล็อกเชนไม่เพียงแต่สามารถเพิ่มความเชื่อถือได้และความยืดหยุ่นเท่านั้น แต่ยังทำให้สมาร์ทคอนแทรคมีความ "ชาญฉลาด" จริง ๆ และเปิดทางสำหรับการประยุกต์ใช้ AI ในอนาคต
ในตอนท้าย Gorbunov ยังแนบลิงก์ไปยังรายการ YouTube ของเขา "The Future of AI" เน้นย้ำว่าการพัฒนาในอนาคตของ AI ไม่ได้มีแค่การสร้างโมเดลที่ทรงพลังขึ้นเท่านั้น แต่ยังต้องสามารถ:
พิสูจน์ผลลัพธ์ของการกระทำของเขา
การนำเสนอขั้นตอนการให้เหตุผลอย่างโปร่งใส
ชนะความไว้วางใจผ่านกลไกการเข้ารหัส
เขาเน้นว่า: "只有การบรรลุเป้าหมายสามประการนี้ AI ตัวแทน才能ทำงานได้อย่างปลอดภัยในระบบในอนาคต."
บทความนี้ จากที่ปรึกษาทางการเงินถึงเลขานุการ ดูความท้าทายด้านความไว้วางใจของ AI ตัวแทน: เราสามารถเชื่อมั่นในการตัดสินใจอิสระของปัญญาประดิษฐ์ได้หรือไม่? ปรากฏครั้งแรกใน ข่าวสาย Blockchain ABMedia.