Từ chuyên viên tài chính đến thư ký, thách thức về niềm tin của AI trong việc đại diện: Chúng ta có thể tin tưởng vào quyết định tự chủ của trí tuệ nhân tạo không?

Khi công nghệ AI agent (ai agent) nhanh chóng mở rộng tại Silicon Valley, với tổng số vốn đầu tư lên tới 8,2 tỷ đô la vào năm 2024, những hệ thống tự động này đang dần thâm nhập vào lĩnh vực tài chính, cơ sở hạ tầng và quyết định. Tuy nhiên, đứng sau cuộc cách mạng công nghệ này, một vấn đề quan trọng nhưng thường bị bỏ qua nổi lên: "Chúng ta làm thế nào để xác minh hành vi của AI agent có đáng tin cậy không?"

Thung lũng Silicon đã đổ 8,2 tỷ USD vào các đại lý AI năm ngoái.

Sắp tới, họ sẽ kiểm soát tiền bạc, cơ sở hạ tầng và việc ra quyết định của chúng ta.

Nhưng có một vấn đề mà không ai nói đến:

Làm thế nào chúng ta có thể xác minh nếu các tác nhân AI đang nói sự thật? pic.twitter.com/zEj7z5mGyX

— Sergey Gorbunov (@sergey_nog) Ngày 22 tháng 4 năm 2025

Đầu tư nóng vào AI ở Silicon Valley, nhưng nền tảng tin cậy vẫn là "hộp đen"?

Người đồng sáng lập Chainlink, Sergey Gorbunov, đã đăng bài tối qua chỉ ra rằng, hiện tại các đại lý AI dù được đóng gói thành những hệ thống tự chủ có khả năng hoàn thành các nhiệm vụ phức tạp, nhưng thực tế phần lớn vẫn hoạt động theo kiểu "hộp đen" - tức là người dùng không thể biết được quá trình ra quyết định bên trong của chúng, chỉ có thể chọn cách tin tưởng mù quáng:

Một AI đại lý thực sự có khả năng tự chủ nên đồng thời sở hữu các đặc tính "không thể dừng" và "có thể xác minh", tuy nhiên hệ thống hiện nay thường không đáp ứng tiêu chuẩn này.

(Giao diện USB-C của AI thế giới: Giao thức ngữ cảnh mô hình (MCP) là gì? Giải thích giao thức ngữ cảnh chung của trợ lý AI )

Tại sao "khả năng xác minh" mới là bảo đảm an toàn thực sự?

Gorbunov nhấn mạnh, khả năng xác minh có nghĩa là các đại lý AI cần phải có khả năng giải thích rõ ràng "nó đã làm gì? làm như thế nào? có tuân thủ các quy tắc đã định không?"

Nếu thiếu những cơ chế này, khi các đại lý AI nắm quyền kiểm soát cơ sở hạ tầng quan trọng, có thể gây ra những rủi ro lớn. "Khoảng cách xác minh (verification gap)", nếu không được xử lý đúng cách, có thể trở thành mối nguy trong sự phát triển công nghệ.

Ba loại đại lý AI, mỗi loại có yêu cầu xác thực khác nhau.

Theo như người sáng lập EigenLayer, Sreeram Kannan, AI đại lý có thể được chia thành ba loại dựa trên đối tượng phục vụ:

Đại lý cá nhân ( Đại lý cá nhân ): Dịch vụ chính cho cá nhân, chẳng hạn như trợ lý số, yêu cầu xác thực tương đối thấp.

Đại lý công cộng (Commons Agents): Dịch vụ cộng đồng, cần xác minh cường độ trung bình để đảm bảo sự công bằng và đáng tin cậy.

Đại lý chủ quyền (Sovereign Agents): Hoàn toàn độc lập với hoạt động của con người, cần có khả năng xác minh ở mức cao nhất.

Trong năm năm tới, các đại lý chủ quyền này có thể kiểm soát hàng triệu tỷ đô la tài sản, nếu cơ chế xác minh không đủ trưởng thành, sẽ giống như "xây nhà trên cát lún".

Hệ thống xác thực ba lớp: Xây dựng lại nền tảng niềm tin cho đại lý AI

Để giải quyết vấn đề xác thực, Kannan đã đề xuất một khung xác thực ba cấp độ:

Xác minh chủ động ( Xác minh chủ động ): Đánh giá trước khi thực hiện nhiệm vụ.

Kiểm tra hồi tố (: Xem xét tính chính xác sau khi hoàn thành nhiệm vụ.

Xác thực đồng thời )Concurrent Verification(: Giám sát và ghi lại liên tục trong quá trình thực hiện nhiệm vụ.

Cấu trúc này có thể làm cho hành vi của AI trở nên minh bạch, nhằm nâng cao độ tin cậy.

Từ bồi thường bảo hiểm đến dự đoán thị trường: Ứng dụng thực tế của AI có thể xác minh

Kannan còn đề cập đến ứng dụng tiềm năng của AI đại diện có thể xác minh trong việc bồi thường bảo hiểm, hiện tại ngành bảo hiểm do một công ty đảm nhận cả vai trò phát hành và kiểm tra, thường gây ra khủng hoảng niềm tin:

Thông qua đại lý AI có thể xác minh, quy trình bồi thường có thể được chuyển sang kiểm tra độc lập và thực hiện với cơ chế minh bạch để tăng cường tính công bằng và độ tin cậy.

Ngoài ra, các nền tảng như EigenBets kết hợp công nghệ ZK-TLS và lớp suy diễn có thể xác minh, giúp cho hoạt động của thị trường dự đoán trở nên minh bạch hơn, giảm sự phụ thuộc vào quyền lực tập trung.

)Sam Altman ba quan sát lớn: Chi phí giảm 10 lần mỗi năm, đại lý AI trở thành tiêu chuẩn công việc mới, tài sản không thể bị thay thế bởi AI sẽ tăng giá trị(

Blockchain + AI: Tạo vé tương lai cho đại lý AI

Đối mặt với các hệ thống AI ngày càng phức tạp, Gorbunov cho rằng công nghệ blockchain có thể cung cấp nền tảng tin cậy mã hóa cần thiết và hỗ trợ xây dựng cấu trúc xác minh mạnh mẽ.

Kết hợp AI đại lý dựa trên blockchain không chỉ có thể nâng cao độ tin cậy và tính linh hoạt, mà còn giúp hợp đồng thông minh thực sự trở nên "thông minh", mở đường cho các ứng dụng AI trong tương lai.

Cuối bài, Gorbunov cũng đính kèm liên kết đến chương trình YouTube "The Future of AI", nhấn mạnh rằng sự phát triển quan trọng của AI trong tương lai không chỉ là xây dựng các mô hình mạnh mẽ hơn, mà còn có thể:

chứng minh kết quả hành vi của họ

Trình bày quá trình suy diễn một cách minh bạch

Giành được sự tin tưởng thông qua cơ chế mã hóa

Ông nhấn mạnh: "Chỉ khi đạt được ba mục tiêu lớn này, AI đại lý mới có thể hoạt động an toàn trong các hệ thống tương lai."

Bài viết này từ chuyên gia tài chính đến thư ký, xem thử thách về niềm tin của AI đại diện: Chúng ta có thể tin tưởng vào quyết định tự động của trí tuệ nhân tạo không? Xuất hiện đầu tiên trên Tin tức Chuỗi ABMedia.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)