Dari penasihat ke sekretaris, tantangan kepercayaan pada agen AI: Dapatkah kita mempercayai keputusan otonom kecerdasan buatan?

Dengan cepatnya ekspansi teknologi AI agent ( di Silicon Valley, investasi pada tahun 2024 mencapai 8,2 miliar dolar, sistem otonom ini secara bertahap meresap ke dalam sektor keuangan, infrastruktur, dan pengambilan keputusan. Namun, di balik revolusi teknologi ini, satu masalah kunci yang sering diabaikan muncul ke permukaan: "Bagaimana kita dapat memverifikasi apakah perilaku AI agent dapat dipercaya?"

Silicon Valley menginvestasikan $8,2 miliar ke dalam agen AI tahun lalu.

Segera, mereka akan mengendalikan uang, infrastruktur, dan pengambilan keputusan kita.

Tapi ada satu masalah yang tidak dibicarakan orang:

Bagaimana kita dapat memverifikasi apakah agen AI mengatakan yang sebenarnya? pic.twitter.com/zEj7z5mGyX

— Sergey Gorbunov )@sergey_nog( 22 April 2025

Investasi panas AI di Silicon Valley, tetapi dasar kepercayaannya tetap "kotak hitam"?

Pendiri bersama Chainlink, Sergey Gorbunov, kemarin malam menulis bahwa saat ini agen AI meskipun dibungkus sebagai sistem otonom yang dapat menyelesaikan tugas kompleks secara mandiri, sebagian besar masih beroperasi sebagai "kotak hitam"—artinya pengguna tidak dapat mengetahui proses pengambilan keputusan internalnya dan hanya dapat memilih untuk mempercayai secara buta:

Agen AI yang benar-benar mandiri harus memiliki sifat "tidak dapat dihentikan" dan "dapat diverifikasi" secara bersamaan, namun sistem saat ini sering kali tidak memenuhi standar ini.

)AI Dunia USB-C: Apa itu Model Context Protocol (MCP)? Penjelasan protokol konteks umum untuk asisten AI (

Mengapa "verifiabilitas" adalah jaminan keamanan yang sebenarnya?

Gorbunov menekankan, verifikasi berarti bahwa agen AI perlu dapat menjelaskan dengan jelas "apa yang telah dilakukannya? bagaimana cara melakukannya? apakah telah mematuhi aturan yang telah ditetapkan?"

Jika mekanisme ini tidak ada, ketika agen AI memperoleh kendali atas infrastruktur kritis, itu dapat menimbulkan risiko besar. "Kesenjangan verifikasi )verification gap(" ini, jika tidak ditangani dengan baik, mungkin akan menjadi bahaya dalam perkembangan teknologi.

Tiga jenis agen AI, masing-masing memiliki kebutuhan verifikasi yang berbeda.

Menurut pendiri EigenLayer Sreeram Kannan, agen AI dapat dibagi menjadi tiga kategori berdasarkan objek layanan:

Agen Pribadi )Agen Pribadi(: Layanan utama untuk individu, seperti asisten digital, dengan kebutuhan verifikasi yang relatif lebih rendah.

Agen Umum )Commons Agents(: Melayani komunitas, memerlukan verifikasi dengan intensitas sedang untuk memastikan keadilan dan kepercayaan.

Agen Berdaulat ): Sepenuhnya independen dari operasi manusia, harus memiliki tingkat verifikasi tertinggi.

Dalam lima tahun ke depan, agen-agen kedaulatan ini dapat mengendalikan triliunan dolar aset. Jika mekanisme verifikasi tidak cukup matang, itu akan seperti "membangun rumah di atas pasir bergerak."

Sistem verifikasi tiga tingkat: Membangun fondasi kepercayaan untuk agen AI

Untuk menyelesaikan masalah verifikasi, Kannan mengusulkan kerangka verifikasi bertingkat tiga:

Verifikasi Proaktif (: Evaluasi dilakukan sebelum pelaksanaan tugas.

Verifikasi Retroaktif ): Meninjau kembali akurasi setelah tugas selesai.

Verifikasi Paralel (Verifikasi Konkuren): Pemantauan dan pencatatan terus-menerus selama pelaksanaan tugas.

Struktur ini dapat membuat perilaku AI menjadi transparan untuk meningkatkan tingkat kepercayaan.

Dari klaim asuransi hingga memprediksi pasar: Aplikasi praktis AI yang dapat diverifikasi

Kannan juga menyebutkan potensi aplikasi agen AI yang dapat diverifikasi dalam klaim asuransi, saat ini industri asuransi dijalankan oleh satu perusahaan yang bertindak sebagai penerbit dan pengulas, sering menimbulkan krisis kepercayaan:

Melalui agen AI yang dapat diverifikasi, proses klaim dapat dialihkan menjadi audit independen, dan dilaksanakan serta diaudit dengan mekanisme transparan, meningkatkan keadilan dan kredibilitas.

Selain itu, platform seperti EigenBets yang menggabungkan ZK-TLS dan teknologi lapisan inferensi yang dapat diverifikasi, dapat membuat operasi pasar prediksi lebih transparan, mengurangi ketergantungan pada otoritas terpusat.

(Sam tiga pengamatan Altman: biaya akan turun 10 kali setahun, agen AI akan menjadi standar kerja baru, dan aset yang tidak dapat digantikan oleh AI akan menghargai )

Blockchain + AI: Menciptakan Tiket Masa Depan untuk Agen AI

Menghadapi sistem AI yang semakin kompleks, Gorbunov berpendapat bahwa teknologi blockchain dapat menyediakan dasar kepercayaan terenkripsi yang diperlukan dan membantu membangun arsitektur verifikasi yang kuat:

Menggabungkan agen AI dengan blockchain tidak hanya dapat meningkatkan kredibilitas dan fleksibilitas, tetapi juga membuat kontrak pintar benar-benar "pintar", membuka jalan untuk aplikasi AI di masa depan.

Di akhir artikel, Gorbunov juga melampirkan tautan ke program YouTube-nya "The Future of AI", menekankan bahwa pengembangan kunci masa depan AI bukan hanya tentang menciptakan model yang lebih kuat, tetapi juga mampu:

membuktikan hasil perilakunya

Presentasi proses penalaran yang transparan

Mendapatkan kepercayaan melalui mekanisme kriptografi

Dia menekankan: "Hanya dengan mencapai tiga tujuan besar ini, agen AI dapat beroperasi dengan aman dalam sistem di masa depan."

Artikel ini dari penasihat ke sekretaris, melihat tantangan kepercayaan dalam agen AI: Dapatkah kita mempercayai keputusan otonom kecerdasan buatan? Pertama kali muncul di Berita Blockchain ABMedia.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate.io
Komunitas
Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)