📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
微軟研發出大語言模型Gorilla,API 調用上優於GPT-4
據IT 之家8 月12 日報導,微軟研究院近日聯合加州大學伯克利分校,開發出名為Gorilla 的全新大語言模型(LLM),表示在準確性、靈活性等API 調用方面優於GPT-4 。據稱,Gorilla LLM 使用名為“檢索器感知訓練”(retriever-aware training)的技術,讓LLM 學習API 調用的語義,並生成語義和語法正確的文本內容。
微軟研究院表示即便API 文檔發生更改,在調用API 時依然能生成正確的語義和語法。 GPT-4 固然是OpenAI 研發的最強大LLM,可駕馭生成文本、翻譯語言、回答內容等各種場景,不過API 調用方面是其短板,無法理解API 調用的語義,只能生成和API 文檔相似的文本。
在最近的一項研究中,在各種API 調用任務上,Gorilla 表現優於GPT-4。 GPT-4 在API 調用準確率為85%,而Gorilla 的準確率可以達到95%。此外Gorilla 還具備GPT-4 不具備的技能,可以為沒有訓練數據集的API,生成正確的API 調用。