✈️ Gate 廣場【Gate Travel 旅行分享官召集令】
廣場家人們注意啦!Gate Travel 已經上線~ 機票+酒店一站式預訂,還能用加密貨幣直接付款 💸
所以說,你的錢包和你的旅行夢終於可以談戀愛了 😎 💕
現在廣場開啓 #GateTravel旅行分享官# 活動,邀你來秀旅行靈感 & 使用體驗!💡
🌴 參與方式:
1️⃣ 在【廣場】帶話題 #Gate Travel 旅行分享官# 發帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小島 or 網紅打卡點都行)
講講用 Gate Travel 訂票/訂酒店的奇妙體驗
放放省錢/使用攻略,讓大家省到笑出聲
或者直接寫一篇輕鬆的 Gate Travel 旅行小故事
📦 獎勵安排,走起:
🏆 優秀分享官(1 名):Gate 旅行露營套裝
🎖️ 熱門分享官(3 名):Gate 旅行速乾套裝
🎉 幸運參與獎(5 名):Gate 國際米蘭旅行小夜燈
*海外用戶 旅行露營套裝 以 $100 合約體驗券,旅行速乾套裝 以 $50 合約體驗券折算,國際米蘭旅行小夜燈以 $30合約體驗券折算。
📌 優質內容將有機會得到官方帳號轉發翻牌提升社區曝光!
📌 帖文將綜合互動量、內容豐富度和創意評分。禁止小號刷貼,原創分享更容易脫穎而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
長文本資訊準確率超過ChatGPT,Meta 提出降低大模型幻覺新方法
來源:量子位元
大模型的幻覺問題,又有新的解決方法了!
Meta AI實驗室提出了一種「分而治之」的解決方案。
有了這個方案,Llama-65B輸出的資訊準確率提升了一倍,甚至超過了ChatGPT。
Meta這次提出的「驗證鏈」(CoVe),是與「思維鏈」(CoT)相似的一種鍊式方法。
差別在於,「step-by-step」的思考鏈更著重邏輯推理,而驗證鏈則更注重事實資訊。
有網友看了之後發現,這個驗證鏈很像是自己用ChatGPT寫程式碼時的科學方法:
拆解答案,分而治之
驗證鏈的核心思想,是把要驗證的一大段內容,拆解成一個個小的問題,具體流程是這樣的:
首先,模型會根據使用者提出的問題照常產生回應。
接著,根據產生的回應內容,針對其中的各項訊息,產生一系列的驗證問題。
然後讓模型自行回答其所提出的這些問題,並根據結果對初始答案進行調整,得到最終結果。
舉個簡單的例子,假如想詢問模型19世紀美墨戰爭的主要原因是什麼。
模型回答了事件發生的時間,以及在這之前都發生了什麼事。
於是,模型發現自己提到的一項內容時間相差太遠,調整後給出了最終的答案。
這四種模式越來越細化,準確率也越來越高。
那為什麼拆分提問就能提高模型的準確性呢?
首先是因為拆解後的問題比整體任務更容易,論述題變成了問答甚至選擇、判斷題,問題簡單了,準確率也就提升了。
此外,把問題分解可以讓模型真正重新思考,而不是反覆地重複錯誤答案。
那麼,驗證鏈方式的效果究竟如何呢?
資訊準確率超過ChatGPT
為了探究這個問題,研究人員用Llama進行了測試,測試任務一共有三項。
首先是資訊列舉,例如列舉出出生於某地、從事某行業的名人。
在這項任務中,研究人員一共測試了兩個資料集——簡單一些的Wikidata和從困難一些的Wiki-Category list(從維基百科中提取)。
接下來是「閉域問答」題,研究人員從MultiSpanQA資料集中抽取多個不連續資訊進行挖空提問。
例如「誰在哪一年創立了世界上第一家出版社」(答案是Johannes Gutenberg, 1450)。
結果,Cove也為Llama帶來了20%左右的準確度提升。
結果在Factor+Reviese模式下,準確率不僅比無驗證鏈模式大幅提高,還超過了ChatGPT。
論文地址: