✈️ Gate 广场【Gate Travel 旅行分享官召集令】
广场家人们注意啦!Gate Travel 已经上线~ 机票+酒店一站式预订,还能用加密货币直接付款 💸
所以说,你的钱包和你的旅行梦终于可以谈恋爱了 😎 💕
现在广场开启 #GateTravel旅行分享官# 活动,邀你来秀旅行灵感 & 使用体验!💡
🌴 参与方式:
1️⃣ 在【广场】带话题 #Gate Travel 旅行分享官# 发帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小岛 or 网红打卡点都行)
讲讲用 Gate Travel 订票/订酒店的奇妙体验
放放省钱/使用攻略,让大家省到笑出声
或者直接写一篇轻松的 Gate Travel 旅行小故事
📦 奖励安排,走起:
🏆 优秀分享官(1 名):Gate 旅行露营套装
🎖️ 热门分享官(3 名):Gate 旅行速干套装
🎉 幸运参与奖(5 名):Gate 国际米兰旅行小夜灯
*海外用户 旅行露营套装 以 $100 合约体验券,旅行速干套装 以 $50 合约体验券折算,国际米兰旅行小夜灯以 $30合约体验券折算。
📌 优质内容将有机会得到官方账号转发翻牌提升社区曝光!
📌 帖文将综合互动量、内容丰富度和创意评分。禁止小号刷贴,原创分享更容易脱颖而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
长文本信息准确率超过 ChatGPT,Meta 提出降低大模型幻觉新方法
来源:量子位
大模型的幻觉问题,又有新的解决方法了!
Meta AI实验室提出了一种“分而治之”的解决方案。
有了这个方案,Llama-65B输出的信息准确率提升了一倍,甚至超过了ChatGPT。
Meta此次提出的“验证链”(CoVe),是与“思维链”(CoT)相似的一种链式方法。
区别在于,“step-by-step”的思维链更关注逻辑推理,而验证链更注重事实信息。
有网友看了之后发现,这个验证链很像是自己用ChatGPT写代码时的一种科学方法:
拆解答案,分而治之
验证链的核心思想,是把要验证的一大段内容,拆解成一个个小的问题,具体流程是这样的:
首先,模型会根据用户提出的问题照常生成回复。
接着,根据生成的回复内容,针对其中的各项信息,生成一系列的验证问题。
然后让模型自行回答其所提出的这些问题,并根据结果对初始答案进行调整,得到最终结果。
举个简单的例子,假如想询问模型19世纪美墨战争的主要原因是什么。
模型回答了事件发生的时间,以及在这之前都发生了什么事。
于是,模型发现自己提到的一项内容时间相差太远,调整后给出了最终的答案。
这四种模式越来越细化,准确率也是越来越高。
那么为什么拆分提问就能提高模型的准确性呢?
首先是因为拆解后的问题比整体任务更容易,论述题变成了问答甚至选择、判断题,问题简单了,准确率也就提升了。
此外,把问题分解可以让模型真正重新思考,而不是反复地重复错误答案。
那么,验证链方式的效果究竟如何呢?
信息准确率超过ChatGPT
为了探究这一问题,研究人员用Llama进行了测试,测试任务一共有三项。
首先是信息列举,比如列举出出生于某地、从事某行业的名人。
这项任务中,研究人员一共测试了两个数据集——简单一些的Wikidata和从难一些的Wiki-Category list(从维基百科中提取)。
接下来是“闭域问答”题,研究人员从MultiSpanQA数据集中抽取多个不连续信息进行挖空提问。
比如“谁在哪一年创建了世界上第一家出版社”(答案是Johannes Gutenberg, 1450)。
结果,Cove也为Llama带来了20%左右的准确度提升。
结果在Factor+Reviese模式下,准确率不仅比无验证链模式大幅提高,还超过了ChatGPT。
论文地址: