發(fā)布時間:2023-11-29 15:08:43 瀏覽量:123次
給AI加一層“護(hù)目鏡”
克雷西 發(fā)自 凹非寺
|
關(guān)于大模型注意力機(jī)制,Meta又有了一項新研究。
通過調(diào)整模型注意力,屏蔽無關(guān)信息的干擾,新的機(jī)制讓大模型準(zhǔn)確率進(jìn)一步提升。
而且這種機(jī)制不需要微調(diào)或訓(xùn)練,只靠Prompt就能讓大模型的準(zhǔn)確率上升27%。
作者把這種注意力機(jī)制命名為“System 2 Attention”(S2A),它來自于2002年諾貝爾經(jīng)濟(jì)學(xué)獎得主丹尼爾·卡尼曼的暢銷書《思考,快與慢》中提到的心理學(xué)概念——雙系統(tǒng)思維模式中的“系統(tǒng)2”。
所謂系統(tǒng)2是指復(fù)雜有意識的推理,與之相對的是系統(tǒng)1,即簡單無意識的直覺。
S2A通過提示詞對Transformer中的注意力機(jī)制進(jìn)行了“調(diào)節(jié)”,使模型整體上的思考方式更接近系統(tǒng)2。
有網(wǎng)友形容,這種機(jī)制像是給AI加了一層“護(hù)目鏡”。
此外,作者還在論文標(biāo)題中說,不只是大模型,這種思維模式或許人類自己也需要學(xué)習(xí)。
那么,這種方法具體是如何實現(xiàn)的呢?
傳統(tǒng)大模型常用的Transformer架構(gòu)中使用的是軟注意力機(jī)制——它給每個詞(token)都分配了0到1之間的注意力值。
與之相對應(yīng)的概念是硬注意力機(jī)制,它只關(guān)注輸入序列的某個或某些子集,更常用于圖像處理。
而S2A機(jī)制可以理解成兩種模式的結(jié)合——核心依然是軟注意力,但在其中加入了一個“硬”篩選的過程。
具體操作上,S2A不需要對模型本身做出調(diào)整,而是通過提示詞讓模型在解決問題前先把“不應(yīng)該注意的內(nèi)容”去除。
這樣一來,就可以降低大模型在處理帶有主觀色彩或不相關(guān)信息的提示詞時受到誤導(dǎo)的概率,從而提高模型的推理能力和實際應(yīng)用價值。
我們知道,大模型生成的答案很大程度上受到提示詞的影響,S2A也正式通過刪去其中可能造成干擾的信息來提高準(zhǔn)確率的。
舉個例子,假如我們問大模型這樣一個問題:
A市是X州的一座城市,周圍群山環(huán)繞,還有很多公園,這里人杰地靈,許多名人都出生于A市。
請問X州B市的市長Y出生在哪里?
此時GPT和Llama給出的答案都是問題中提到的A市,但實際上Y的出生地是C市。
本來直接問的時候,模型是可以準(zhǔn)確地答出C市的,但由于A市在提示詞中反復(fù)出現(xiàn),受到了模型的“關(guān)注”,給出的答案便也成了A。
另一種情況是,人們在提問時提出了“可能的答案”。
M樂隊中有沒有哪名歌手同時是一位演員,我認(rèn)為應(yīng)該是A,但我不確定。
結(jié)果大模型便開始奉承用戶,你說得對,就是A沒錯。但實際上這個人是B。
同樣的,如果直接問這個人是誰,模型就可以給出正確的答案。
也正是這一特點讓作者想到了新的S2A機(jī)制,并設(shè)計了一套提示詞對用戶輸入進(jìn)行提煉。
篩選前后的效果,我們來具體看下:
Q:Mary擁有糖果的數(shù)量是Megan的3倍。Mary又拿了10塊糖。Max擁有的書比Mary多1000本。如果Megan有5塊糖,Mary一共有幾塊?
A:Max的書比Mary多1000本,所以Max有1000+x+10塊糖,可以列方程:
1000+3x+10=3(5)+10
……
而經(jīng)過S2A處理后的問題變成了這樣:
Q:Mary擁有糖果的數(shù)量是Megan的3倍。Mary又拿了10塊糖。如果Megan有5塊糖,Mary一共有幾塊?
問題(這里是Prompt中直接寫了Question):Mary一共有幾塊糖?A:Megan有5塊,Mary有的是Megan的三倍也就是15塊,然后又拿了10塊,所以一共有25塊。
測試結(jié)果表明,相比于一般提問,S2A優(yōu)化后的準(zhǔn)確性和客觀性都明顯增強(qiáng),準(zhǔn)確率已與人工設(shè)計的精簡提示接近。
具體來說,S2A把Llama 2-70B在修改版TriviaQA數(shù)據(jù)集上62.8%的準(zhǔn)確度提高到了80.3%,提高了27.9%,客觀性也從2.23分(滿分5分)提高到了3.82,還超過了人工精簡的提示詞。
魯棒性方面,測試結(jié)果表明,無論“干擾信息”是正確或錯誤、正面或負(fù)面,S2A都能讓模型給出更加準(zhǔn)確客觀的答案。
進(jìn)一步的實驗結(jié)果顯示,S2A方法對干擾信息的刪除是必要的,因為單純告訴模型忽略無效信息并不能顯著提高(甚至還可能降低)準(zhǔn)確率。
從反面看,只要將原始的干擾信息隔離,對S2A的其它調(diào)整都不會顯著降低它的效果。
其實,通過注意力機(jī)制的調(diào)節(jié)改進(jìn)模型表現(xiàn)一直是學(xué)界的一項熱點話題。
比如前些時候推出的“最強(qiáng)7B開源模型”Mistral,就利用了新的分組查詢注意力模式。
谷歌的研究團(tuán)隊,也提出了HyperAttention注意力機(jī)制,解決的是長文本處理的復(fù)雜度問題。
……
而具體到Meta采用的“系統(tǒng)2”這種注意力模式,AI教父Bengio更是指出:
從系統(tǒng)1向系統(tǒng)2的過渡,是走向AGI的必經(jīng)之路。
論文地址:
https://arxiv.org/abs/2311.11829
熱門資訊
想將照片變成漫畫效果?這篇文章分享了4個方法,包括Photoshop、聰明靈犀、VanceAI Toongineer、醒圖,簡單操作就能實現(xiàn),快來嘗試一下吧!
2. 華為手機(jī)神奇“AI修圖”功能,一鍵消除衣服!原圖變身大V領(lǐng)深V!
最近華為手機(jī)Pura70推出的“AI修圖”功能引發(fā)熱議,通過簡單操作可以讓照片中的人物換裝。想了解更多這款神奇功能的使用方法嗎?點擊查看!
近年來,人工智能逐漸走入公眾視野,其中的AI圖像生成技術(shù)尤為引人注目。只需在特定軟件中輸入關(guān)鍵詞描述語以及上傳參考圖就能智能高效生成符合要求的...
4. AI視頻制作神器Viggle:讓靜態(tài)人物動起來,創(chuàng)意無限!
Viggle AI是一款免費制作視頻的AI工具,能讓靜態(tài)人物圖片動起來,快來了解Viggle AI的功能和優(yōu)勢吧!
5. Logo Diffusion——基于sd繪畫模型的AI LOGO 生成器
這下LOGO設(shè)計徹底不用求人了。接下來詳細(xì)演示一遍操作流程首先進(jìn)入Logo D... 想學(xué)習(xí)更多AI技能,比如說關(guān)于怎么樣利用AI來提高生產(chǎn)效率、還能做什么AI...
6. 零基礎(chǔ)10分鐘生成漫畫,教大家如何用AI生成自己的漫畫
接下來,我將親自引導(dǎo)你,使用AI工具,創(chuàng)作一本既有趣又能帶來盈利的漫畫。我們將一起探索如何利用這個工具,發(fā)揮你的創(chuàng)意,制作出令人驚嘆的漫畫作品。讓...
7. AI顯卡繪畫排行榜:4090無懸念,最具性價比出人意料
在AI繪圖領(lǐng)域,Stable Diffusion的顯卡繪圖性能備受關(guān)注。本文整理了Stable Diffusion顯卡的硬件要求和性能表現(xiàn),以及2023年3月顯卡AI繪圖效率排行榜和性價比排行榜。歡迎查看最新的AI顯卡算力排行榜。
8. 趕緊收藏好!這4個完全免費的AI視頻制作網(wǎng)站和工具
以下是一些免費的AI視頻制作網(wǎng)站或工具,幫助您制作各種類型的視頻。 1. Lumen5:Lumen5是一個基于AI的視頻制作工具,可將文本轉(zhuǎn)換為視頻。 用戶可以使...
就能快速生成一幅極具藝術(shù)效果的作品,讓現(xiàn)實中不懂繪畫的人也能參與其中創(chuàng)作!真的超贊噠~趣趣分享幾款超厲害的AI繪畫軟件,提供詳細(xì)操作!有需要的快來...
10. 10個建筑AI工具,從設(shè)計到施工全覆蓋!肯定有你從來沒聽過的
講述了建筑業(yè)比較著名的AI公司小庫科技做出的探索,在這兒就不多說了。今天,我們試著在規(guī)劃設(shè)計、建筑方案設(shè)計、住宅設(shè)計、管道設(shè)計、出渲染圖、3D掃...
最新文章
同學(xué)您好!