發(fā)布時間:2023-11-28 14:54:55 瀏覽量:100次
“全家桶”級開源,毫無保留
金磊 發(fā)自 凹非寺
|
開源界最強的中英雙語大模型,悟道·天鷹 34B,來了!
有多強?一言蔽之:
中英綜合能力、邏輯推理能力等,全面超越 Llama2-70B和此前所有開源模型!
推理能力方面對話模型IRD評測基準僅次于 GPT4。
不僅模型夠大夠能打,而且還一口氣送上整套“全家桶”級豪華周邊。
能有如此大手筆的,正是中國大模型開源派先鋒——智源研究院。
而若是縱觀智源在數(shù)年來的大模型開源之道,不難發(fā)現(xiàn)它正在引領(lǐng)著一種新風向:
早在2021年就把全球最大語料庫公開,2022年最早前瞻布局FlagOpen大模型技術(shù)開源體系,連續(xù)推出了FlagEval評測體系、COIG數(shù)據(jù)集、BGE向量模型等全技術(shù)棧明星項目。
這一魄力正是來自智源非商業(yè)、非營利的中立研究機構(gòu)定位,主打的就是一個“誠心誠意開源共創(chuàng)”。
據(jù)了解,Aquila2-34B 基座模型在22個評測基準的綜合排名領(lǐng)先,包括語言、理解、推理、代碼、考試等多個評測維度 。
一張圖來感受一下這個feel:
正如剛才提到的,北京智源人工智能研究院還非常良心地將開源貫徹到底,一口氣帶來開源全家桶:
接下來,我們繼續(xù)深入了解一下這次的“最強開源”。
正如我們剛才提到的Aquila2-34B,它是此次以“最強開源”姿勢打開的基座模型之一,還包括一個較小體量的Aquila2-7B。
而它倆的到來,也讓下游的模型收益頗豐。
最強開源對話模型
在經(jīng)指令微調(diào)得到了優(yōu)秀的的AquilaChat2對話模型系列:
評測說明:
對于生成式對話模型,智源團隊認為需要嚴格按照“模型在問題輸入下自由生成的答案”進行評判,這種方式貼近用戶真實使用場景,因此參考斯坦福大學HELM[1]工作進行評測,該評測對于模型的上下文學習和指令跟隨能力要求更為嚴格。實際評測過程中,部分對話模型回答不符合指令要求,可能會出現(xiàn)“0”分的情況。
例如:根據(jù)指令要求,正確答案為“A”,如果模型生成為“B”或“答案是 A ”,都會被判為“0”分。
同時,業(yè)內(nèi)也有其他評測方式,比如讓對話模型先拼接“問題+答案”,模型計算各個拼接文本的概率后,驗證概率最高的答案與正確答案是否一致,評測過程中對話模型不會生成任何內(nèi)容而是計算選項概率。這種評測方式與真實對話場景偏差較大,因此在生成式對話模型評測中沒有采納。
[1] https://crfm.stanford.edu/helm/latest/
不僅如此,在對于大語言模型來說非常關(guān)鍵的推理能力上,AquilaChat2-34B的表現(xiàn)也非常的驚艷——
在IRD評測基準中排名第一,超越 Llama2-70B、GPT3.5等模型,僅次于 GPT4。
從種種成績上來看,無論是基座模型亦或是對話模型,Aquila2系列均稱得上是開源界最強了。
上下文窗口長度至16K
對于大語言模型來說,能否應對長文本輸入,并且在多輪對話過程中保持上下文的流暢度,是決定其體驗好壞的關(guān)鍵。
為了解決這一“苦大模型久矣”的問題,北京智源人工智能研究院便在20萬條優(yōu)質(zhì)長文本對話數(shù)據(jù)集上做了SFT,一舉將模型的有效上下文窗口長度擴展至16K。
而且不僅僅是長度上的提升,效果上更是得到了優(yōu)化。
例如在LongBench的四項中英文長文本問答、長文本總結(jié)任務的評測效果上,就非常的明顯了——
AquilaChat2-34B-16K處于開源長文本模型的領(lǐng)先水平,接近GPT-3.5長文本模型。
除此之外,智源團隊對多個語言模型處理超長文本的注意力分布做了可視化分析,發(fā)現(xiàn)所有的語言模型均存在固定的相對位置瓶頸,顯著小于上下文窗口長度。
為此,智源團隊創(chuàng)新提出NLPE(Non-Linearized Position Embedding,非線性位置編碼)方法,在 RoPE 方法的基礎(chǔ)上,通過調(diào)整相對位置編碼、約束最大相對長度來提升模型外延能力。
在代碼、中英文Few-Shot Leaning、電子書等多個領(lǐng)域上的文本續(xù)寫實驗顯示,NLPE可以將4K的Aquila2-34B模型外延到32K長度,且續(xù)寫文本的連貫性遠好于Dynamic-NTK、位置插值等方法。
不僅如此,在長度為5K~15K的HotpotQA、2WikiMultihopQA等數(shù)據(jù)集上的指令跟隨能力測試顯示,經(jīng)過 NLPE 外延的 AquilaChat2-7B(2K)準確率為 17.2%,而 Dynamic-NTK 外延的 AquilaChat2-7B 準確率僅為 0.4%。
“成績”好,只是檢驗大模型的標準之一,更重要的是“好用才是硬道理”。
這也就是大模型的泛化能力了,即使遇到?jīng)]有見過的問題,也能輕松應對。
為此,悟道·天鷹團隊通過三個真實應用場景驗證了Aquila2模型的泛化能力。
《我的世界》里打造強大智能體
《我的世界》這款游戲可以說是AI界檢驗技術(shù)的很好的試煉場。
它具有無限生成的復雜世界和大量開放的任務,為智能體提供了豐富的交互接口。
智源研究院與北京大學團隊便基于此,提出了在無專家數(shù)據(jù)的情況下高效解決 Minecraft 多任務的方法—— Plan4MC。
Plan4MC可以使用內(nèi)在獎勵的強化學習訓練智能體的基本技能,使得智能體可以利用大語言模型AquilaChat2的推理能力進行任務規(guī)劃。
例如在下面的這段視頻中,便展示了智能體利用AquilaChat2進行自動完成多輪對話交互的效果。
將游戲“當前環(huán)境狀態(tài)”、“需要完成的任務”等信息輸入AquilaChat2模型,AquilaChat2 反饋給角色“下一步使用什么技能”等決策信息,最終完成了在《我的世界》中設定的任務“伐木并制作工作臺放在附近”的任務。
向量數(shù)據(jù)庫近年來在大模型圈里成為了香餑餑,但在面對復雜、需要深度理解問題時,能力上還是略顯捉襟見肘。
為此,智源研究院便將Aqiula2和自研的開源語義向量模型BGE2做了結(jié)合,徹底解鎖了一些僅基于傳統(tǒng)向量庫的檢索方法不能解決的復雜檢索任務。
例如在下面的這個例子中,我們可以明顯看到,在處理“檢索某個作者關(guān)于某個主題的論文”、“針對一個主題的多篇論文的生成總結(jié)文本”這樣的任務,會變得非常絲滑。
最優(yōu)“文本-SQL語言”生成模型
很多用戶在處理數(shù)據(jù)庫查詢等任務時,對于SQL語言可謂是頭疼不已。
若是能用我們常用的大白話來進行操作,豈不美哉?
現(xiàn)在,這種便捷的方式已經(jīng)可以實現(xiàn)了——AquilaSQL。
在實際應用場景中,用戶還可以基于AquilaSQL進行二次開發(fā),將其嫁接至本地知識庫、生成本地查詢 SQL,或進一步提升模型的數(shù)據(jù)分析性能,讓模型不僅返回查詢結(jié)果,更能進一步生成分析結(jié)論、圖表等。
例如在處理下面這個復雜查詢?nèi)蝿諘r,現(xiàn)在只需要說一句自然語言即可:
從包含汽車銷量(car_sales)、汽車顏色(car_color)的兩個數(shù)據(jù)表中篩選銷量大于100并且顏色為紅色的汽車。
而且AquilaSQL的“成績”同樣非常亮眼。
在經(jīng)過SQL語料的繼續(xù)預訓練和SFT 兩階段訓練,最終以67.3%準確率超過“文本-SQL語言生成模型”排行榜 Cspider 上的SOTA模型。
而未經(jīng)過SQL語料微調(diào)的 GPT4模型準確率僅為 30.8%。
正如我們前文提到的,智源研究院對開源這事向來主打的就是徹徹底底。
這一次在大模型升級之際,智源研究院同樣是毫無保留地把一系列包括算法、數(shù)據(jù)、工具、評測方面的明星項目都開源了出來。
據(jù)了解,Aquila2系列模型不僅全面采用商用許可協(xié)議,允許公眾廣泛應用于學術(shù)研究和商業(yè)應用。
接下來,我們便來速覽一下這些開源全家桶。
高效并行訓練框架FlagScale
FlagScale 是 Aquila2-34B 使用的高效并行訓練框架,可以提供一站式語言大模型的訓練功能。
智源團隊將 Aquila2 模型的訓練配置、優(yōu)化方案和超參數(shù)通過 FlagScale 項目分享給大模型開發(fā)者,在國內(nèi)首次完整開源訓練代碼和超參數(shù)。
FlagScale 基于 Megatron-LM 擴展而來,提供了一系列功能增強,包括分布式優(yōu)化器狀態(tài)重切分、精確定位訓練問題數(shù)據(jù)以及參數(shù)到Huggingface轉(zhuǎn)換等。
經(jīng)過實測,Aquila2 訓練吞吐量和 GPU 利用率均達到業(yè)界領(lǐng)先水平。
據(jù)了解,F(xiàn)lagScale在未來還將繼續(xù)保持與上游項目 Megatron-LM 最新代碼同步,引入更多定制功能,融合最新的分布式訓練與推理技術(shù)以及主流大模型、支持異構(gòu)AI硬件,力圖構(gòu)建一個通用、便捷、高效的分布式大模型訓練推理框架,滿足不同規(guī)模和需求的模型訓練任務。
FlagAttention高性能Attention開源算子集
FlagAttention 是首個支持長文本大模型訓練、使用 Triton語言開發(fā)的高性能Attention開源算子集,針對大模型訓練的需求,對 Flash Attention 系列的 Memory Efficient Attention 算子進行擴展。
目前已實現(xiàn)分段式 Attention 算子——PiecewiseAttention。
PiecewiseAttention主要解決了帶旋轉(zhuǎn)位置編碼 Transformer 模型(Roformer)的外推問題,它所具備的特點可以總結(jié)為:
通用性:對使用分段式計算 Attention 的模型具有通用性,可以輕松遷移至 Aquila 之外的大語言模型。
易用性:FlagAttention 基于 Triton 語言實現(xiàn)并提供 PyTorch 接口,構(gòu)建和安裝過程相比 CUDA C 開發(fā)的 Flash Attention 更加便捷。
擴展性:同樣得益于 Triton 語言,F(xiàn)lagAttention 算法本身的修改和擴展門檻較低,開發(fā)者可便捷地在此之上拓展更多新功能。
未來,F(xiàn)lagAttention項目將繼續(xù)針對大模型研究需求,支持其他功能擴展的 Attention 算子,進一步優(yōu)化算子性能,并適配更多異構(gòu)AI硬件。
BGE2 新一代語義向量模型
新一代BGE語義向量模型,也將隨 Aquila2 同步開源。
BGE2 中的 BGE – LLM Embedder 模型集成了“知識檢索”、“記憶檢索”、“示例檢索”、“工具檢索”四大能力。
它首次實現(xiàn)了單一語義向量模型對大語言模型主要檢索訴求的全面覆蓋。
結(jié)合具體的使用場景,BGE – LLM Embedder將顯著提升大語言模型在處理知識密集型任務、長期記憶、指令跟隨、工具使用等重要領(lǐng)域的表現(xiàn)。
……
那么對于如此徹底的“最強開源”,你心動了嗎?
智源研究院會在10月28日至29日舉辦新一期大模型前沿技術(shù)講習班,9位主力研究員會詳細介紹 FlagOpen 的近期進展和落地實踐。
感興趣的小伙伴也可以碼住了。
Aquila2 模型全系開源地址:
https://github.com/FlagAI-Open/Aquila2
https://model.baai.ac.cn/
https://huggingface.co/BAAI
AquilaSQL 開源倉庫地址:
https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila/Aquila-sql
FlagAttention 開源代碼倉庫:
https://github.com/FlagOpen/FlagAttention
BGE2 開源地址
paper: https://arxiv.org/pdf/2310.07554.pdf
model: https://huggingface.co/BAAI/llm-embedder
repo: https://github.com/FlagOpen/FlagEmbedding/tree/master/FlagEmbedding/llm_embedder
_________________________
LLAMA2吞吐量估算公式:total tokens / (total GPU hours * 3600) ,根據(jù)Llama 2: Open Foundation and Fine-Tuned Chat Models論文:1)7B的total tokens為2.0 T, total GPU hours 為184320,代入公式得3014 Tokens/sec/GPU;2)34B的total tokens為2.0 T, total GPU hours 為1038336,代入公式得535 Tokens/sec/GPU。
熱門資訊
想將照片變成漫畫效果?這篇文章分享了4個方法,包括Photoshop、聰明靈犀、VanceAI Toongineer、醒圖,簡單操作就能實現(xiàn),快來嘗試一下吧!
2. 華為手機神奇“AI修圖”功能,一鍵消除衣服!原圖變身大V領(lǐng)深V!
最近華為手機Pura70推出的“AI修圖”功能引發(fā)熱議,通過簡單操作可以讓照片中的人物換裝。想了解更多這款神奇功能的使用方法嗎?點擊查看!
近年來,人工智能逐漸走入公眾視野,其中的AI圖像生成技術(shù)尤為引人注目。只需在特定軟件中輸入關(guān)鍵詞描述語以及上傳參考圖就能智能高效生成符合要求的...
4. AI視頻制作神器Viggle:讓靜態(tài)人物動起來,創(chuàng)意無限!
Viggle AI是一款免費制作視頻的AI工具,能讓靜態(tài)人物圖片動起來,快來了解Viggle AI的功能和優(yōu)勢吧!
5. Logo Diffusion——基于sd繪畫模型的AI LOGO 生成器
這下LOGO設計徹底不用求人了。接下來詳細演示一遍操作流程首先進入Logo D... 想學習更多AI技能,比如說關(guān)于怎么樣利用AI來提高生產(chǎn)效率、還能做什么AI...
6. 零基礎(chǔ)10分鐘生成漫畫,教大家如何用AI生成自己的漫畫
接下來,我將親自引導你,使用AI工具,創(chuàng)作一本既有趣又能帶來盈利的漫畫。我們將一起探索如何利用這個工具,發(fā)揮你的創(chuàng)意,制作出令人驚嘆的漫畫作品。讓...
7. 趕緊收藏好!這4個完全免費的AI視頻制作網(wǎng)站和工具
以下是一些免費的AI視頻制作網(wǎng)站或工具,幫助您制作各種類型的視頻。 1. Lumen5:Lumen5是一個基于AI的視頻制作工具,可將文本轉(zhuǎn)換為視頻。 用戶可以使...
8. AI顯卡繪畫排行榜:4090無懸念,最具性價比出人意料
在AI繪圖領(lǐng)域,Stable Diffusion的顯卡繪圖性能備受關(guān)注。本文整理了Stable Diffusion顯卡的硬件要求和性能表現(xiàn),以及2023年3月顯卡AI繪圖效率排行榜和性價比排行榜。歡迎查看最新的AI顯卡算力排行榜。
9. 一款免費無限制的AI視頻生成工具火了!國內(nèi)無障礙訪問!附教程
人人都可以動手制作AI視頻! 打開網(wǎng)址https://pixverse.ai/,用郵箱注冊后,點擊右上角Create,就可以開始創(chuàng)作了。 PixVerse目前有文案生成視頻,和圖片生...
就能快速生成一幅極具藝術(shù)效果的作品,讓現(xiàn)實中不懂繪畫的人也能參與其中創(chuàng)作!真的超贊噠~趣趣分享幾款超厲害的AI繪畫軟件,提供詳細操作!有需要的快來...
同學您好!