激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

發(fā)布時間:2023-11-28 14:55:23 瀏覽量:129次

性能已達到GPT-4V的85%

克雷西 發(fā)自 凹非寺

|  

GPT-4的視覺能力還沒全量放開測試,開源對手就隆重登場了。

浙大竺院的一位校友,與微軟研究院等機構(gòu)合作推出了新版多模態(tài)模型LLaVA。

LLaVA在11個測試數(shù)據(jù)集上都成為了SOTA,在GitHub上更是斬獲6k+星標。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

開發(fā)者提供的數(shù)據(jù)顯示,LLaVA的綜合能力已經(jīng)達到了GPT-4V水平的85%,在復(fù)雜推理任務(wù)上更是超過了96%。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

讀驗證碼、判斷狗的品種,甚至根據(jù)圖像生成網(wǎng)頁代碼……都難不倒LLaVA。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

△/Matt Shumer

資源方面,LLaVA的樣本量僅為120萬,在單臺8*A100的機器上,1天就能完成訓(xùn)練。

不過體驗過的網(wǎng)友普遍表示,LLaVA離GPT-4V還存在一些差距。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

那么LLaVA究竟表現(xiàn)如何,我們也實測了一番。

和GPT-4V有差距,但也能用

為了更加直觀地對比LLaVA和GPT-4V的表現(xiàn),我們直接使用了微軟發(fā)布的GPT-4V說明書中的案例。

首先來看最基本的人物識別。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

這里GPT-4V說明書中使用的prompt是描述這張圖,我們也如法炮制。

結(jié)果LLaVA不僅一個名字也沒提,還把人數(shù)也數(shù)錯了,但也判斷出了這里面有足球運動員、演員和歌星。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

于是我們繼續(xù)追問LLaVA這些人的名字,結(jié)果它告訴我們信息量不足以判斷。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

這輪GPT-4V略勝一籌,不過或許是因為一下八個人太多了,于是我們又給LLaVA加試了一道簡單些的題。

這次經(jīng)過一輪追問,LLaVA成功認出了圖片中的老馬和小扎,所以這輪我們算它過關(guān)。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

那如果是專業(yè)的圖像呢?比如醫(yī)學(xué)影像。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

GPT-4V的答案是肺部感染或炎癥,而LLaVA說的是吸煙或慢阻肺引發(fā)的凋亡細胞和瘢痕組織。

不過兩個模型都沒有確定自己的結(jié)論,都提示需要進一步檢查,不過LLaVA給出的“黑色部分組織有異常”是正確的。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

除了這些真·圖像之外,文字識別也是多模態(tài)模型測試中的一項常見任務(wù)。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

這張圖中,LLaVA成功識別了里面的英文,但下面的日文片假名無論如何也認不出來。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

除了上面這些正經(jīng)的內(nèi)容,LLaVA能不能解讀表情包呢?

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

這次,LLaVA正確識別了圖中的青蛙玩具和文字,而對表情包的解釋,對了一半。

這個表情包諷刺的是有一群人發(fā)現(xiàn)自己錯過了計劃時間之后反而把預(yù)定事項推得更遲,LLaVA只說出了前面一半。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

總結(jié)下來就是,GPT-4V的識別技能,LLaVA基本上也都會,但又都差點意思。

換言之就是,雖然沒那么厲害,但也是能用的水平了。

那么,LLaVA是如何打造出來的呢?

由Vicuna和CLIP結(jié)合而成

LLaVA的訓(xùn)練一共分為兩個階段。

首先是將文本與圖像對齊的預(yù)訓(xùn)練過程,這一階段一共使用了60萬對圖像-文本信息。

第二階段則是在對齊的基礎(chǔ)上使用視覺指令進行調(diào)優(yōu),讓LLaVA熟悉用戶可能問到的各種問題。

模型結(jié)構(gòu)方面,LLaVA的語言模型是羊駝家族的Vicuna,視覺模型則采用了OpenAI的CLIP,并以MLP作為模態(tài)連接器。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

為了讓LLaVA能夠識別更多專業(yè)領(lǐng)域的內(nèi)容,研究團隊在開發(fā)過程中還使用了ScienceQA數(shù)據(jù)集。

開發(fā)過程完畢之后,研究團隊使用GPT-4對LLaVA的輸出內(nèi)容進行評價。

利用COCO數(shù)據(jù)集中的內(nèi)容,開發(fā)者設(shè)計了三種類型的問題,然后讓LLaVA輸出答案并交給GPT-4評分。

  • 問答式對話:將COCO數(shù)據(jù)集中的問題改編成問句進行提問
  • 細節(jié)描述:要求LLaVA對圖像內(nèi)容提供更詳細具體的說明
  • 復(fù)雜推理:要求LLaVA在理解的基礎(chǔ)上推理出圖像中沒有直接顯含的信息(如:人物關(guān)系)

目前,LLaVA的代碼、模型和訓(xùn)練數(shù)據(jù)都已經(jīng)開源,有7B和13B兩個參數(shù)量的模型,均為全量微調(diào),LoRA版本也將很快發(fā)布。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標

作者簡介

LLaVA相關(guān)論文的第一作者是威斯康星大學(xué)麥迪遜分校的華人博士生Haotian Liu。

他還是一名浙大竺院校友,期間師從計算機學(xué)院金小剛教授和吳飛教授。

他的現(xiàn)任導(dǎo)師Yong Jae Lee則是相關(guān)論文的通訊作者。

此外,來自微軟研究院和哥倫比亞大學(xué)的學(xué)者也有參與LLaVA的相關(guān)工作。

項目主頁(內(nèi)含DEMO及GitHub、HuggingFace鏈接):
https://llava-vl.github.io/

論文地址:
[1]https://arxiv.org/abs/2304.08485
[2]https://arxiv.org/abs/2310.03744

— 完 —

QbitAI · 頭條號簽約

關(guān)注我們,第一時間獲知前沿科技動態(tài)

熱門課程推薦

熱門資訊

請綁定手機號

x

同學(xué)您好!

您已成功報名0元試學(xué)活動,老師會在第一時間與您取得聯(lián)系,請保持電話暢通!
確定