激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

AI繪畫原理分析與創(chuàng)新應(yīng)用技術(shù)介紹

發(fā)布時(shí)間:2024-08-06 13:02:50 瀏覽量:167次

相比于之前談到的ChatGPT,AI繪畫個(gè)人感覺原理相對(duì)難以理解一些。ChatGPT或者常規(guī)的GPT模型來說,是輸入一段文字,輸出后面的文字。而AI繪畫當(dāng)前主流的狀態(tài)為,輸入一段文字,輸出一個(gè)圖像

AI繪畫的原理

對(duì)于AI的生成模型來說,ChatGPT的原理是自回歸,而AI繪畫當(dāng)前的原理是穩(wěn)定擴(kuò)散。我打算先從比較好理解的自回歸來說起。

不得不說,自從接觸了穩(wěn)定擴(kuò)散,自回歸這種模型,已經(jīng)成為比較好理解的模型了,畢竟十分貼近于傳統(tǒng)理論。

對(duì)于一個(gè)時(shí)間序列來說,假設(shè)我們有一個(gè)模型,可以僅從前面一段時(shí)間的狀態(tài),預(yù)測(cè)下一個(gè)時(shí)刻的狀態(tài),則可以稱作這個(gè)模型為自回歸模型。

ChatGPT在最原本的時(shí)候,就是一個(gè)單純的自回歸模型,輸入一段文字,輸出下一個(gè)字應(yīng)該是什么,或者最大概率是什么。當(dāng)然,對(duì)于模型來說,會(huì)通過采樣的方式保持一定的隨機(jī)性,而不是每次都選取概率最大的結(jié)果,這也是問兩次一樣的問題,會(huì)得出不同的答案的原因。

這個(gè)時(shí)候,很容易讓人聯(lián)想到股票市場(chǎng)的模型,輸入一段時(shí)間的股票價(jià)格,輸出下一個(gè)時(shí)刻的股票價(jià)格。很遺憾,這個(gè)想法比較美好,很遺憾,現(xiàn)實(shí)是股票價(jià)格并沒有像人類語言一樣確定性這么高,歷史數(shù)據(jù)往往帶來過擬合,單純價(jià)格的歷史也并不能代表未來。

那么,這種模型在股票市場(chǎng)不適用,是否可以用于繪畫呢?答案是可以

從鏈接中可以看到,使用GPT模型,是可以生成一段圖像的。對(duì)于模型來說,語言和圖像并沒有本質(zhì)的不同,相比于聊天機(jī)器人,圖像的生成將輸入的文字轉(zhuǎn)變?yōu)檩斎雸D像的像素點(diǎn),模型同樣是輸出接下來概率最大的輸出是什么。比如對(duì)于圖像來說,就是給定一定的RBG狀態(tài),輸出接下來是什么。比如:

具體的可以參考Open AI的官網(wǎng)
https://openai.com/blog/image-gpt/

自回歸這種模型,看起來就更適合用于語言模型,或者音頻模型,畢竟在真實(shí)世界里面,模型處理的數(shù)據(jù)就是有時(shí)序的。而對(duì)于圖像來說,上下之間的時(shí)序關(guān)系往往沒有那么明顯。所以現(xiàn)在主流的AI繪畫,并沒有使用類似ChatGPT的自回歸模型,而是更普通一點(diǎn)的神經(jīng)網(wǎng)絡(luò)。但最近AI繪畫能力大幅提升的原因,主要來自于訓(xùn)練的方法。

生成對(duì)抗網(wǎng)絡(luò) vs 穩(wěn)定擴(kuò)散

對(duì)于訓(xùn)練過程,每一次訓(xùn)練的任務(wù),都有唯一的答案。但對(duì)于生成模型來說,答案可能不是唯一的,就是一般認(rèn)為的拿到一部分資料,生成的輸出言之成理即可。比如對(duì)于上面GPT生成的圖片,一些不像原圖的答案,也是合理的答案。那么,模型如此對(duì)待自己產(chǎn)生的各種答案呢?接下來講兩種方法。

第一種方法是相當(dāng)于是學(xué)生答完題,老師來判卷?!蓪?duì)抗網(wǎng)絡(luò)

第二種方法是學(xué)生在答題過程中,老師實(shí)時(shí)引導(dǎo)學(xué)生往正確答案方向。——穩(wěn)定擴(kuò)散

生成對(duì)抗網(wǎng)絡(luò)

在過去,生成對(duì)抗網(wǎng)絡(luò)應(yīng)對(duì)輸出不唯一的情形是非常主流的方法。主要的思路是,在訓(xùn)練一個(gè)生成網(wǎng)絡(luò)來產(chǎn)生答案的同時(shí),訓(xùn)練一個(gè)與其對(duì)抗的判別網(wǎng)絡(luò)來判別答案是不是真的。比如,在AI繪畫領(lǐng)域,判別網(wǎng)絡(luò)的任務(wù)就是判斷這幅畫是不是AI生成的,在語音合成領(lǐng)域,就是判斷合成的語音是不是真人的語音。在一段時(shí)間內(nèi),生成對(duì)抗網(wǎng)絡(luò)取得了很多優(yōu)秀的成果,包括現(xiàn)在我們感受到的很多電話機(jī)器人的聲音,都是生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練結(jié)果。

對(duì)抗網(wǎng)絡(luò)一般只判別生成的結(jié)果是否真實(shí),對(duì)于具體生成的內(nèi)容是否正確,則可以由具體內(nèi)容進(jìn)行判斷。比如生成一只貓的圖片,對(duì)抗網(wǎng)絡(luò)只管它是否是真實(shí)的圖片,對(duì)于它是否是一只貓,則由其他的判據(jù)來告訴模型。這就導(dǎo)致了一個(gè)問題,生成對(duì)抗網(wǎng)絡(luò)在生成圖片的時(shí)候,比較單一,生成模型總是傾向于輸出容易“糊弄”判別模型的結(jié)果。

在改進(jìn)了這一缺點(diǎn)之后,基于穩(wěn)定擴(kuò)散的AI繪畫生成模型成為了當(dāng)下的主流。

穩(wěn)定擴(kuò)散

基于統(tǒng)計(jì)模型的深度學(xué)習(xí)理論,從深度學(xué)習(xí)創(chuàng)始之初,就比較難理解。如果你已經(jīng)理解了生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練方式,可以想象穩(wěn)定擴(kuò)散把生成對(duì)抗網(wǎng)絡(luò)的判別器,以統(tǒng)計(jì)的方式消融到生成器訓(xùn)練的每一階段。

在穩(wěn)定擴(kuò)散的過程中,假設(shè)原圖處理有encoder-decoder兩個(gè)過程,在encoder過程中,每一步在圖像上加上白噪聲,最終,圖像就是白噪聲。在decoder過程中,假設(shè)每一步消除一點(diǎn)白噪聲,最終圖像恢復(fù)成原有的樣子。在推理的過程中,模型只需要輸入一段白噪聲,就能生成一張圖片。這時(shí),生成的圖片未必有什么意義,但模型保證的是這個(gè)圖片看起來比較合理。

最終使用時(shí),給模型輸入白噪聲的同時(shí),還會(huì)需要輸入一段文字。這時(shí),模型會(huì)在輸出一個(gè)合理圖片的同時(shí)使得這個(gè)圖片符合這段輸入文字的描述,也就是我們現(xiàn)在所謂吟唱的過程。

實(shí)際應(yīng)用

具體操作方式可以參考下一發(fā)布,這次先粘貼幾個(gè)普通應(yīng)用,輸入一些文字,輸出一些繪畫結(jié)果。

熱門課程推薦

熱門資訊

請(qǐng)綁定手機(jī)號(hào)

x

同學(xué)您好!

您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
確定