激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

發(fā)布時間:2023-11-17 16:45:53 瀏覽量:105次

推理階段只需4步

克雷西 發(fā)自 凹非寺

|  

AI圖像生成,已經(jīng)進入了秒速級別,只要4步推理就能完成繪制,最快更是能在1秒之內完成。

現(xiàn)在,清華大學聯(lián)合HuggingFace的研究人員,推出了全新的繪圖模型加速模塊。

作者給出的體驗版當中,點擊生成按鈕后,模型只用了幾秒鐘就繪制出了4張清晰的圖像。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

這個加速模塊叫做LCM-LoRA,發(fā)布后不久就斬獲了2k+次GitHub星標。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

它不僅加速能力強、泛化性能好,適配的模型也很廣泛,SD系和LoRA模型都能用它來加速。

團隊基于LCM-LoRA自行優(yōu)化的文生圖模型已在HuggingFace上開放體驗,圖生圖模型也推出了CoLab等版本。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

AI繪圖工具迅速接入

LCM-LoRA開源后不久,就有AI繪圖工具廠商Scenario宣布將基于它推出“實時繪圖”功能。

Scenario的CEO還在上親自展示了即將上線的實時繪圖功能DEMO。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

只見一邊在繪制草圖,另一邊AI就把相應的畫作繪制好了,時間上幾乎同步。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

調整提示詞和有關參數(shù),模型響應得也是干脆利落。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

這些DEMO發(fā)布后,引發(fā)了眾人的一致贊嘆。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

那么,LCM-LoRA這個加速模塊到底有多強,又是怎樣實現(xiàn)的呢?

“跳步”降低內存開銷

LCM-LoRA將LoRA引入潛在一致性模型(LCM)的蒸餾過程,顯著減少了訓練內存開銷,從而提高性能。

而LCM是從潛擴散模型(LDM)中蒸餾出來的,“蒸餾”的過程也可以看做是對擴散模型的微調。

它的核心思想是在圖像的隱變量空間中學習一致性映射函數(shù),該函數(shù)可以直接將擴散過程中的任意點映射到終點,即微分方程的解。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

通過這種一致性映射,LCM可以跳過迭代采樣過程,直接進行少步甚至一步采樣,從而極大地加速了圖像的生成。

而隱變量空間操作相比基于像素空間的方法,計算復雜度和內存需求也更低。

結合LoRA后,只需要訓練低秩分解矩陣,可訓練參數(shù)量和內存開銷進一步減少,應用范圍也從單純的文生圖擴展到了圖生圖和視頻生成。

最直觀體現(xiàn)的就是我們看到的秒速出圖,而訓練時間上,LCM-LoRA優(yōu)化后的模型在A100上訓練只需32個GPU時。

訓練時間縮短的背后,也于訓練參數(shù)量大幅減少密切相關:

  • SD-V1.5全量參數(shù)為9.8億,使用LoRA后可訓練參數(shù)減少到6750萬,約減少了93.1%。
  • SSD-1B參數(shù)從13億減少到1.05億,約減少了91.9%。
  • SDXL參數(shù)從35億減少到1.97億,約減少了94.3%。
讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

不僅是訓練消耗的降低,推理過程中的步數(shù)也大幅減少,一般只需要4步推理就能繪制出質量不錯的圖像。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

有時甚至只要一步就能完成,用時還不到1秒,F(xiàn)ID分數(shù)(越低越好)在50以下。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

不僅加速性能優(yōu)異,LCM-LoRA的適配性也十分廣泛。

LCM-LoRA訓練得到的LoRA參數(shù)又稱為加速向量,可以數(shù)據(jù)集上微調得到的LoRA參數(shù)直接線性組合,不需要額外訓練。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

這種組合方式使得LCM-LoRA成為一個可直接插接到各種微調模型中的通用圖像生成加速模塊。

作者簡介

LCM和LCM-LoRA論文的兩位主要作者是來自清華大學交叉信息研究院的研究生駱思勉(Simian Luo)和譚亦欽(Yiqin Tan)。

清華叉院的黃隆波副教授、李建副教授和趙行助理教授也參與了這兩項研究。

在LCM-LoRA的工作中,來自HuggingFace的研究人員亦有貢獻。

讓Stable Diffusion秒出圖!清華碩士加速神器爆火,已有公司接入

論文地址:
[1]https://arxiv.org/abs/2310.04378
[2]https://arxiv.org/abs/2311.05556

開源項目頁:
https://github.com/luosiallen/latent-consistency-model

文生圖在線體驗(HuggingFace):
https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model

圖生圖Colab筆記:
https://colab.research.google.com/github/camenduru/latent-consistency-model-colab/blob/main/latent_consistency_model_webui_colab.ipynb

熱門課程推薦

熱門資訊

請綁定手機號

x

同學您好!

您已成功報名0元試學活動,老師會在第一時間與您取得聯(lián)系,請保持電話暢通!
確定