激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

BigDL 教程:使用 Stable Diffusion 從文本生成你自己的圖像

發(fā)布時間:2024-04-03 17:33:08 瀏覽量:237次

作者 | Ezequiel Lanza、Ruonan Wang

譯者 | 劉志勇

策劃 | Tina

本文最初發(fā)表于 Medium 博客,經(jīng)原作者授權,InfoQ 翻譯并分享。


導讀:本文介紹了如何使用 Stable Diffusion 模型從文本生成圖像。作者詳細介紹了該模型的架構概述以及學習過程,并指出該模型需要大量計算,但可以使用英特爾提供的優(yōu)化技術縮短運行時間。同時,文章還提供了文本到圖像的實現(xiàn)步驟,并鼓勵讀者在 GitHub 上跟隨實現(xiàn)。


如果說每種技術都有其季節(jié),那么人工智能已經(jīng)迎來了“夏天”。人工智能的一系列進步引領了該學科目前的繁榮,并帶來了對未來的巨大期望。


計算機視覺就是一個典型例子。盡管對計算資源的需求很高,但在圖像生成(Huang 等,2018)領域已經(jīng)取得了巨大的進展。圖像生成始于生成式對抗網(wǎng)絡(Generative Adversarial Network,GAN)范式,然后逐步發(fā)展到如今的擴散模型。這種進化為數(shù)據(jù)科學家提供了易于訓練、快速收斂并能可靠生成高質量圖像的模型。


這種技術在人工智能內容生成(generative AI,AIGC)中發(fā)揮著重要作用,它能夠生成各種數(shù)據(jù),包括音頻、代碼、圖像、文本、模擬、3D 對象、視頻等等。它通過訓練算法來基于以前的訓練數(shù)據(jù)生成新的信息。AIGC 有許多用途包括文本生成(如 GPT,Bidirectional Encoder Representations from Transformer(BERT)或最近的 ChatGPT)、音頻生成、文本到圖像的創(chuàng)建(DALL-E 或 Stable Diffusion)等。


在本文中,我們將展示如何借助 BigDL( BigDL Nano 中的優(yōu)化)在 Intel 筆記本電腦上運行優(yōu)化后的 Stable Diffusion 模型,從而實現(xiàn)文本到圖像的生成。


使用 Stable Diffusion 的兩種方法


使用 Stable Diffusion 生成圖像有兩種方式:無條件和有條件。


無條件圖像生成:可以從噪聲種生成新的圖像而不需要任何條件(例如提示文本或其他圖像)。模型在訓練之后可以生成新的隨機圖片。相關詳細信息,請查看此使用蝴蝶圖像訓練模型的示例。


訓練集




生成的圖像


有條件圖像生成:該模型可以根據(jù)輸入條件生成新的圖像,而有條件圖像生成的具體應用包括文本到圖像、圖像到圖像、語義、修補和補全等。讓我們來詳細看一下:


  • 文本到圖像(txt2img):基于輸入文本生成圖像。輸入:文本-> 輸出:圖像


以下是一個輸入文本的示例:一只戴眼鏡的狗。



  • 圖像到圖像:該模型基于低分辨率圖像生成高分辨率圖像。下面展示了一種上采樣擴散模型的實現(xiàn)。輸入:圖像->輸出:圖像。


分享

熱門課程推薦

熱門資訊

請綁定手機號

x

同學您好!

您已成功報名0元試學活動,老師會在第一時間與您取得聯(lián)系,請保持電話暢通!
確定