欧洲精品久久久av无码电影,日日噜噜夜夜爽爽,精品无码国产自产拍在线观看蜜,人妻少妇被粗大爽9797pw,羞国产在线拍揄自揄视频,国产白嫩漂亮美女在线观看,天码欧美日本一道免费,av大片在线无码免费

      歡迎來到同城快修-附近家電維修、家電清洗、家電安裝服務(wù)平臺(tái)

      24小時(shí)家電維修熱線:

      400—1558638

      當(dāng)前位置:主頁 > 油煙機(jī) > 維修資訊 >

      只需1%參數(shù),效果超越ControlNet,新AI繪畫控制大師來襲

      發(fā)布日期:2023-09-23 18:20:54 瀏覽:
      只需1%參數(shù),效果超越ControlNet,新AI繪畫控制大師來襲

      西風(fēng) 發(fā)自 凹非寺

      量子位 | 公眾號(hào) QbitAI

      “新·AI繪畫細(xì)節(jié)控制大師”ControlNetXS來啦!

      敲重點(diǎn)的是參數(shù)只要原始ControlNet的1%。

      就能做到蛋糕口味隨意切換:

      △左圖為改前

      改變一個(gè)人的行頭也輕輕松松:

      上圖同款,身形不變藝術(shù)氛圍感拉滿:

      自然風(fēng)光也能hou住,一年四季任意切換:

      還有這貓頭鷹,直接從活物變雕塑:

      參數(shù)很小的情況下,能做到這樣的效果,網(wǎng)友也是直呼絕絕子,并迫不及待想看論文。

      ControlNetXS由海德堡大學(xué)計(jì)算機(jī)視覺實(shí)驗(yàn)室研發(fā),目前相關(guān)論文、預(yù)訓(xùn)練模型還未公布。

      但研究人員表示ControlNetXSFID分?jǐn)?shù)明顯優(yōu)于ControlNet。

      且控制Stable DiffusionXL和Stable Diffusion 2.1的代碼將在不久后開源。

      新生代控制大師

      先來康康對(duì)StableDiffusionXL的控制。

      研究人員在評(píng)估了不同大小的控制模型后發(fā)現(xiàn),控制模型甚至不必和2.6B參數(shù)的StableDiffusionXL基礎(chǔ)網(wǎng)絡(luò)大小一樣。

      400M、104M和48M參數(shù)的ControlNetXS控制也很明顯。

      深度圖給出了更為直觀的展示,根據(jù)圖像內(nèi)容的距離、深度,深度圖呈現(xiàn)出準(zhǔn)確的顏色深淺度:

      要注意的是,這里研究人員設(shè)置的每行seed值不同,每列seed值相同。

      此外,還有Canny邊緣檢測圖,物體的邊界、輪廓都能清晰地展現(xiàn)出來:

      對(duì)StableDiffusion的控制,研究人員則是評(píng)估了491M、55M和14M參數(shù)的三個(gè)版本的ControlNetXS。

      結(jié)果表明1.6%的參數(shù)(865M)也能夠可靠地控制生成過程。

      那這是如何做到的呢?

      從頭開始訓(xùn)練

      原始ControlNet是StableDiffusion基礎(chǔ)模型(base model)中UNet編碼器的副本,所以接收與基礎(chǔ)模型相同的輸入,并帶有額外的引導(dǎo)信號(hào),比如說邊緣圖。

      然后,經(jīng)過訓(xùn)練的ControlNet的中間輸出被添加到基礎(chǔ)模型的解碼器層的輸入中。在ControlNet的整個(gè)訓(xùn)練過程中,基礎(chǔ)模型的權(quán)重保持凍結(jié)狀態(tài)。

      ControlNetXS的研究者們認(rèn)為這種方法存在問題,ControlNet不必這么龐大。

      首先是Stable Diffusion最終輸出圖像,是在一系列步驟中迭代生成的。每個(gè)步驟會(huì)在UNet網(wǎng)絡(luò)結(jié)構(gòu)的編碼器(Encoder)和解碼器(Decoder)兩部分中執(zhí)行。

      每次迭代基礎(chǔ)模型和控制模型的輸入是前一個(gè)步驟生成的圖像。控制模型還接收一個(gè)控制圖像。

      問題在于,在編碼器階段這兩個(gè)模型都獨(dú)立運(yùn)行,而控制模型的反饋只在基礎(chǔ)模型的解碼階段輸入。

      總之,結(jié)果就是一個(gè)延遲的校正/控制機(jī)制。

      也就是說ControlNet必須執(zhí)行兩項(xiàng)任務(wù):一邊校正/控制,一邊還要提前預(yù)測基本模型的編碼器將犯哪些“錯(cuò)誤”。

      通過暗示圖像生成和控制需要相似的模型容量,自然而然地可以用基礎(chǔ)模型的權(quán)重初始化ControlNet的權(quán)重,然后進(jìn)行微調(diào)。

      而對(duì)于ControlNetXS,研究人員表示從設(shè)計(jì)上就與基礎(chǔ)模型不同,是從零開始訓(xùn)練ControlNetXS權(quán)重,解決了延遲反饋的問題。

      如上圖所示,方法是從基礎(chǔ)模型的編碼器添加連接到控制編碼器(A),這樣校正過程可以更快地適應(yīng)基礎(chǔ)模型的生成過程。但這并不能完全消除延遲,因?yàn)榛A(chǔ)模型的編碼器仍然沒有受到引導(dǎo)。

      因此,研究人員從ControlNetXS添加額外的連接到基礎(chǔ)模型編碼器,直接影響整個(gè)生成過程(B)。

      此外,他們還評(píng)估了在ControlNet設(shè)置中使用鏡像解碼架構(gòu)是否有用(C)。

      最終,研究人員在COCO2017驗(yàn)證集上,針對(duì)Canny邊緣引導(dǎo)的三種不同變體(A、B、C)與原始的ControlNet進(jìn)行了FID分?jǐn)?shù)性能評(píng)估。

      結(jié)果所有變體都有了顯著提升,同時(shí)僅使用了原始ControlNet參數(shù)的一小部分。

      研究人員又拿出了變體B,分別使用Canny邊緣圖和深度圖引導(dǎo),針對(duì)StableDiffusion2.1和StableDiffusionXL分別訓(xùn)練了三種不同大小的模型。

      所以下一步就等相關(guān)論文、代碼以及預(yù)訓(xùn)練模型公布啦~

      項(xiàng)目地址:https://vislearn.github.io/ControlNetXS/

      — 完 —

      量子位 QbitAI · 頭條號(hào)簽約

      關(guān)注我們,第一時(shí)間獲知前沿科技動(dòng)態(tài)

      主站蜘蛛池模板: 毛片免费播放| 99国产精品人妻噜啊噜| 免费观看潮喷到高潮中文字幕| 自拍偷拍校园春色| 一本色道久久爱88av| 2021久久国自产拍精品| 亚洲精品字幕在线观看| 欧美成人一级视频| 色翁荡熄又大又硬又粗又视频| 99国产亚洲精品美女久久久久| 黄色午夜视频| 国产精品日日摸夜夜添夜夜添2021 | 成人免费毛片糖心| 国产初高中生在线视频| 男人把女人桶到爽免费应用| 国产精品天美传媒沈樵| 大桥未久中文字幕| 精品国产乱来一区二区三区| 亚洲第一区无码专区| av网站在线播放| 中国人与拘一级毛片| 国产免费播放一区二区三区| 人成午夜免费大片| 僵尸艳谈| 日本黄色录像片| 视频一区二区三区在线视频| www.-级毛片线天内射视视| 久久理论片午夜琪琪电影网| 久久精品国产亚洲7777| 麻豆国产成人AV在线播放| 国产99久久久久久免费看| 亚洲人成色44444在线观看| 在线观看一区二区视频| 日韩av在线播放网址| 亚洲日韩小电影在线观看| 久久婷婷色香五月综合缴缴情| 四虎免费在线观看| 黄色免费网站在线看| 清纯唯美经典一区二区| 久久精品99无色码中文字幕| 欧美精品福利|