欧洲精品久久久av无码电影,日日噜噜夜夜爽爽,精品无码国产自产拍在线观看蜜,人妻少妇被粗大爽9797pw,羞国产在线拍揄自揄视频,国产白嫩漂亮美女在线观看,天码欧美日本一道免费,av大片在线无码免费

      歡迎來到同城快修-附近家電維修、家電清洗、家電安裝服務(wù)平臺

      24小時家電維修熱線:

      400—1558638

      當(dāng)前位置:主頁 > 太陽能 > 維修資訊 >

      一句話搞定3D模型紋理貼圖,全程只需30秒,港大港中大TCL出品

      發(fā)布日期:2023-08-26 18:29:22 瀏覽:
      一句話搞定3D模型紋理貼圖,全程只需30秒,港大港中大TCL出品

      蕭簫 發(fā)自 凹非寺

      量子位 | 公眾號 QbitAI

      用上擴散模型,3D物體生成紋理一句話就能搞定!

      像是輸入“一張帶有棕色和黑色幾何圖案的椅子”,擴散模型就能立刻給它復(fù)個古,貼上頗具年代感的紋理:

      甚至只是丟給它一張看不出桌面長啥樣的“截圖”,AI也能立刻憑借想象力,給桌面加上木質(zhì)的細節(jié)紋理:

      要知道,給3D物體加上紋理,可不只是“變變顏色”這么簡單。

      它包含粗糙度、反射、透明、漩渦、泛光等大量參數(shù),要想設(shè)計好不僅需要了解材質(zhì)、燈光、渲染等知識,還需要反復(fù)測試渲染效果并修改。如果材質(zhì)有變,更是可能“重頭來過”。

      △游戲場景中紋理丟失的效果

      然而,此前用AI設(shè)計出來的紋理又“不太能看”,因此設(shè)計紋理一直費時費力,成本也比較高。

      現(xiàn)在,來自港大、港中文和TCL的研究人員,搞出了一種AI設(shè)計3D物體紋理的新方法,不僅完美保留物體之前的形狀,而且設(shè)計出來的紋理真實感更強、完美貼合物體表面。

      目前這項研究已經(jīng)被ICCV 2023收錄Oral論文。

      這究竟是怎么做到的?我們一起來看看。

      用上擴散模型,3D紋理一句話搞定

      此前用AI設(shè)計3D紋理,主要存在兩類問題。

      一類是生成的紋理不真實,細節(jié)有限:

      另一類是生成過程中會對3D物體本身的幾何做特殊處理,使得生成的紋理無法和原物體完美貼合,會“冒出”奇怪的形狀:

      因此,為了能確保3D物體結(jié)構(gòu)穩(wěn)定、同時生成細節(jié)逼真的紋理,這項研究設(shè)計了一個名叫PointUV diffusion的框架。

      這個框架包含“粗設(shè)計”和“精加工”兩個模塊,都基于擴散模型打造,不過二者用到的擴散模型有所不同。

      首先在“粗設(shè)計”模塊中,訓(xùn)練一個以形狀特征(包括表面法線、坐標(biāo)和遮罩)為輸入條件的3D擴散模型,用來預(yù)測物體形狀中每個點的顏色,從而生成一個粗糙紋理圖像效果:

      然后在“精加工”模塊中,又設(shè)計了一個2D擴散模型,進一步將之前生成的粗糙紋理圖像和物體形狀作為輸入條件,用來生成更加精細的紋理:

      之所以采取這種設(shè)計結(jié)構(gòu),是因為之前的高分辨率點云生成方法,計算成本通常過高。

      用這種兩階段生成的方法,不僅節(jié)省了計算成本,讓兩個擴散模型“各司其職”,而且相比之前的方法,不僅保留了原來3D物體的結(jié)構(gòu),生成的紋理也要更加精細。

      至于通過輸入文字或圖片控制生成效果,則是CLIP的“功勞”。

      針對輸入,作者會先用預(yù)訓(xùn)練的CLIP模型提取文本或圖像embeddings,然后將它輸入一個MLP模型中,最終將條件整合進“粗設(shè)計”和“精加工”兩階段的網(wǎng)絡(luò)中。

      這樣一來,就能實現(xiàn)通過文字和圖像控制生成的紋理,從而得到最終輸出結(jié)果。

      所以,這樣的模型實現(xiàn)效果究竟如何?

      生成速度從10分鐘縮短至30秒

      先來看看PointUV diffusion的生成效果。

      從效果圖中可見,除了桌椅,PointUV diffusion同樣還能生成汽車等物體的紋理,種類更豐富:

      不僅能根據(jù)文字生成紋理:

      也能根據(jù)一張圖像生成對應(yīng)物體的紋理效果:

      除此之外,作者們還將PointUV diffusion生成紋理效果與之前的方法做了個對比。

      從圖中可見,與Texture Fields、Texturify、PVDTex等其他紋理生成模型相比,PointUV diffusion在結(jié)構(gòu)和精細度上都表現(xiàn)出了更好的效果。

      作者還提到,同樣硬件配置下,相比Text2Mesh需要10分鐘的計算,PointUV diffusion只需要30秒。

      不過,作者也提到了PointUV diffusion目前還存在的一些局限之處,例如當(dāng)UV貼圖存在太多“碎片化”的部分時,它還是無法生成無縫的紋理效果。此外,由于依賴3D數(shù)據(jù)進行訓(xùn)練,而3D 數(shù)據(jù)的精細化質(zhì)量和數(shù)量目前還不能達到2D 數(shù)據(jù)的水平,生成的效果暫時還無法達到像2D圖像生成那么精細化的效果。

      對這項研究感興趣的小伙伴,可以戳下方論文看看~

      論文地址:https://cvmilab.github.io/PointUVDiffusion/paper/point_uv_diffusion.pdf

      項目地址(還在施工中):https://github.com/CVMILab/PointUVDiffusion

      — 完 —

      量子位 QbitAI · 頭條號簽約

      關(guān)注我們,第一時間獲知前沿科技動態(tài)

      主站蜘蛛池模板: 欧洲亚洲日韩性无码专区| 夜色在线视频| 国产不卡精品视频男人的天堂| 国产网曝门亚洲综合在线| 天天干天天做| 色老头一区二区三区在线观看| 国产欧美精品aaaaaa片| 真实国产精品vr专区| 日韩精品一区在线| 色之久久综合| 免费观看激色视频网站| 亚洲欧洲日韩欧美网站| 久艹av| 刘亦菲久久免费一区二区| 婷婷丁香六月激情综合啪| 亚洲欧美日韩国产精品专区 | 人妻少妇偷人无码视频| 亚洲中文有码字幕日本| 色悠久久久久综合网国产| 国产中文字幕第一页| 精品国产一区二区亚洲人| 国产v在线最新观看视频| 午夜在线视频| 国产chinese男男网站大全| 伊人热热久久原色播放WWW| 18禁成年免费无码国产| 18禁午夜宅男成年网站| 7799精品视频| 久久毛片少妇高潮| 国产av综合第一页| 午夜一区二区亚洲福利vr| 深夜视频在线| 九九激情网| 欧美又大粗又爽又黄大片视频 | 操人视频网站| 久久伊99综合婷婷久久伊| 亚洲国产精品一区二区久久hs| 久久久久成人片免费观看| 日本爽妇网| 伊人婷婷色| 国产免费观看黄av片|