免费爱碰视频在线观看,九九精品国产屋,欧美亚洲尤物久久精品,1024在线观看视频亚洲

      Meta分享Codec Avatar進(jìn)展:曾要170個(gè)攝像頭,現(xiàn)只需一臺(tái)手機(jī)

      Meta分享Codec Avatar進(jìn)展:曾要170個(gè)攝像頭,現(xiàn)只需一臺(tái)手機(jī)

      (映維網(wǎng)Nweon 2022年06月14日)自2019年正式公開(kāi)介紹旨在創(chuàng)建圖片真實(shí)感虛擬數(shù)字人的Codec Avatar項(xiàng)目以來(lái),Meta就一直在積極探索各種優(yōu)化方式。在日前公布的一項(xiàng)研究中,團(tuán)隊(duì)介紹了一個(gè)重要的進(jìn)展:捕獲Codec Avatar曾經(jīng)需要170+個(gè)攝像頭的復(fù)雜裝置,但現(xiàn)在只需一臺(tái)帶RGBD攝像頭的智能手機(jī)(例如iPhone 12)。

      延伸閱讀:Meta 50年征途:Codec Avatars,創(chuàng)造逼真虛擬角色

      研究人員聲稱,基于智能手機(jī)的掃描過(guò)程平均只需要3.5分鐘。當(dāng)然,生成包含所有細(xì)節(jié)的虛擬數(shù)字人需要在一臺(tái)配置四個(gè)高端GPU的機(jī)器工作6個(gè)小時(shí),但如果部署在產(chǎn)品之中,所述步驟可以發(fā)生在云端,而不是用戶本地設(shè)備。

      就自我標(biāo)志而言,人臉比任何其他屬性都要重要,成為了“我是誰(shuí)”和“誰(shuí)是我”的關(guān)鍵判斷因素。所以,人類對(duì)人臉?lè)浅C舾小5珜?duì)于生成圖像真實(shí)感的虛擬數(shù)字人而言,這提出了一個(gè)巨大的挑戰(zhàn),因?yàn)榧幢闶俏⑿〉钠疃紩?huì)大大減損真實(shí)感和沉浸感。

      為了克服這一困難,傳統(tǒng)手段依賴于廣泛的個(gè)人特定數(shù)據(jù)捕獲和手動(dòng)處理。這一過(guò)程成本高昂且非常耗時(shí)。在過(guò)去,要捕獲一個(gè)Codec Avatar,Meta需要一個(gè)配備171個(gè)高分辨率攝像頭的MUGSY裝置。

      所以,如何降低捕獲要求成為了團(tuán)隊(duì)一個(gè)亟需攻克的難題。在名為《Authentic Volumetric Avatars from a Phone Scan》的論文中,Meta表示現(xiàn)在只需一臺(tái)智能手機(jī)即可完成逼真的捕獲。

      從有限數(shù)據(jù)自動(dòng)創(chuàng)建Avatar的核心挑戰(zhàn)在于prior和evidence之間的取舍權(quán)衡。prior需要以一種輕量級(jí)的方式補(bǔ)充關(guān)于用戶外觀、幾何和運(yùn)動(dòng)的有限信息,比如說(shuō)僅通過(guò)手機(jī)攝像頭,但這一般是以evidence作為代價(jià),亦即真實(shí)感減損。

      但盡管近年來(lái)行業(yè)已經(jīng)取得了長(zhǎng)足的進(jìn)展,但以高分辨率學(xué)習(xí)人臉的多樣性依然具有挑戰(zhàn)性。

      對(duì)長(zhǎng)尾進(jìn)行建模是捕捉個(gè)人特質(zhì)(如特定雀斑、紋身或疤痕)所必需項(xiàng),并要求具有更高維度的latent空間模型?,F(xiàn)代方法能夠產(chǎn)生似是而非的人臉幻覺(jué),但無(wú)法以逼真的方式再現(xiàn)能夠用于識(shí)別別人的真實(shí)人類。有研究人員通過(guò)優(yōu)化latent空間以外的空間來(lái)實(shí)現(xiàn)出色的反向重建,但產(chǎn)生了強(qiáng)烈的偽影。

      在這項(xiàng)研究中,研究人員打破了prior和evidence之間的取舍權(quán)衡,消除了產(chǎn)生非真實(shí)存在人類幻覺(jué)的能力。相反,他們使用手機(jī)數(shù)據(jù)來(lái)表示適應(yīng)。所述的方法包括三個(gè)主要要素:

      • 一種通用prior,根據(jù)數(shù)百特征的高質(zhì)量多視圖視頻語(yǔ)料庫(kù)進(jìn)行訓(xùn)練的hypernetwork;
      • 一種根據(jù)手機(jī)掃描調(diào)節(jié)模型的配準(zhǔn)技術(shù);
      • 一種基于反向渲染的技術(shù),用于根據(jù)附加表達(dá)數(shù)據(jù)微調(diào)個(gè)性化模型。

      prior的架構(gòu)是基于這樣一個(gè)觀察:面部外觀和結(jié)構(gòu)的長(zhǎng)尾的關(guān)鍵在于最適合直接從人類條件數(shù)據(jù)中提取,而不是從由低維特征嵌入(Embedding)重新提取的細(xì)節(jié)。與先前的研究接近,研究人員發(fā)現(xiàn)低維嵌入的性能迅速穩(wěn)定,未能捕獲個(gè)人特定的特質(zhì)。相反,他們發(fā)現(xiàn)通過(guò)增強(qiáng)現(xiàn)有方法,可以使用特定于個(gè)人的多尺度‘解結(jié)’bias map來(lái)忠實(shí)地重建特定于一個(gè)人的高LOD(Level of Detail)。

      這種bias map可以使用U-Net-styre的網(wǎng)絡(luò)從用戶中性掃描的unwarpped紋理和幾何生成。通過(guò)這種方式,Meta的模型是一種可以接收用戶中性面部數(shù)據(jù),并以bias map的形式為個(gè)性化解碼器生成參數(shù)的hypernetwork。總之,團(tuán)隊(duì)的通用prior和自適應(yīng)策略能夠從一次中性掃描中即時(shí)創(chuàng)建高度逼真的虛擬數(shù)字人,并只需小量帶表情掃描可以生成一個(gè)橫跨人類表達(dá)范圍的模型。

      團(tuán)隊(duì)表示,所述方法改進(jìn)了手機(jī)捕獲的Avatar生成技術(shù),并且沒(méi)有顯著增加對(duì)用戶端的需求?,F(xiàn)有的方法可能會(huì)產(chǎn)生似是而非的幻覺(jué),但其方法能夠產(chǎn)生看起來(lái)和動(dòng)起來(lái)都像特定個(gè)人的Avatar。

      另外,所述模型繼承了現(xiàn)有個(gè)人特定模型的速度、分辨率和渲染質(zhì)量,因?yàn)樗捎昧祟愃频募軜?gòu)和渲染機(jī)制。所以,它非常適合交互式幀速率要求較高的應(yīng)用程序,比如說(shuō)VR。

      研究人員聲稱,基于智能手機(jī)的掃描過(guò)程平均只需要3.5分鐘。當(dāng)然,生成包含所有細(xì)節(jié)的虛擬數(shù)字人需要在一臺(tái)配置四個(gè)高端GPU的機(jī)器工作6個(gè)小時(shí),但如果部署在產(chǎn)品之中,所述步驟可以發(fā)生在云端,而不是用戶本地設(shè)備。

      另外,團(tuán)隊(duì)坦誠(chéng)目前的系統(tǒng)無(wú)法處理眼鏡或長(zhǎng)發(fā),僅限于頭部,不包括身體其他部位。

      相關(guān)論文:Authentic Volumetric Avatars from a Phone Scan

      所以,要真正實(shí)現(xiàn)圖像真實(shí)感Avartar的民用,Meta依然需要繼續(xù)努力。在今年4月,Codec Avatar團(tuán)隊(duì)負(fù)責(zé)人亞瑟·謝赫(Yaser Sheikh)曾表示,無(wú)法預(yù)測(cè)它離實(shí)際應(yīng)用尚有多遠(yuǎn)的距離。然而,他指出在項(xiàng)目開(kāi)始的時(shí)候,團(tuán)隊(duì)距離目標(biāo)實(shí)現(xiàn)尚差“十個(gè)奇跡”,但他相信現(xiàn)在僅?!拔鍌€(gè)奇跡”。

      鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場(chǎng),版權(quán)歸原作者所有,如有侵權(quán)請(qǐng)聯(lián)系管理員(admin#wlmqw.com)刪除。
      (0)
      用戶投稿
      上一篇 2022年6月15日 18:15
      下一篇 2022年6月15日 18:16

      相關(guān)推薦

      聯(lián)系我們

      聯(lián)系郵箱:admin#wlmqw.com
      工作時(shí)間:周一至周五,10:30-18:30,節(jié)假日休息