《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 太贊了!英偉達又一突破,輸入關(guān)鍵詞就可以生成直逼攝影師的大片

太贊了!英偉達又一突破,輸入關(guān)鍵詞就可以生成直逼攝影師的大片

2021-11-29
來源:CSDN

  英偉達又一次突破了,這么逼真的照片竟然不是來自攝影師或是設(shè)計師!

  近日,英偉達官方推出 GauGAN2人工智能系統(tǒng),它是其 GauGAN 模型的繼承者,它不僅能根據(jù)字詞生成逼真的風景圖像,還能實時用文字P圖!

  GauGAN2 將分割映射、修復(fù)和文本到圖像生成等技術(shù)結(jié)合在一個工具中,通過輸入文字和簡單的繪圖來創(chuàng)建逼真的圖像。

  Isha Salian 表示“與類似的圖像生成模型相比,GauGAN2 的神經(jīng)網(wǎng)絡(luò)能夠產(chǎn)生更多種類和更高質(zhì)量的圖像?!?/p>

  英偉達的企業(yè)傳播團隊在一篇博客文章中寫道?!坝脩魺o需繪制想象場景的每個元素,只需輸入一個簡短的短語即可快速生成圖像的關(guān)鍵特征和主題,例如雪山山脈。然后可以用草圖定制這個起點,使特定的山更高,或在前景中添加幾棵樹,或在天空中添加云彩?!?/p>

  例如輸入海浪打在巖石上,模型會根據(jù)生成的內(nèi)容逐漸進行相應(yīng)的調(diào)整,以生成與描述匹配的逼真圖像。

  GauGAN2 的生成模式

  GauGAN2 有三種繪制模式,可以從不同的輸入生成逼真的圖像。

  模式1:用涂鴉生成風景照

  模式2:輸入文本生成圖片

  這種輸入文本生成匹配圖像的模式也是 GauGAN2 主要的創(chuàng)新,生成的圖像會根據(jù)逐漸輸入的文本不斷發(fā)生變化,最終生成和文本匹配最佳的圖像。

  例如在下圖的示例中,文本首先輸入 sunshine(陽光),生成的圖像中就只出現(xiàn)了一個太陽;之后繼續(xù)輸入 a tall tree(高樹),圖像中就出現(xiàn)了樹(且為頂部樹枝,匹配高樹);最后,輸入的全部文本是 sunshine in a tall tree forest ,意為透過森林的陽光,GauGAN2 最終生成的圖像與之相匹配:

  模式 3:輸入圖像并編輯部分內(nèi)容

  如果想要抹掉移除的內(nèi)容,在生成的圖像中會保留剩余的部分,并自動補全出多種新的完整圖像:

  這三種模式也可以混合疊加使用,例如在用涂鴉繪畫等生成圖像后,輸入文本進行相應(yīng)的修改,在下圖中就生成了一座浮在空中的城堡就出現(xiàn)了。

  像像外媒ZDNet就惡搞出來了一種神奇的玩法,在已有的風景上畫個人頭—,畫人頭。

  在生成這一系列逼真的圖像背后用了什么原理呢?

  如何實現(xiàn)?

  從 2019 年開始,英偉達改進 GauGAN 系統(tǒng),該系統(tǒng)由超過一百萬個公共 Flickr 圖像的訓練而成。與 GauGAN 一樣,GauGAN2 可以理解雪、樹、水、花、灌木、丘陵和山脈等物體之間的關(guān)系,例如降水類型隨季節(jié)而變化的事實。

  GauGAN2 是一種稱為生成對抗網(wǎng)絡(luò) (GAN) 的系統(tǒng),由生成器和判別器組成。生成器用于獲取樣本,例如獲取與文本配對的圖像,并預(yù)測哪些數(shù)據(jù)(單詞)對應(yīng)于其他數(shù)據(jù)(風景圖片的元素)。生成器試圖通過欺騙鑒別器來進行訓練,鑒別器則用于評估預(yù)測結(jié)果是否現(xiàn)實。雖然 GAN 的轉(zhuǎn)換最初的質(zhì)量很差,但隨著鑒別器的反饋二不斷改善。

  與 GauGAN 不同的是,GauGAN2 是在 1000 萬張圖像上訓練而成——可以將自然語言描述成風景圖像。輸入諸如“海灘日落”之類的短語會生成場景,而添加諸如“巖石海灘日落”之類的形容詞或?qū)ⅰ叭章洹碧鎿Q為“下午”或“下雨天”等形容詞會立即修改畫面。

  GauGAN2 用戶可以生成分割圖,顯示場景中對象位置的高級輪廓。從那里,他們可以切換到繪圖,使用“天空”、“樹”、“巖石”和“河流”等標簽通過粗略的草圖調(diào)整場景,并允許工具的畫筆將涂鴉融入圖像。

  這是屬于更新迭代的過程,用戶在文本框中鍵入的每個詞都會為 AI 創(chuàng)建的圖像添加更多內(nèi)容,因而 GauGAN2 才能隨著輸入文本而不斷變換圖像。

  結(jié)語

  GauGAN2 與 OpenAI 的 DALL-E 沒有什么不同。

  不過,這兩個模型生成的內(nèi)容其實不太一樣。

  GauGAN2 專注于生成風景照,DALL·E 則更多地生成具體的物體,例如一把椅子或者一個鬧鐘等。

  英偉達聲稱,GauGAN 的第一個版本已經(jīng)被用于為電影和視頻游戲創(chuàng)作概念藝術(shù)。與它一樣,英偉達 計劃在 GitHub 上提供 GauGAN2 的代碼,同時在 Playground 上提供交互式演示,Playground 是 英偉達人工智能和深度學習研究的網(wǎng)絡(luò)中心。

  像 GauGAN2 這樣的生成模型的一個缺點是存在偏差的可能性。例如在 DALL-E 的案例中,OpenAI 使用了一種 CLIP 模型來提高生成圖像質(zhì)量,但在一項研究中發(fā)現(xiàn),CLIP 對黑人照片的錯誤分類率更高,并且存在種族和性別偏見問題。

  英偉達暫不會對 GauGAN2 是否存在偏見給出回應(yīng)。英偉達發(fā)言人表示:“該模型有超過 1 億個參數(shù),訓練時間不到一個月(還在 demo 階段),訓練圖像來自專有的風景圖像數(shù)據(jù)集。因此 GauGAN2 只專注于風景,研究團隊還對圖像進行審核以確保圖片中沒有包含人的場景?!边@將有助于減少 GauGAN2 的偏見。

  目前,GauGAN2 已經(jīng)可以試完,有使用過或是想要去體驗的可以在留言區(qū)談?wù)擉w驗感受呦~




1.png

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。