生成對抗網(wǎng)絡(luò)(GAN)是當(dāng)今最流行的圖像生成方法之一,但評估和比較 GAN 產(chǎn)生的圖像卻極具挑戰(zhàn)性。之前許多針對 GAN 合成圖像的研究都只用了主觀視覺評估,一些定量標(biāo)準(zhǔn)直到最近才開始出現(xiàn)。本文認(rèn)為現(xiàn)有指標(biāo)不足以評估 GAN 模型,因此引入了兩個基于圖像分類的指標(biāo)——GAN-train 和 GAN-test,分別對應(yīng) GAN 的召回率(多樣性)和精確率(圖像質(zhì)量)。研究者還基于這兩個指標(biāo)評估了最近的 GAN 方法并證明了這些方法性能的顯著差異。上述評估指標(biāo)表明,數(shù)據(jù)集復(fù)雜程度(從 CIFAR10 到 CIFAR100 再到 ImageNet)與 GAN 質(zhì)量呈負(fù)相關(guān)關(guān)系。
生成對抗網(wǎng)絡(luò)(GAN)[19] 是由一對存在競爭關(guān)系的神經(jīng)網(wǎng)絡(luò)——生成器和判別器——組成的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)。通過交替優(yōu)化兩個目標(biāo)函數(shù)訓(xùn)練該模型,這樣可以讓生成器 G 學(xué)會產(chǎn)生與真實(shí)圖像類似的樣本,還能讓判別器 D 學(xué)會更好地甄別真假數(shù)據(jù)。這種范式潛力巨大,因?yàn)樗梢詫W(xué)會生成任何數(shù)據(jù)分布。這種模型已經(jīng)在一些計算機(jī)視覺問題上取得了一定成果,例如文本到圖像的轉(zhuǎn)換 [56] 和圖像到圖像的轉(zhuǎn)換 [24,59]、超分辨率 [31] 以及逼真的自然圖像生成 [25]。
自從提出了 GAN 模型后,近幾年間出現(xiàn)了許多變體,如以提升生成圖像質(zhì)量為目的的 GAN 模型 [12,15,25,36] 和以穩(wěn)定訓(xùn)練過程為目的的 GAN 模型 [7,9,20,34,36,40,57]。通過調(diào)整附加信息(如類別標(biāo)簽),GAN 還可以被修改為生成給定類別圖像的網(wǎng)絡(luò) [16,35,37,41]。實(shí)現(xiàn)這一想法有許多方法:連結(jié)標(biāo)簽 y 和生成器的輸入 z 或中間特征映射 [16,35],使用條件批歸一化 [37] 以及用輔助分類器增強(qiáng)鑒別器 [41]。隨著這些方法的提出,有一個問題就變得重要了起來:該如何評價和比較這些模型呢?
評估和比較 GAN,或者說評估和比較 GAN 產(chǎn)生的圖像,是一件極具挑戰(zhàn)性的事,部分原因是缺乏明確的、在可比較概率模型中常用的似然方法 [51]。因此,之前許多針對 GAN 合成的圖像的工作都只用了主觀視覺評估。如圖 1 所示,當(dāng)前最佳 GAN 生成圖像的樣本 [36],用主觀評估方法無法精確評估圖像質(zhì)量。近兩年的研究已經(jīng)開始嘗試通過定量方法評估 GAN[22,25,32,46]。
圖 1:當(dāng)前最佳 GAN 模型(如 SNGAN)[36] 生成逼真圖像,這些圖像難以用主觀評估法與真實(shí)圖像進(jìn)行比較。我們的基于準(zhǔn)確率的圖像分類新方法解決了這個問題,并展示了真實(shí)圖像和生成圖像間的顯著差異。
將 Inception 分?jǐn)?shù)(IS)[46] 和 Fr′echet Inception 距離(FID)[22] 作為與生成圖像視覺質(zhì)量相關(guān)的臨時指標(biāo)。IS 通過計算圖像產(chǎn)生的 (logit) 響應(yīng)和邊際分布(即在 ImageNet 上訓(xùn)練出來的 Inception 網(wǎng)絡(luò)生成的全部圖像的平均響應(yīng))之間的 KL 散度衡量生成圖像的質(zhì)量。換句話說,IS 無法與目標(biāo)分布的樣本進(jìn)行比較,僅可用于量化生成樣本的多樣性。FID 比較的是真實(shí)圖像和生成圖像間的 Inception 激活值(Inception 網(wǎng)絡(luò)中倒數(shù)第二層的響應(yīng))。但這樣的比較將真實(shí)圖像和生成圖像的激活值近似為高斯分布(參見等式(2)),計算其平均值和方差,但因?yàn)樘^粗糙而無法捕捉其細(xì)節(jié)。這些評估方法都依賴于經(jīng)過 ImageNet 預(yù)訓(xùn)練的 Inception 網(wǎng)絡(luò),這對其他數(shù)據(jù)集(如面部數(shù)據(jù)集和生物醫(yī)學(xué)成像數(shù)據(jù)集)來說遠(yuǎn)不夠理想。總而言之,IS 和 FID 是評估訓(xùn)練進(jìn)展的有用指標(biāo),但它們無法評估真實(shí)世界中的任務(wù)。正如我們在第 5 節(jié)中討論的那樣,與我們的指標(biāo)(以表 2 中的 SNGAN 和 WPGAN-GP(10M)為例)不同,這些指標(biāo)不足以精確地區(qū)別出當(dāng)前最佳的 GAN 模型。
還有一種評估方法是根據(jù)精確率和召回率計算生成樣本到真實(shí)數(shù)據(jù)流形間的距離 [32]。高精確率意味著生成樣本與數(shù)據(jù)流形很接近,而高召回率意味著生成器的輸出樣本很好地覆蓋了流形。這些指標(biāo)還是很理想主義的,因?yàn)闊o法在流形未知的自然圖像數(shù)據(jù)上進(jìn)行計算。實(shí)際上,[32] 中的評估方法也只能用在由灰度三角形組成的合成數(shù)據(jù)中。另一種用于比較 GAN 模型距離的是 SWD[25]。SWD 是真實(shí)圖像和生成圖像間的 Wasserstein-1 距離的估計值,它計算的是從圖像的 Laplacian 金字塔表征中提取的局部圖像之間的數(shù)據(jù)相似性。正如第 5 節(jié)所說,SWD 的信息量低于我們的評價指標(biāo)。
我們在本文中提出了新的評價指標(biāo),是用 GAN-train 分?jǐn)?shù)和 GAN-test 分?jǐn)?shù)比較類條件的 GAN 架構(gòu)。對于這兩種指標(biāo),我們都依賴神經(jīng)網(wǎng)絡(luò)架構(gòu)來進(jìn)行圖像分類。為了計算 GAN-train,我們用 GAN 生成的圖像訓(xùn)練了分類網(wǎng)絡(luò),然后在由真實(shí)圖像組成的測試集上評估了其表現(xiàn)。直接地說,這度量了學(xué)習(xí)到的(生成圖像)分布和目標(biāo)(真實(shí)圖像)分布間的差異??梢缘贸鼋Y(jié)論:如果學(xué)習(xí)用于區(qū)分針對不同類別的生成圖像特征的分類網(wǎng)絡(luò)可以對真實(shí)圖像進(jìn)行正確分類,那么生成圖像與真實(shí)圖像相似。換句話說,GAN-train 類似于召回率度量,因?yàn)?GAN-train 表現(xiàn)好意味著生成的樣本足夠多樣化。但是,GAN-train 也需要足夠的精確率,否則分類器會受到樣本質(zhì)量的影響。
我們的第二個指標(biāo),GAN-test,是在真實(shí)圖像上訓(xùn)練并在生成圖像上評估得到的網(wǎng)絡(luò)的準(zhǔn)確率。該指標(biāo)與精確率類似,值比較高意味著生成的樣本與(未知)自然圖像分布近似。除了這兩個指標(biāo)外,我們還研究了 GAN 生成圖像在強(qiáng)化訓(xùn)練數(shù)據(jù)方面的作用??梢詫⑵湟暈楹饬可蓤D像多樣性的指標(biāo)。我們在圖 1 中用 GAN-train 指標(biāo)闡明了我們的評估方法的效果,尤其是在主觀評價不充分的情況下。我們將在第 3 節(jié)討論這些評估指標(biāo)的細(xì)節(jié)。
正如第 5 節(jié)中廣泛的實(shí)驗(yàn)結(jié)果以及補(bǔ)充材料和技術(shù)報告中的附錄 [5] 所示,與之前討論的所有評估指標(biāo)相比(包括沒有得出結(jié)論的人類研究),這些指標(biāo)在評估 GAN 方面的信息要豐富得多。尤其是我們還對當(dāng)前最佳的兩個 GAN 模型(WGAN-GP[20] 和 SNGAN[36])以及其他一些生成模型 [45,47] 進(jìn)行了評估,以提供基線比較。用 MNIST[30]、CIFAR10、CIFAR100[28] 和 ImageNet[14] 數(shù)據(jù)集評估了圖像分類表現(xiàn)。實(shí)驗(yàn)結(jié)果表明,隨著數(shù)據(jù)集復(fù)雜度的增加,GAN 圖像的質(zhì)量顯著降低。
論文:How good is my GAN?
論文鏈接:https://arxiv.org/pdf/1807.09499.pdf
摘要:生成對抗網(wǎng)絡(luò)(GAN)是當(dāng)今最流行的圖像生成方法之一。盡管已經(jīng)有了不少可以直觀感受到的令人印象深刻的成果,但一些定量標(biāo)準(zhǔn)直到最近才出現(xiàn)。我們認(rèn)為現(xiàn)有指標(biāo)不足以評估模型,因此在本文中引入了兩個基于圖像分類的指標(biāo)——GAN-train 和 GAN-test,這兩個指標(biāo)分別對應(yīng)的是 GAN 的召回率(多樣性)和精確率(圖像質(zhì)量)。我們基于這兩個指標(biāo)評估了最近的 GAN 方法并證明了這些方法性能的顯著差異。此外,我們的評估指標(biāo)清楚地表明,數(shù)據(jù)集復(fù)雜程度(從 CIFAR10 到 CIFAR100 再到 ImageNet),與 GAN 質(zhì)量呈負(fù)相關(guān)關(guān)系。
3. GAN-train 和 GAN-test
條件 GAN 模型的一個重要特征是生成的圖像不僅要逼真,還要能辨識出屬于一個給定的類別。一個可以完美捕獲目標(biāo)分布的理想 GAN 可以生成一個新的圖像數(shù)據(jù)集 S_g,這個數(shù)據(jù)集與原始的訓(xùn)練集 S_t 沒什么區(qū)別。假設(shè)這些數(shù)據(jù)集大小相同,根據(jù)這兩個數(shù)據(jù)集中的任意一個訓(xùn)練出來的分類器應(yīng)該有同樣的驗(yàn)證準(zhǔn)確率。當(dāng)數(shù)據(jù)集足夠簡單(例如 MNIST[48])時確實(shí)是這樣(見 5.2 節(jié))。在這種最佳 GAN 特性的推動下,我們設(shè)計了兩個分?jǐn)?shù)來評估 GAN,如圖 2 所示。
圖 2:GAN-train 和 GAN-test 圖示。GAN-train 根據(jù) GAN 生成圖像訓(xùn)練了一個分類器,并在真實(shí)圖像上進(jìn)行測試。該指標(biāo)評估了 GAN 生成圖像的多樣性和真實(shí)性。GAN-test 根據(jù)真實(shí)圖像訓(xùn)練了分類器,并在 GAN 生成圖像上進(jìn)行評估。該指標(biāo)評估了 GAN 生成圖像的真實(shí)性。
GAN-train 是在 S_g 上訓(xùn)練,在由真實(shí)圖像組成的驗(yàn)證集 S_v 上測試的分類器的準(zhǔn)確率。當(dāng) GAN 不夠好的時候,GAN-train 會比在 S_t 上訓(xùn)練出來的分類器的驗(yàn)證準(zhǔn)確率低。造成這種情況的原因有很多,例如,(i)與 S_t 相比,模式下降導(dǎo)致 S_g 的多樣性降低;(ii)生成樣本不夠逼真,以至于分類器無法學(xué)到相關(guān)特征;(iii)GAN 可以將類別混在一起并混淆分類器。不幸的是,我們無法確定 GAN 的問題在哪。當(dāng) GAN-train 的準(zhǔn)確率與驗(yàn)證集的準(zhǔn)確率相近時,意味著 GAN 產(chǎn)生的圖像質(zhì)量很高且和訓(xùn)練集一樣多樣化。正如我們在 5.3 節(jié)中所說的那樣,多樣性會隨著生成圖像數(shù)量的變化而變化。我們將在本節(jié)末尾的評價討論中對其進(jìn)行分析。
GAN-test 是在原始訓(xùn)練集 S_t 上訓(xùn)練,但在 S_g 上測試得到的分類器的準(zhǔn)確率。如果 GAN 能很好地進(jìn)行學(xué)習(xí),這就會是一項簡單的任務(wù),因?yàn)檫@兩個數(shù)據(jù)集的分布是一樣的。理想情況下,GAN-test 應(yīng)該和驗(yàn)證準(zhǔn)確率相近。如果 GAN-test 明顯高了,那就意味著 GAN 過擬了,即它只是簡單地記住了訓(xùn)練集。相反,如果 GAN-test 明顯低了,則說明 GAN 無法很好地捕獲目標(biāo)分布且 GAN 生成的圖像質(zhì)量堪憂。注意,該指標(biāo)無法說明樣本的多樣性,因?yàn)榭梢酝昝烙洃浢恳粋€訓(xùn)練圖像的模型可以得到很高的分?jǐn)?shù)。GAN-test 與 [32] 中的精確度相關(guān),它量化了生成圖像與數(shù)據(jù)流形之間的接近程度。
為了深入了解 GAN 生成圖像的多樣性,我們通過大小不同的生成圖像數(shù)據(jù)集得到了 GAN-train 準(zhǔn)確率,將其與根據(jù)相應(yīng)大小的真實(shí)數(shù)據(jù)訓(xùn)練得到的分類器的驗(yàn)證準(zhǔn)確率相比較。如果所有的生成圖像都是完美的,GAN-train 的 S_g(其中 GAN-train 等于小尺寸訓(xùn)練集的驗(yàn)證精度)的大小將會是 S_g 中不同圖像數(shù)量的良好估計。我們在實(shí)踐中觀察到,在 GAN 生成樣本數(shù)量確定的情況下,GAN-train 準(zhǔn)確率是飽和的(見第 5.3 節(jié)中的圖 4(a)和 4(b))。這是一種度量 GAN 多樣性的方法,與 [32] 中的召回率相似,都是度量 GAN 覆蓋的數(shù)據(jù)流形的分?jǐn)?shù)的方法。
5. 實(shí)驗(yàn)
表 1:CIFAR10 實(shí)驗(yàn)。IS:越高越好。FID 和 SWD:越低越好。為了提高可讀性,此處的 SWD 值擴(kuò)大了 1000 倍。GAN-train 和 GAN-test 是以百分比形式給出的準(zhǔn)確率(越高越好)。
圖 3:第一列:SNGAN 生成的圖像。其他列:來自 CIFAR10「train」的 5 幅圖像,最接近基線 CIFAR10 分類器特征空間中第一列的 GAN 圖像。
表 2:CIFAR100 實(shí)驗(yàn)。細(xì)節(jié)參考表 1 標(biāo)題。
表 3:ImageNet 實(shí)驗(yàn)。SNGAN* 指經(jīng)過 850k 次迭代訓(xùn)練得到的模型。細(xì)節(jié)參考表 1 標(biāo)題。
圖 4:改變生成圖像數(shù)據(jù)集大小對 GAN-train 準(zhǔn)確率產(chǎn)生的影響。為了便于比較,我們還展示改變真實(shí)圖像訓(xùn)練數(shù)據(jù)集大小對結(jié)果(藍(lán)色曲線)產(chǎn)生的影響(最好以 pdf 格式查看)。
圖 5:用真實(shí)圖像和 SNGAN 生成的圖像結(jié)合的數(shù)據(jù)集訓(xùn)練分類器的結(jié)果。
表 4:用縮減的真實(shí)圖像數(shù)據(jù)集訓(xùn)練的 SNGAN 的數(shù)據(jù)強(qiáng)化。在真實(shí)圖像數(shù)據(jù)集或真實(shí)圖像和 SNGAN 生成的圖像相結(jié)合的數(shù)據(jù)集(real+GAN)上訓(xùn)練得到的分類器。分類器準(zhǔn)確率以百分?jǐn)?shù)形式表示。