Haotao Wang, Shupeng Gui, Haichuan Yang, Ji Liu, Zhangyang Wang

vita-groupgan-slimming

În ECCV 2020 (Spotlight)

O metodă de compresie GAN all-in-one care integrează distilarea modelului, tăierea canalelor și cuantificarea în cadrul de optimizare GAN minimax.

Traducere imagine-imagine prin CycleGAN (comprimat):

1. Descărcați setul de date:

Aceasta va descărca setul de date în folderul seturi de date/(de exemplu, seturi de date/summer2winter_yosemite).

2. Obțineți CycleGAN dens original:

Utilizați codurile oficiale CycleGAN pentru a instrui CycleGAN dens original.

Utilizarea generatorului dens pre-antrenat și a discriminatorului pentru a inițializa G și D pentru GAN-Slimming este necesară pe setul de date horse2zebra. Am descărcat modelele dense pentru GS32 și GS8 de aici și respectiv de aici și le-am pus sub calea rădăcină a proiectului.

3. Generați rezultate de transfer de stil pe setul de antrenament

Utilizați generatorul dens pre-antrenat pentru a genera rezultate de transfer de stil pe setul de antrenament și puneți rezultatele transferului de stil în folderul train_set_result /. De exemplu, train_set_result/summer2winter_yosemite/B/2009-12-06 06: 58: 39_fake.png este imaginea falsă de iarnă transferată din seturile de date reale de vară/summer2winter_yosemite/A/2009-12-06 06: 58: 39.png folosind CycleGAN dens original.

Rezultatele antrenamentului (puncte de control, curbe de pierdere etc.) vor fi salvate în rezultate //. Valabilele sunt: ​​horse2zebra, summer2winter_yosemite. Valabilele sunt: ​​A2B, B2A. (De exemplu, horse2zebra/A2B înseamnă transferul calului la zebră și horse2zebra/B2A înseamnă transferul zebrelor la cal.)

5. Extrageți subrețeaua compactă obținută de GS

Slăbirea GAN a tăiat unele canale din rețea, setând masca de canal la zero. Acum trebuie să extragem subrețeaua reală comprimată.

Subrețelele extrase vor fi salvate în subnet_structures //

6. Subrețea Finetune

Rezultatele Finetune vor fi salvate în rezultatele_finetune//

Modelele de căutare sunt disponibile prin Google Drive.

Dacă utilizați acest cod pentru cercetarea dvs., vă rugăm să citați lucrarea noastră.

Munca noastră legată

Vă rugăm să verificați și lucrările noastre simultane privind combinarea căutării arhitecturii neuronale (NAS) și a distilării modelului pentru compresia GAN:

Yonggan Fu, Wuyang Chen, Haotao Wang, Haoran Li, Yingyan Lin și Zhangyang Wang. „AutoGAN-Distiller: căutarea pentru comprimarea rețelelor contradictorii generative”. ICML, 2020. [pdf] [cod]

Despre

[ECCV 2020] „Compresie GAN all-in-one prin optimizare unificată” de Haotao Wang, Shupeng Gui, Haichuan Yang, Ji Liu și Zhangyang Wang