Utilizați scriptul age.py pentru a instrui un model. Iată cei mai importanți parametri:

github

  • --set de date: unul dintre [celeba, cifar10, imagenet, svhn, mnist]
  • --dataroot: pentru seturile de date incluse în torchvision este un director în care totul va fi descărcat; pentru imagenet, celeba seturi de date este o cale către un director cu folderele train și val în interior.
  • --marimea imaginii:
  • --save_dir: cale către un folder, unde vor fi stocate punctele de control
  • --nz: dimensionalitatea spațiului latent
  • -- batch_size: dimensiunea lotului. Implicit 64.
  • --netG: fișier .py cu definiție generator. Căutat în directorul de modele
  • --netE: fișier .py cu definiție generator. Căutat în directorul de modele
  • --netG_chp: cale către un punct de control al generatorului din care să se încarce
  • --netE_chp: cale către un punct de control al codificatorului din care să se încarce
  • --nepoch: numărul de epocă de rulat
  • --start_epoch: numărul de epocă din care începe. Util pentru reglarea fină.
  • --e_updates: Plan de actualizare pentru codificator.; KL_fake:, KL_real:, match_z:, match_x: .
  • --g_updates: Plan de actualizare pentru generator.; KL_fake:, match_z:, match_x: .

Și argumente greșite:

  • --muncitori: numărul muncitorilor de încărcare.
  • --ngf: controlează numărul de canale din generator
  • --ndf: controlează numărul de canale din codificator
  • --beta1: parametru pentru optimizatorul ADAM
  • --cpu: nu utilizați GPU
  • --criteriu: Parametric param sau non-parametric nonparam mod de a calcula KL. Parametric se potrivește Gaussian în date, non-parametric se bazează pe vecinii cei mai apropiați. Implicit: param .
  • --KL: Ce KL să calculeze: qp sau pq. Valoarea implicită este qp .
  • --zgomot: sferă pentru uniformă pe sferă sau gaussiană. Sferă implicită .
  • --match_z: pierdere de utilizat ca pierdere de reconstrucție în spațiul latent. L1 | L2 | cos. Cos implicit .
  • --match_x: pierdere de utilizat ca pierdere de reconstrucție în spațiul de date. L1 | L2 | cos. Implicit L1 .
  • --drop_lr: în fiecare epocă drop_lr se renunță la o rată de învățare.
  • --save_every: controlează frecvența cu care sunt stocate rezultatele intermediare. Implicit 50 .
  • --semințe_manuale: sămânță aleatorie. Implicit 123 .

Iată cmd cu care puteți începe:

Lăsați data_root să fie un director cu două foldere, val, fiecare cu imaginile pentru împărțirea corespunzătoare.

Este benefic să perfecționați modelul cu o dimensiune a lotului mai mare și cu o greutate mai mare, atunci:

Poate fi benefic să treceți la 256 de loturi după mai multe epoci.

Testat cu python 2.7.

Implementarea se bazează pe codul pyTorch DCGAN.

Dacă vi s-a părut util acest cod, vă rugăm să citați lucrarea noastră

Despre

Cod pentru lucrarea „Rețele generatoare-codificatoare adversare”