Nu s-au găsit definiții în acest fișier.

mila-iqiablocks

  • Mergeți la fișierul T
  • Mergeți la linia L
  • Mergeți la definiția R
  • Copiați calea
" "Algoritmi de instruire." "
jurnal de import
importați instrumente
din abc import ABCMeta, abstractmethod
din colecții import OrderedDict
din colecții import Mapping
de la șase. mută importul reduce
de la picklable_itertools. echipamente pentru import extra
import theano
din șase import add_metaclass
din theano import tensor
din blocuri. import grafic ComputationGraph
din blocuri. roluri import add_role, ALGORITHM_HYPERPARAMETER, ALGORITHM_BUFFER
din blocuri. theano_expressions import l2_norm
din blocuri. utils import (
dict_subset, pack, shared_floatx, shared_floatx_zeros_matching)
logger = logare. getLogger (__name__)
def _create_algorithm_buffer_for (param, * args, ** kwargs):
buf = shared_floatx_zeros_matching (param, * args, ** kwargs)
piele de bivol. etichetă. for_parameter = formular
add_role (buf, ALGORITHM_BUFFER)
întoarce buf
@ add_metaclass (ABCMeta)
clasă TrainingAlgorithm (obiect):
" "Clasa de bază pentru algoritmi de antrenament.
Un obiect de algoritm de antrenament are un ciclu de viață simplu.
Mai întâi este inițializat apelând metoda sa: meth: `initialize`.
În această etapă, de exemplu, funcțiile Theano pot fi compilate.
După aceea, metoda: meth: `process_batch` este repetată
apelat cu un lot de date de antrenament ca parametru.
" "
@ abstractmethod
inițializare def (auto, ** kwargs):
" "Inițializați algoritmul de antrenament." "
trece
@ abstractmethod
def process_batch (self, batch):
" "Procesați un lot de date de antrenament.
Atribute
----------
lot: dict
Un dicționar de (nume sursă, date) perechi.
" "
trece
variable_mismatch_error = " "
Blocurile au încercat să potrivească sursele () setului de date de antrenament cu \
numele variabilelor Theano (), dar nu a reușit să o facă. \
Dacă doriți să vă instruiți pe un subset al surselor pe care le furnizează setul dvs. de date, \
transmiteți argumentul cuvântului cheie `surse` constructorului său, utilizați
Transformator FilterSources furnizat de Fuel sau treceți pe_unused_sources = 'warn' \
sau on_unused_sources = 'ignora' algoritmului GradientDescent. " "
source_missing_error = " "
Blocurile nu au găsit toate sursele () setului de date de antrenament \
care se potrivesc cu numele variabilelor Theano (). " "
determinism_error = " "Nu se poate deduce lista de parametri într-o ordine fixă.
Deoarece dicționarele nu sunt ordonate (iar Python folosește hash randomizat, \
care poate schimba ordinea de iterație din același dicționar dintr-un \
sesiunea de interpret la următoarea), blocurile nu pot deduce lista parametrilor \
dintr-un dicționar simplu de gradienți într-o ordine reproductibilă \
între sesiuni de interpret; vă rugăm să specificați parametrii \
în mod explicit sau treceți gradienții ca un OrderedDict (deși aveți grijă de exercițiu în \
construind acel OrderedDict, ca un OrderedDict creat prin iterație \
peste un iterabil neordonat (de ex. un dict) va avea totuși un arbitrar \
și ordinea imprevizibilă care ar putea cauza probleme cu \
reproductibilitate). " "
clasă UpdatesAlgorithm (TrainingAlgorithm):
" "Clasa de bază pentru algoritmi care utilizează funcțiile Theano cu actualizări.
Parametrii
----------
actualizări: listă de tupluri sau: clasă: `

  • Copiați liniile
  • Copiați legătura permanentă
  • Vezi git blame
  • Referință în noul număr

  • Contactați GitHub
  • Prețuri
  • API
  • Instruire
  • Blog
  • Despre

Nu puteți efectua acțiunea în acest moment.

V-ați conectat cu o altă filă sau fereastră. Reîncărcați pentru a reîmprospăta sesiunea. V-ați deconectat într-o altă filă sau fereastră. Reîncărcați pentru a reîmprospăta sesiunea.