Recent, datorită disponibilității Big Data și creșterii rapide a puterii de calcul, inteligența artificială (AI) a recăpătat o atenție și investiții extraordinare. Abordările de învățare automată (ML) au fost aplicate cu succes pentru a rezolva multe probleme din mediul academic și din industrie. Deși explozia de aplicații de date mari determină dezvoltarea ML, aceasta impune, de asemenea, provocări severe ale vitezei de procesare a datelor și scalabilității sistemelor computerizate convenționale. Au fost luate în considerare platformele de calcul care sunt dedicate pentru aplicații AI, variind de la un complement la platformele von Neumann până la o soluție tehnică „obligatorie” și de sine stătătoare. Aceste platforme, care aparțin unei categorii mai mari denumite „calcul specific domeniului”, se concentrează pe personalizarea specifică pentru AI. În acest articol, ne concentrăm pe rezumarea progreselor recente în proiectarea acceleratoarelor pentru rețelele neuronale profunde (DNN) - adică acceleratoarele DNN. Discutăm diverși arhitecți care susțin execuțiile DNN în ceea ce privește unitățile de calcul, optimizarea fluxului de date, topologiile de rețea vizate, arhitecții cu tehnologii emergente și acceleratorii pentru aplicații emergente. De asemenea, oferim viziunile noastre asupra tendinței viitoare a proiectelor de cip AI.

arhitecturilor

Anterior articolul emis Următorul articolul emis