La fonctionnalité de recherche est en construction.
La fonctionnalité de recherche est en construction.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

FCA-BNN: Flexible and Configurable Accelerator for Binarized Neural Networks on FPGA FCA-BNN : accélérateur flexible et configurable pour les réseaux de neurones binarisés sur FPGA

Jiabao GAO, Yuchen YAO, Zhengjie LI, Jinmei LAI

  • Vues en texte intégral

    0

  • Citer

Résumé:

Une série de réseaux neuronaux binarisés (BNN) démontrent la précision acceptée dans les tâches de classification d'images et atteignent d'excellentes performances sur les réseaux prédiffusés programmables sur site (FPGA). Néanmoins, nous observons que les conceptions existantes de BNN prennent beaucoup de temps pour changer le BNN cible et accélérer la création d’un nouveau BNN. Par conséquent, cet article présente FCA-BNN, un accélérateur flexible et configurable, qui utilise la technique configurable au niveau de la couche pour exécuter de manière transparente chaque couche du BNN cible. Initialement, pour économiser les ressources et améliorer l'efficacité énergétique, les formules optimales orientées matériel sont introduites pour concevoir une matrice informatique économe en énergie pour différentes tailles de couches à convolution rembourrée et entièrement connectées. De plus, pour accélérer efficacement les BNN cibles, nous exploitons le modèle analytique pour explorer les paramètres de conception optimaux pour FCA-BNN. Enfin, le flux de mappage proposé modifie le réseau cible en entrant dans l'ordre et accélère un nouveau réseau en compilant et en chargeant les instructions correspondantes, sans charger ni générer de flux binaire. Les évaluations de trois structures majeures de BNN montrent que les différences entre la précision d'inférence de FCA-BNN et celle du GPU ne sont que de 0.07 %, 0.31 % et 0.4 % pour LFC, VGG-like et Cifar-10 AlexNet. De plus, nos résultats en matière d'efficacité énergétique atteignent les résultats des accélérateurs FPGA personnalisés existants de 0.8× pour le LFC et de 2.6× pour le type VGG. Pour Cifar-10 AlexNet, FCA-BNN atteint respectivement 188.2× et 60.6× de mieux que le CPU et le GPU en termes d’efficacité énergétique. Au meilleur de nos connaissances, FCA-BNN est la conception la plus efficace pour le changement du BNN cible et l'accélération d'un nouveau BNN, tout en conservant des performances compétitives.

Publication
IEICE TRANSACTIONS on Information Vol.E104-D No.8 pp.1367-1377
Date de publication
2021/08/01
Publicisé
2021/05/19
ISSN en ligne
1745-1361
DOI
10.1587/transinf.2021EDP7054
Type de manuscrit
PAPER
Catégories
Biocybernétique, Neuroinformatique

Auteurs

Jiabao GAO
  Fudan University
Yuchen YAO
  Fudan University
Zhengjie LI
  Fudan University
Jinmei LAI
  Fudan University

Mots-clés

Table des matières