La fonctionnalité de recherche est en construction.
La fonctionnalité de recherche est en construction.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Construction of an Efficient Divided/Distributed Neural Network Model Using Edge Computing Construction d'un modèle de réseau neuronal divisé/distribué efficace à l'aide de l'Edge Computing

Ryuta SHINGAI, Yuria HIRAGA, Hisakazu FUKUOKA, Takamasa MITANI, Takashi NAKADA, Yasuhiko NAKASHIMA

  • Vues en texte intégral

    0

  • Citer

Résumé:

L’apprentissage profond moderne a considérablement amélioré les performances et a été utilisé dans une grande variété d’applications. Étant donné que la quantité de calcul requise pour le processus d'inférence du réseau neuronal est importante, elle est traitée non pas par le lieu d'acquisition des données comme une caméra de surveillance, mais par le serveur doté d'une puissance de calcul abondante installé dans le centre de données. L’Edge Computing fait l’objet d’une attention considérable pour résoudre ce problème. Cependant, l’edge computing peut fournir des ressources de calcul limitées. Par conséquent, nous avons supposé un modèle de réseau neuronal divisé/distribué utilisant à la fois le périphérique périphérique et le serveur. En traitant une partie de la couche de convolution en périphérie, la quantité de communication devient inférieure à celle des données du capteur. Dans cet article, nous avons évalué AlexNet et les huit autres modèles sur l'environnement distribué et estimé les valeurs FPS avec les communications Wi-Fi, 3G et 5G. Pour réduire les coûts de communication, nous avons également introduit le processus de compression avant la communication. Cette compression peut dégrader la précision de la reconnaissance des objets. Comme conditions nécessaires, nous définissons le FPS sur 30 ou plus et la précision de la reconnaissance des objets sur 69.7 % ou plus. Cette valeur est déterminée sur la base de celle d'un modèle d'approximation qui binarise l'activation du réseau neuronal. Nous avons construit des modèles de performances et d'énergie pour trouver la configuration optimale qui consomme un minimum d'énergie tout en satisfaisant les conditions nécessaires. Grâce à une évaluation complète, nous avons constaté que les configurations optimales des neuf modèles. Pour les petits modèles, tels qu'AlexNet, le traitement de modèles entiers en périphérie était le meilleur. En revanche, pour les modèles volumineux, tels que le VGG16, le traitement des modèles entiers sur le serveur était le meilleur. Pour les modèles de taille moyenne, les modèles distribués étaient de bons candidats. Nous avons confirmé que notre modèle a trouvé la configuration la plus économe en énergie tout en satisfaisant aux exigences de FPS et de précision, et les modèles distribués ont réussi à réduire la consommation d'énergie jusqu'à 48.6 % et 6.6 % en moyenne. Nous avons également constaté que la compression HEVC est importante avant de transférer les données d'entrée ou les données de fonctionnalités entre les processus d'inférence distribués.

Publication
IEICE TRANSACTIONS on Information Vol.E103-D No.10 pp.2072-2082
Date de publication
2020/10/01
Publicisé
2020/07/02
ISSN en ligne
1745-1361
DOI
10.1587/transinf.2019EDP7326
Type de manuscrit
PAPER
Catégories
Fondamentaux des Systèmes d'Information

Auteurs

Ryuta SHINGAI
  Nara Institutet of Science and Technology
Yuria HIRAGA
  Nara Institutet of Science and Technology
Hisakazu FUKUOKA
  Nara Institutet of Science and Technology
Takamasa MITANI
  Nara Institutet of Science and Technology
Takashi NAKADA
  Nara Institutet of Science and Technology
Yasuhiko NAKASHIMA
  Nara Institutet of Science and Technology

Mots-clés

Table des matières