La fonctionnalité de recherche est en construction.
La fonctionnalité de recherche est en construction.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Triplet Attention Network for Video-Based Person Re-Identification Réseau d'attention triple pour la réidentification des personnes par vidéo

Rui SUN, Qili LIANG, Zi YANG, Zhenghui ZHAO, Xudong ZHANG

  • Vues en texte intégral

    0

  • Citer

Résumé:

La réidentification de personne par vidéo (re-ID) vise à récupérer une personne à travers une caméra sans chevauchement et a obtenu des résultats prometteurs grâce au réseau neuronal convolutif profond. En raison des propriétés dynamiques de la vidéo, les problèmes d'encombrement d'arrière-plan et d'occlusion sont plus graves que la Re-ID de personne basée sur l'image. Dans cette lettre, nous présentons un nouveau réseau de triple attention (TriANet) qui utilise simultanément des informations temporelles, spatiales et contextuelles de canal en employant le mécanisme d'auto-attention pour obtenir des fonctionnalités robustes et discriminantes. Plus précisément, le réseau comprend deux parties, la première partie introduisant un sous-réseau d'attention résiduelle, qui contient un module d'attention de canal pour capturer les dépendances interdimensionnelles en utilisant la rotation et la transformation et un module d'attention spatiale pour se concentrer sur les caractéristiques des piétons. Dans la deuxième partie, un module d'attention temporelle est conçu pour juger du score de qualité de chaque piéton, et pour réduire le poids de l'image incomplète du piéton afin d'atténuer le problème d'occlusion. Nous évaluons notre architecture proposée sur trois ensembles de données, iLIDS-VID, PRID2011 et MARS. De nombreux résultats expérimentaux comparatifs montrent que notre méthode proposée permet d'obtenir des résultats de pointe.

Publication
IEICE TRANSACTIONS on Information Vol.E104-D No.10 pp.1775-1779
Date de publication
2021/10/01
Publicisé
2021/07/21
ISSN en ligne
1745-1361
DOI
10.1587/transinf.2021EDL8037
Type de manuscrit
LETTER
Catégories
Reconnaissance d'images, vision par ordinateur

Auteurs

Rui SUN
  Hefei University of Technology
Qili LIANG
  Hefei University of Technology
Zi YANG
  Hefei University of Technology
Zhenghui ZHAO
  Hefei University of Technology
Xudong ZHANG
  Hefei University of Technology

Mots-clés

Table des matières