La fonctionnalité de recherche est en construction.
La fonctionnalité de recherche est en construction.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Consistency Regularization on Clean Samples for Learning with Noisy Labels Régularisation de cohérence sur des échantillons propres pour l'apprentissage avec des étiquettes bruyantes

Yuichiro NOMURA, Takio KURITA

  • Vues en texte intégral

    0

  • Citer

Résumé:

Ces dernières années, l’apprentissage profond a obtenu des résultats significatifs dans divers domaines de l’apprentissage automatique. L'apprentissage profond nécessite une énorme quantité de données pour former un modèle, et des techniques de collecte de données telles que l'exploration du Web ont été développées. Cependant, il existe un risque que ces techniques de collecte de données génèrent des étiquettes incorrectes. Si un modèle d'apprentissage profond pour la classification d'images est formé sur un ensemble de données avec des étiquettes bruitées, les performances de généralisation diminuent considérablement. Ce problème s'appelle Learning with Noisy Labels (LNL). L'une des recherches récentes sur LNL, appelée DivideMix [1], a réussi à diviser l'ensemble de données en échantillons avec des étiquettes propres et en échantillons avec des étiquettes bruyantes en modélisant la distribution des pertes de tous les échantillons d'apprentissage avec un modèle gaussien de mélange à deux composants (GMM). Ensuite, il traite l'ensemble de données divisé en échantillons étiquetés et non étiquetés et entraîne le modèle de classification de manière semi-supervisée. Étant donné que les échantillons sélectionnés ont des valeurs de perte plus faibles et sont faciles à classer, les modèles d'entraînement risquent d'être surajustés au modèle simple pendant l'entraînement. Pour entraîner le modèle de classification sans surajustement aux modèles simples, nous proposons d'introduire régularisation de cohérence sur les échantillons sélectionnés par GMM. La régularisation de cohérence perturbe les images d'entrée et encourage le modèle à fournir la même valeur aux images perturbées et aux images originales. Le modèle de classification reçoit simultanément les échantillons sélectionnés comme propres et leurs échantillons perturbés, et atteint des performances de généralisation plus élevées avec moins de surajustement aux échantillons sélectionnés. Nous avons évalué notre méthode avec des étiquettes bruyantes générées synthétiquement sur CIFAR-10 et CIFAR-100 et avons obtenu des résultats comparables ou meilleurs que la méthode de pointe.

Publication
IEICE TRANSACTIONS on Information Vol.E105-D No.2 pp.387-395
Date de publication
2022/02/01
Publicisé
2021/10/28
ISSN en ligne
1745-1361
DOI
10.1587/transinf.2021EDP7127
Type de manuscrit
PAPER
Catégories
Intelligence artificielle, exploration de données

Auteurs

Yuichiro NOMURA
  Hiroshima University
Takio KURITA
  Hiroshima University

Mots-clés

Table des matières