La fonctionnalité de recherche est en construction.
La fonctionnalité de recherche est en construction.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

A Fast Stochastic Gradient Algorithm: Maximal Use of Sparsification Benefits under Computational Constraints Un algorithme de gradient stochastique rapide : utilisation maximale des avantages de la sparsification sous contraintes informatiques

Masahiro YUKAWA, Wolfgang UTSCHICK

  • Vues en texte intégral

    0

  • Citer

Résumé:

Dans cet article, nous proposons un nouvel algorithme de gradient stochastique pour un filtrage adaptatif efficace. L'idée de base est de sparsifier le vecteur d'erreur initial et de maximiser les avantages de la sparsification sous des contraintes de calcul. À cette fin, nous formulons la tâche de conception d’algorithmes comme un problème d’optimisation sous contrainte et en déduisons sa solution (non triviale) sous forme fermée. Les contraintes de calcul sont formées en se concentrant sur le fait que l'énergie du vecteur d'erreur fragmenté se concentre sur les premières composantes. Les exemples numériques démontrent que l'algorithme proposé atteint la convergence aussi rapidement que la méthode coûteuse en calcul basée sur l'optimisation sans les contraintes informatiques.

Publication
IEICE TRANSACTIONS on Fundamentals Vol.E93-A No.2 pp.467-475
Date de publication
2010/02/01
Publicisé
ISSN en ligne
1745-1337
DOI
10.1587/transfun.E93.A.467
Type de manuscrit
PAPER
Catégories
Traitement des signaux numériques

Auteurs

Mots-clés

Table des matières