1. Introduction
Le transfert est l'un des processus cruciaux dans la communication cellulaire, en particulier chez les utilisateurs à forte mobilité tels que les terminaux automobiles. Ce processus peut être défini comme le processus qui empêche la communication en cours d'être interrompue lorsque l'équipement mobile change de point d'attache tel que les cellules [1]. Cependant, certaines perturbations peuvent survenir dans la communication active en raison de pertes de paquets et de retards et ces perturbations peuvent entraîner une perte significative de performances [2]. À l’ère de la 5G, ce processus de transfert devient plus crucial en raison de l’utilisation d’un spectre de fréquences plus élevées [3] qui entraîne une plage de cellules plus petite.
L’algorithme de transfert traditionnel est généralement fiable dans des conditions de réseau idéales. Cependant, dans certaines conditions de réseau non idéales, telles que la présence d'un trou de couverture, cet algorithme peut ne pas être fiable et entraîner un échec de transmission. Nous le prouvons à travers notre simulation décrite dans la Sect. 8.
Outre l’algorithme de transfert traditionnel qui sera décrit dans la Sect. 2, de nombreux autres algorithmes sont proposés, notamment les algorithmes basés sur l'apprentissage automatique [4] (décrits dans la section 3). Les réseaux de neurones sont l'une des méthodes basées sur l'apprentissage automatique les plus populaires pour l'amélioration du transfert [5]-[10]. Le principal problème de ces méthodes proposées est leur mise en œuvre dans le monde réel, car l’apprentissage automatique ne fait pas partie à l’origine des réseaux cellulaires [11]. La plupart des algorithmes d'apprentissage automatique destinés à améliorer les performances de transfert nécessitent des modifications majeures dans les réseaux cellulaires existants pour leur mise en œuvre. Cela posera de nombreux problèmes lors de la phase de déploiement et de mise en œuvre du réseau.
Le consortium O-RAN Alliance [12] présente le contrôleur intelligent radio en temps quasi réel (Near-RT RIC), un nouvel élément de réseau supplémentaire dans le réseau d'accès radio (RAN) qui peut héberger des applications pour contrôler les stations de base. Grâce à ce RIC Near-RT, un algorithme d'apprentissage automatique destiné à améliorer le processus de transfert peut être implémenté de manière modulaire sans modifications majeures des réseaux cellulaires existants. Notre implémentation du Near-RT RIC sera décrite plus en détail dans la section. 4.
Dans nos articles précédents, nous avons décrit la mise en œuvre du machine learning dans Near-RT RIC pour profiter de son aspect modularité. L'algorithme d'apprentissage automatique peut être mis en œuvre de manière modulaire en dehors de la station de base sans modifier le logiciel actuel de la station de base. Nous avons prouvé que cette méthode est plus performante que les algorithmes de transfert traditionnels dans un réseau simulé non idéal, en l’occurrence un réseau avec des trous de couverture. Nous avons mesuré les performances en termes de taux de réussite de la transmission de données (c'est-à-dire le téléchargement de fichiers) si l'utilisateur se déplace sur le réseau et effectue un transfert. La cellule cible est déterminée par plusieurs méthodes, l’algorithme traditionnel et notre algorithme proposé basé sur l’apprentissage automatique.
Comme décrit dans [13], nous avons modifié le logiciel original Near-RT RIC pour l'adapter à notre cas de simulation. Nous avons modifié l'algorithme d'autorégression vectorielle (VAR) utilisé dans le logiciel original Near-RT RIC pour prendre en compte le mouvement de l'UE et comparé les performances de cette méthode proposée avec l'algorithme de transfert traditionnel. Dans le résultat de la simulation, nous avons montré que cette méthode peut améliorer les performances de transfert dans un réseau présentant un trou de couverture.
Dans notre prochaine publication ([14], nous avons étendu nos recherches en remplaçant l'algorithme VAR par un réseau neuronal Multi-Layer-Perceptron (MLP). Il est prouvé que cette méthode est également supérieure par rapport à l'algorithme de handover traditionnel. Cependant, cette méthode les réseaux de neurones simples sont encore sous-performants par rapport à la méthode VAR. Dans cet article, nous avons encore amélioré le réseau de neurones pour augmenter les performances.
1.1 Motivation et contribution à la recherche
La motivation de cette recherche est d'améliorer la méthode d'apprentissage automatique implémentée dans le RIC Near-RT pour résoudre le problème de fiabilité du transfert dans un réseau non idéal. Grâce au Near-RT RIC, l'algorithme d'apprentissage automatique permettant de contrôler le processus de transfert peut être implémenté de manière modulaire sans modification majeure des éléments de réseau existants.
Dans nos recherches précédentes, nous avons utilisé un simple réseau neuronal MLP et il était encore sous-performant car il ne prenait pas en compte la nature chronologique des données d'entrée. Nous avons utilisé les données de mesure de l'utilisateur comme entrée pour déterminer la cellule cible dans le processus de transfert. Dans notre conception MLP, nous utilisons statiquement plusieurs dernières données de mesure comme entrée et ne pouvons donc pas prendre en compte la caractéristique temporelle de l'entrée de la série chronologique. Nous suggérons que cela soit la principale cause de la sous-performance.
La contribution de cette recherche consiste à concevoir et à mettre en œuvre un algorithme de transfert basé sur la mémoire à long terme et à court terme (LSTM) dans le RIC Near-RT pour contrôler le processus de transfert. LSTM est choisi car il est préférable de gérer les données de séries chronologiques et de prendre en compte la caractéristique temporelle des données. Nous considérons cette gestion de données de séries chronologiques pour le transfert basé sur l'apprentissage automatique comme notre nouvelle contribution.
Dans cet article, nous avons effectué des modifications dans le logiciel original Near-RT RIC, plus précisément dans QoE Predictor xApp. Nous avons apporté deux modifications dans nos recherches précédentes et nous les passerons brièvement en revue dans la secte. 5 : adapter le VAR (l'algorithme original utilisé dans le RIC Near-RT) pour prendre en compte le mouvement de l'UE et remplacer l'autorégression vectorielle par le réseau neuronal MLP. Notre méthode nouvellement proposée pour améliorer nos précédentes est le réseau neuronal LSTM qui sera décrit dans la Sect. 6. Nous avons effectué des simulations pour tester les performances de ces méthodes et nous avons également étudié l'effet de la quantité de données de formation sur les performances de transfert (décrit dans la section 7). Enfin, nous avons comparé les performances des méthodes proposées avec l'algorithme de transfert traditionnel et avons montré que le transfert basé sur l'apprentissage automatique dans le RIC Near-RT fonctionne mieux dans des conditions non idéales, en l'occurrence un réseau avec un trou de couverture ( décrit à la section 8).
1.2 Portée et limites de la recherche
Cette recherche se concentre sur l’utilisation d’un algorithme d’apprentissage automatique dans le RIC Near-RT pour contrôler le processus de transfert. Dans cette étude, nous comparons les performances du contrôle de transfert dans le RIC Near-RT avec l’algorithme de transfert traditionnel de base.
Il existe différentes solutions pour améliorer les performances de transfert et nous avons organisé la taxonomie des solutions dans la figure 1. Nous nous concentrons uniquement sur la solution basée sur l'apprentissage automatique qui est implémentée en externe pour des raisons de modularité, et nous comparons le résultat de nos méthodes avec la ligne de base. algorithmes de transfert traditionnels. Les innovations mises en œuvre en plus de l'algorithme de transfert traditionnel, telles que le transfert progressif, le transfert conditionnel, le make-before-break, ne sont pas prises en compte ni comparées à notre algorithme proposé basé sur l'apprentissage automatique dans le RIC Near-RT. Les autres algorithmes d’apprentissage automatique de pointe pour l’amélioration du transfert, tels que décrits dans la Sect. 3 ne sont pas non plus comparés à notre méthode.
1.3 Organisation du papier
Dans cette secte. 1, nous fournissons un aperçu de notre recherche, de l’énoncé du problème, de la motivation, de la contribution et de la portée de cette étude.
La section 2 décrit l'algorithme de transfert traditionnel, l'algorithme de base pour la gestion de la mobilité cellulaire que nous aimerions améliorer grâce à nos recherches. Nous présentons la manière de travailler, les enjeux, les limites et les marges d'amélioration de cet algorithme traditionnel.
Nous utilisons des techniques d'apprentissage automatique pour améliorer l'algorithme de transfert traditionnel. Insecte. 3, nous décrivons l’état de l’art de l’utilisation du Machine Learning pour l’amélioration du handover. Ici, nous avons exploré les travaux antérieurs menés pour améliorer l'algorithme de transfert à l'aide de diverses techniques d'apprentissage automatique.
Notre solution utilise un nouvel élément de réseau O-RAN appelé Near-RT RIC, décrit dans la section. 4. Nous décrivons également ici comment le logiciel est implémenté et utilisé pour notre solution.
Suivant dans la secte. 5, nous avons passé en revue nos méthodes précédentes que nous avions déjà publiées dans des publications antérieures [13], [14]. Nous expliquons ici comment nous avons modifié le logiciel Near-RT RIC d'origine pour utiliser nos méthodes d'apprentissage automatique proposées : le réseau neuronal VAR et MLP modifié.
Insecte. 6, nous présentons notre nouvelle méthode proposée à utiliser dans le RIC Near-RT utilisant LSTM. Nous expliquons ici le nouvel algorithme pour améliorer les performances de transfert.
Pour tester notre méthode proposée, nous avons conçu une simulation qui sera expliquée dans la Sect. 7. Nous expliquons également comment nous collectons et utilisons les données pour prouver l'efficacité des méthodes proposées.
Le résultat de notre simulation avec les méthodes proposées est discuté dans la Section. 8. Nous montrons l’amélioration des performances de transfert par rapport à l’algorithme de transfert traditionnel. La conclusion générale et les travaux futurs possibles sont rédigés dans la sect. 9.
2. Algorithme de transfert traditionnel
Dans l'algorithme de transfert traditionnel [15], l'UE envoie des rapports de mesure à la station de base de desserte sur l'état de la cellule de desserte et des cellules voisines. Le rapport de mesure concerne la force du signal de la cellule (puissance reçue du signal de référence - RSRP) et/ou la qualité du signal (qualité reçue du signal de référence - RSRQ). La station de base de desserte analysera le rapport de mesure pour déterminer la cellule cible pour la destination de transfert. Habituellement, la cellule cible est la cellule voisine la mieux mesurée (Fig. 2).
Le processus de transfert peut interrompre la transmission de données car il a provoqué une déconnexion temporaire de l'UE de la cellule de desserte (arrêtant ainsi la transmission de données) et une nouvelle connexion à la cellule cible. L'interruption est définie comme Mobility Interruption Time (MIT) et 3GPP définit MIT comme la durée la plus courte prise en charge par le système pendant laquelle un terminal utilisateur ne peut pas échanger de paquets du plan utilisateur avec une station de base pendant les transitions [17]. Le MIT peut être calculé comme [2] :
\[\begin{equation*} T_{\text{MIT}} = \{(1-P_{\text{HOF}}) \times T_{\text{HIT}}\} + \{P_{\text{HOF}} \times T_{\text{HOF}}\} \tag{1} \end{equation*}\] |
\[\begin{alignat}{1} T_\text{MIT}={}&\text{Total MIT}\\P_\text{HOF}={}& \text{Probability of either a handover failure (HOF)}\\\hphantom{P_\text{HOF}={}} & \text{or a radio link failure (RLF) during handover}\\T_\text{HIT}={}& \text{Handover Interruption Time, MIT in a}\\\hphantom{T_\text{HIT}={}} &\text{successful handover}\\T_\text{HOF} ={}& \text{Handover Failure Time, MIT in a HOF or RLF}\end{alignat}\] |
Le \(T_{\text{HOF}}\) contribue de manière plus significative au MIT (\(T_{\text{MIT}}\)), réduisant ainsi le \(T_{\text{MIT}}\) peut être mieux fait en réduisant \(P_{\text{HOF}}\). Dans le réseau LTE, \(T_{\text{HIT}}\) est signalé vers 50 ms tandis que \(T_{\text{HOF}}\) varie de quelques centaines de millisecondes à quelques secondes [18]. Cela signifie que le meilleur moyen est d’éviter les transferts inutiles ou les transferts vers la mauvaise cellule. La détermination des cellules cibles est très cruciale dans le processus de transfert afin de minimiser le MIT.
L'algorithme de transfert traditionnel est fiable dans des conditions idéales, où la mesure RSRP/RSRQ reflète toujours l'état réel du réseau. Grâce à cet algorithme, la meilleure cellule cible pour poursuivre la connexion réseau est toujours la cellule avec la meilleure mesure RSRP/RSRQ. Dans des conditions non idéales, les mesures RSRP/RSRQ peuvent ne pas refléter l'état réel du réseau.
Un exemple de ce réseau non idéal est la présence d’un trou de couverture cellulaire dû à un obstacle. Un UE peut être transféré à une cellule cible avec le meilleur RSRP/RSRQ, mais il entre dans le trou de couverture de la cellule cible après le transfert, et la connexion échoue ensuite. Dans ce cas, l’algorithme de transfert traditionnel n’est pas fiable pour déterminer correctement la cellule cible et garantir la connectivité réseau. Notre simulation prouve le manque de fiabilité de l’algorithme de transfert traditionnel dans Sect. 8. Cela soulève la nécessité d’une détermination des cellules cibles basée sur l’apprentissage automatique.
Outre l'algorithme de transfert traditionnel de base, qui fait partie de l'algorithme de la station de base conformément à la norme 3GPP [16], il existe d'autres algorithmes de transfert qui visent principalement à réduire le MIT en réduisant \(P_{\text{HOF}}\). Certaines innovations incluent des mesures rapides [19], le soft-handover, la double connectivité [20], le make-before-break [2], [21], le handover conditionnel [5], [22], [23] et le handover prédictif [ 5], [24]-[28].
Une mesure rapide permet à la station de base source d'envoyer une commande de transfert avant une détérioration brutale de la liaison radio vers l'UE. L'UE réagit plus rapidement aux changements de canal et améliore la robustesse de la mobilité.
Le transfert progressif, la double connectivité et le travail avant interruption fonctionnent de la même manière en établissant simultanément plusieurs connexions distinctes à différentes ressources radio. Cela améliore la robustesse de la mobilité mais augmente la complexité du réseau et nécessite davantage de ressources radio.
Dans le handover traditionnel, la commande de handover est envoyée lorsque les conditions radio commencent à se dégrader [23]. Le transfert conditionnel prépare à l’avance plusieurs cellules cibles candidates dans le réseau. Cela permet à la commande de transfert d'être envoyée à l'UE plus tôt que lors du transfert traditionnel lorsque les conditions radio sont encore bonnes.
Lors d'un transfert prédictif, les cellules cibles candidates sont prédites à l'aide de diverses techniques, notamment le comportement de l'utilisateur et l'apprentissage de l'état du réseau à l'aide de techniques d'apprentissage automatique.
3. Apprentissage automatique pour le transfert : état de l'art et travaux connexes
L'apprentissage automatique est une application de l'intelligence artificielle (IA) qui offre aux systèmes la capacité d'apprendre et de s'améliorer automatiquement à partir de l'expérience sans être explicitement programmés [29]. Il étudie les algorithmes informatiques qui s'améliorent automatiquement grâce à l'expérience [30].
Étant donné que l'algorithme de transfert traditionnel n'est parfois pas fiable dans des conditions de réseau non idéales, certaines méthodes alternatives sont nécessaires pour déterminer la cellule cible, et l'une des approches est le transfert prédictif utilisant l'apprentissage automatique. Plusieurs études [4] ont mis en œuvre l'apprentissage automatique pour améliorer les performances de transfert en utilisant la méthode de transfert prédictif (c'est-à-dire prédire la cellule cible à l'aide de l'apprentissage automatique).
L’apprentissage supervisé est largement utilisé pour l’amélioration du transfert. La méthode des réseaux de neurones (NN) est l'une des techniques les plus populaires utilisées dans plusieurs études [5]-[10]. Certaines études utilisent la machine à vecteurs de support [31] et le K-plus proche voisin [32], [33]. Des techniques d'apprentissage non supervisé sont également utilisées par certaines études, par exemple K-means [27], [34] et Long Short-Term Memory [25]. L'apprentissage renforcé est utilisé par certains chercheurs qui emploient généralement des algorithmes de Q-learning [24], [35].
La méthode des réseaux de neurones est populaire dans les études d’amélioration de la gestion de la mobilité. L'idée de base derrière ces études est d'utiliser le concept de réseaux de neurones pour apprendre un modèle basé sur la mobilité pour chaque utilisateur du réseau, puis de prédire quelle cellule l'utilisateur est le plus susceptible d'être la prochaine [4].
Plusieurs études antérieures [6], [36] ont utilisé des réseaux de neurones pour la sélection des cellules cibles dans le processus de transfert et ont effectué des simulations pour justifier la méthode proposée. Nous avons basé nos recherches sur ces travaux et les avons améliorés grâce aux méthodes proposées. Les recherches précédentes n'ont pas réalisé l'implémentation du logiciel dans la plate-forme Near-RT RIC et n'ont considéré que le simple réseau neuronal MLP. Comme nouveauté de notre recherche, nous présentons l’implémentation de l’algorithme d’apprentissage automatique dans la véritable plateforme Near-RT RIC. Nous testons également plusieurs méthodes autres que les simples réseaux neuronaux MLP, y compris le réseau neuronal basé sur LSTM qui peut mieux traiter les données de mesure de séries chronologiques.
4. RIC O-RAN proche RT
L'Alliance Open Radio Access Network (O-RAN) normalise et introduit plusieurs nouvelles applications pour un RAN ouvert et intelligent en plus du réseau cellulaire existant. Cela permet l’introduction d’applications d’apprentissage automatique puisque l’apprentissage automatique ne fait pas à l’origine partie de la norme de réseau cellulaire. O-RAN introduit de nouveaux éléments de réseau appelés Radio Intelligent Controller (RIC) pour ajouter de l'intelligence au réseau radio cellulaire. Il existe deux variantes de RIC : le RIC en temps quasi réel (Near-RT) et le RIC en temps non réel (NRT) (Fig. 3).
Le RIC Near-RT héberge des applications qui nécessitent une réponse en temps réel, telles que des applications de gestion de la mobilité telles que le contrôle de transfert. En raison de cette exigence de réponse, le RIC Near-RT est généralement implémenté dans un Edge Cloud, un environnement virtuel placé physiquement à proximité du réseau radio. L'efficacité d'Edge Cloud est déjà prouvée pour mettre en œuvre des éléments RAN [37].
NRT-RIC héberge des applications qui ne nécessitent pas de réponse immédiate, telles que la surveillance et l'optimisation du réseau. Il peut être implémenté dans Central Cloud et généralement hébergé avec le système de gestion de réseau existant.
Il existe certains cas d'utilisation définis par O-RAN Alliance [38] à mettre en œuvre dans O-RAN pour fournir une ouverture et une intelligence du RAN, par exemple, la gestion dynamique HO basée sur le contexte pour V2X, l'allocation dynamique de ressources radio d'UAV basée sur la trajectoire de vol, Optimisation de la QoE et pilotage du trafic. Cependant, la mise en œuvre exacte du cas d'utilisation est confiée à des fournisseurs spécifiques. Par exemple, Nokia donne la priorité au cas d'utilisation de la direction du trafic et de la détection des anomalies de réseau pour sa solution RIC [39].
Plusieurs études utilisent déjà l'architecture O-RAN RIC pour de nombreuses applications telles que la gestion des connexions [40], la gestion de la mobilité [41] et l'optimisation des politiques de planification [42]. Divers algorithmes d'apprentissage automatique sont implémentés dans RIC, y compris l'apprentissage par renforcement [43].
Le RIC Near-RT peut être implémenté dans n’importe quel environnement virtualisé. Dans notre recherche, nous l'avons installé sur une machine virtuelle basée sur Ubuntu en installant le logiciel open source fourni par l'O-RAN Software Consortium (SC) [44]. Le logiciel est basé sur des conteneurs et contient plusieurs applications appelées xApps. Cette architecture peut être visualisée sur la figure 4.
Le cas d'utilisation de la détection d'anomalies [45] est l'un des exemples de cas d'utilisation du Near-RT RIC déjà existants d'O-RAN SC qui correspond principalement à nos besoins de recherche. Cependant, nous devons effectuer quelques modifications pour s'adapter à notre scénario de simulation.
Le logiciel contient trois xApps : détection d'anomalies, gestion du trafic et prédicteur de qualité d'expérience (QoE). Les xApps échangent des messages selon le protocole RMR, la communication interne Near-RT RIC. Actuellement, dans cette recherche, le Near-RT RIC fonctionne de manière autonome sans aucune connexion au RAN, et toutes les données de simulation sont stockées dans la base de données.
Le scénario commence avec la détection d'anomalies xApp qui détecte un UE anormal, par exemple, l'UE subissant une dégradation du RSRP. Dans cette recherche, ces informations sont obtenues à partir de la base de données mais dans la mise en œuvre réelle, ces informations sont notifiées par le RAN (c'est-à-dire la station de base). L'Anomaly Detection xApp informe ensuite l'anomalie à l'Anomaly Detection xApp.
Traffic Steering xApp envoie ensuite un message à QoE Predictor xApp envoyant l'identité de l'UE rencontrant une anomalie. QoE Predictor xApp prédit alors le score de QoE de l'UE si l'UE est placé dans les cellules voisines. Dans le logiciel d'origine, ce score correspond au débit de transmission des données et est prédit à l'aide de la méthode d'autorégression vectorielle (VAR). Par conséquent, QoE Predictor prédit le débit rencontré par l'UE s'il est placé dans une certaine cellule.
Cette prédiction est renvoyée à Traffic Steering xApp. Sur la base de cette prédiction, il effectuera certaines actions nécessaires. L'action peut être une commande de transfert vers la cellule où la prédiction de débit est la plus élevée. À partir de ce scénario, il est clair que la prédiction de QoE est celle qui détermine réellement la cellule cible en effectuant une prédiction de QoE (score) dans chaque cellule. Le Traffic Steering xApp choisit simplement la cellule cible avec le score le plus élevé.
Dans cette recherche, nous avons modifié les xApps RIC Near-RT d'origine dans le cas d'utilisation de la détection d'anomalies pour les adapter à notre scénario de simulation. Nous avons principalement effectué des modifications dans QoE Predictor xApp car c'est celui qui effectue réellement les prédictions qui détermineront la cellule cible. Nous avons effectué deux modifications à la xApp QoE Predictor d'origine. La première modification consiste à adapter le logiciel original à notre scénario de simulation. La prédiction se fait toujours par la méthode d'autorégression vectorielle. La deuxième modification consiste à remplacer complètement l'autorégression vectorielle par un réseau de neurones. La conception du réseau neuronal est basée sur nos études précédentes [46], [47] qui donnent des résultats optimaux.
5. Nos méthodes précédentes : un examen
Le logiciel original QoE Predictor xApp fourni par O-RAN SC prédit la QoE à l'aide de la méthode VAR. Cependant, le logiciel d'origine n'est pas immédiatement utilisable pour notre cas de recherche et nous devons donc effectuer quelques modifications dans la xApp d'origine. Notre recherche vise à déterminer la cellule cible dans un réseau non idéal contenant un trou de couverture. Cette cellule cible est déterminée par le mouvement de l'UE qui se reflète dans les mesures RSRP/RSRQ.
5.1 VAR modifié
L'autorégression vectorielle (VAR) est un modèle de série chronologique statistique utilisé pour analyser la relation entre plusieurs variables. Dans un modèle VAR, chaque variable du système est modélisée en fonction de ses valeurs passées et des valeurs passées de toutes les autres variables du système. Un modèle VAR d'ordre p, noté VAR(p), est un ensemble d'équations linéaires qui relient chaque variable du système à ses propres valeurs passées et aux valeurs passées de toutes les autres variables du système jusqu'à p lags. Les équations peuvent être écrites sous forme matricielle comme suit :
\[\begin{equation*} Y_t = A_1 Y_{t-1} + A_2 Y_{t-2} + \ldots + A_p Y_{t-p} + u_t \tag{2} \end{equation*}\] |
De \(Y_t\) est une \(k\)-vecteur dimensionnel des valeurs actuelles du \(k\) variables dans le système, \(A_1\), \(A_2\), ..., \(A_p\) \(k \times k\) des matrices de coefficients qui capturent les relations dynamiques entre les variables avec des décalages de 1 à \(p\) et \(u_t\) est une \(k\)-vecteur dimensionnel de termes d'erreur qui représentent la partie inexpliquée du système à un moment donné \(t\).
Le QoE Predictor xApp d'origine détermine la cellule cible en prédisant le débit de chaque cellule à l'aide de données de débit de séries chronologiques dans les données d'entraînement. Cependant, ce logiciel ne considère que la position de l'UE, c'est-à-dire quelles sont les cellules voisines. Il ne prend pas en compte le mouvement et l'angle de trajectoire de l'UE. Si nous utilisons le logiciel d'origine et les données de formation non modifiés, la prédiction donnera toujours la même cellule cible pour tous les cas de simulation.
Notre méthode modifiée proposée utilisant VAR peut être exprimée dans le pseudocode suivant (algorithme 1). Le italique l'expression dans l'algorithme 1 indique notre modification.
Pour adapter le logiciel d'origine à notre scénario de simulation, nous avons reconstruit le logiciel et les données de formation pour prendre en compte le mouvement de l'UE. Le mouvement de l'UE et son angle de trajectoire peuvent être reflétés par les variations de mesure RSRP. À partir du processus de génération de données de formation décrit dans la Sect. 7, nous construisons les nouvelles données de formation qui prennent en compte le mouvement de l'UE pour prédire le prochain débit en évaluant les valeurs RSRP. À l'aide de ces données d'entraînement modifiées, la cellule cible est déterminée par le mouvement de l'UE, et pas seulement par la position de l'UE comme le QoE Predictor xApp d'origine.
5.2 Réseau neuronal MLP
Pour notre deuxième méthode, nous avons complètement remplacé le VAR dans QoE Predictor xApp par un réseau neuronal. Dans cette étape préliminaire, nous utilisons un modèle de régression de réseau neuronal Multi-Layer Perceptron (MLP) très simple pour prédire si le téléchargement réussit ou échoue en utilisant les échantillons RSRP et RSRQ comme entrée.
Cette méthode fonctionne selon une approche différente de la précédente. La méthode VAR considère le problème comme un problème de prédiction, cette méthode de réseau neuronal MLP considère le problème comme un problème de classification. Le problème de prédiction de la méthode VAR nécessite des données de débit et détermine la cellule cible en choisissant la cellule voisine ayant le débit prédit le plus élevé. Les données de débit ne sont pas immédiatement disponibles dans les cas de transfert réels, nous décidons donc d'utiliser les données RSRP/RSRQ déjà disponibles. Il est possible d'effectuer une prédiction des données RSRP/RSRQ mais dans un réseau non idéal, les données RSRP/RSRQ ne reflètent pas directement le débit ou la QoE de l'utilisateur.
Dans notre deuxième méthode, nous avons décidé de considérer le problème comme un problème de classification, sans nécessairement prédire les futures données RSRP/RSRQ. Nous collectons directement les données RSRP/RSRQ rapportées par l'UE pour déterminer s'il est bon ou non d'effectuer un transfert dans une certaine cellule voisine.
Le réseau neuronal MLP de notre méthode contient 18 nœuds d'entrée entièrement interconnectés, 4 nœuds cachés et 1 nœud de sortie (Fig. 6). Les entrées sont les 3 derniers échantillons de mesures RSRP et RSRQ des 3 cellules. Le résultat indique si la transmission des données (c'est-à-dire le téléchargement du fichier) a réussi ou non, représenté par le chiffre 0 (échec du téléchargement) ou 1 (téléchargement réussi). Le résultat du nœud de sortie est un nombre continu à virgule flottante compris entre 0 et 1 qui peut être utilisé comme score de prédiction. Le score sera ensuite envoyé à Traffic Steering xApp et la cellule avec le score le plus élevé sera déterminée comme cellule cible. Dans cette méthode, nous n’avons pas besoin de données de débit et n’effectuons aucune prédiction pour déterminer la cellule cible.
Nous utilisons l'API Tensor Flow Keras pour la mise en œuvre. Actuellement, le processus de formation est effectué avec 150 itérations sur l'ensemble des données de formation (époque = 150), et le modèle est mis à jour toutes les 10 données d'entraînement (taille du lot = 10).
La méthode du réseau neuronal MLP a une mise en œuvre plus simple que la méthode VAR puisqu'elle utilise uniquement la mesure RSRP/RSRQ sans mesure de débit. Cette méthode de réseau neuronal MLP peut être plus rapide car le modèle de réseau neuronal peut être enregistré et réutilisé sans nécessairement interroger les données d'entraînement pour chaque prédiction.
En résumé, nos deux méthodes précédentes peuvent être comparées dans le tableau 1.
6. Méthode proposée : réseau neuronal LSTM
Les deux méthodes précédentes peuvent surpasser l’algorithme de transfert traditionnel. Cependant, le réseau neuronal MLP est encore sous-performant par rapport à la méthode VAR. Nous considérons le réseau neuronal comme plus prometteur car sa mise en œuvre est moins complexe et moins exigeante. Il nécessite uniquement des mesures RSRP/RSRQ sans mesure de débit et le modèle peut être créé une fois et utilisé de manière répétée dans chaque cas. Par conséquent, nous cherchons des moyens d’améliorer ce réseau neuronal.
MLP présente plusieurs limites et faiblesses : il est sans état, ignore la structure temporelle, a une mise à l'échelle désordonnée et nécessite des entrées et des sorties de taille fixe [48]. Dans notre scénario, l'entrée est constituée de mesures RSRP/RSRQ qui sont des données de séries chronologiques, et non des données statiques de taille fixe. La longueur de la saisie n'est en réalité pas fixe, selon les cas. En utilisant MLP, nous devons fixer l'entrée à seulement 3 échantillons par cellule et ainsi limiter la quantité d'informations. Notre réseau neuronal MLP a également un problème de mise à l'échelle. Lorsque nous ajoutons ou supprimons le nombre de cellules dans le réseau, nous devons complètement changer l'architecture du modèle.
En apprentissage automatique, les données de séries chronologiques peuvent être traitées de différentes manières. La prédiction de séries chronologiques implique la prédiction de la valeur suivante pour une séquence d'entrée donnée, la classification de séries chronologiques implique la prédiction d'une étiquette de classe pour une séquence d'entrée donnée et la génération de séries chronologiques implique la génération d'une nouvelle séquence de sortie ayant les mêmes caractéristiques générales [48] .
Nous évaluons et identifions notre scénario comme un problème de classification de séries chronologiques car nos données d'entrée ont une structure temporelle et nous résolvons le problème en classifiant si le téléchargement du fichier est réussi ou non. Il existe de nombreuses méthodes pour résoudre ce problème de classification de séries chronologiques [49], y compris l'approche d'apprentissage profond utilisant un réseau neuronal [50]. Au lieu d'utiliser un simple réseau neuronal MLP pour les données de séries chronologiques, il est recommandé d'utiliser un réseau neuronal récurrent (RNN) qui prend mieux en compte la caractéristique temporelle de l'entrée. Il existe plusieurs méthodes basées sur RNN, par exemple SimpleRNN, Gated Recurrent Unit (GRU) et Long Short-term Memory (LSTM).
La mémoire à long terme (LSTM) [51] est un réseau neuronal artificiel doté d'une connexion de rétroaction et peut donc être classé comme RNN. Il a été démontré que LSTM surpasse les autres méthodes RNN sur de nombreuses tâches de traitement temporel (52). Ces tâches de traitement temporel incluent le traitement de données de séries chronologiques multivariées pour effectuer des prédictions sur les valeurs futures. Plusieurs applications utilisent LSTM en raison de cette capacité, par exemple la reconnaissance de l'écriture manuscrite, la reconnaissance vocale et la traduction automatique.
LSTM utilise la « mémoire à long terme » et la « mémoire à court terme » qui se produisent dans l'architecture RNN qui traite les données de séries chronologiques. Les poids et biais de connexion dans le réseau changent une fois par épisode d'entraînement, de la même manière que les changements physiologiques dans les forces synaptiques stockent les souvenirs à long terme ; les modèles d'activation dans le réseau changent une fois par pas de temps, de la même manière que le changement d'instant en instant des modèles de tir électrique dans le cerveau stocke les souvenirs à court terme (53). L'architecture LSTM vise à fournir une mémoire à court terme pour RNN qui peut durer des milliers de pas de temps, donc « mémoire longue à court terme ». Les réseaux LSTM sont bien adaptés à la classification, au traitement et à la réalisation de prédictions basées sur des données de séries chronologiques, car il peut y avoir des décalages de durée inconnue entre des événements importants d'une série chronologique.
Nous modifions notre réseau de neurones en ajoutant une couche LSTM avant la couche MLP. Cela permettra au réseau neuronal de traiter les données d'entrée de la série chronologique avant de les transmettre au MLP pour effectuer la classification (Fig. 7).
La couche LSTM contient 18 cellules LSTM connectées en série. L'entrée correspond aux données RSRP/RSRQ introduites dans la première cellule LSTM et traitées en série vers les cellules LSTM suivantes. En plus de fournir une entrée à la cellule LSTM suivante, les 18 cellules LSTM fournissent également une entrée aux 18 couches d'entrée du MLP qui rempliront en outre la fonction de classification. Grâce à cette architecture, n'importe quelle longueur arbitraire d'entrée peut être traitée, contrairement au réseau neuronal MLP qui nécessite une entrée de longueur fixe. Le taux d'abandon est choisi de 50 % et l'architecture de la couche MLP est la même avec la méthode précédente 18 nœuds d'entrée, 4 nœuds cachés et 1 nœud de sortie (Fig. 6). La fonction d'activation est reprise dans le calque caché et sigmoïde dans la couche de sortie. Le processus de formation est effectué avec 150 itérations sur l'ensemble des données de formation (époque = 150), et le modèle est mis à jour toutes les 10 données d'entraînement (taille du lot = 10).
7. Conception de simulation et collecte de données
Dans cette recherche, nous avons créé deux environnements réseau pour deux expériences. La première contient trois cellules, un UE mobile et un bâtiment créant un trou de couverture (Fig. 8). Le second contient quatre cellules, un UE mobile et deux bâtiments créant deux trous de couverture (Fig. 9). Cet environnement est construit à l'aide du simulateur de réseau NS3 LTE [54] basé sur des études antérieures [33], [36]. Les paramètres de simulation réutilisent les travaux précédents comme décrit dans le tableau 2.
A chaque simulation, l'UE se déplace vers la droite du réseau avec un angle de trajectoire aléatoire. En raison de ce mouvement, l'UE doit effectuer un transfert de la cellule 1 vers la cellule 2 ou la cellule 3 (ou également la cellule 4 pour une simulation à 4 cellules), en fonction de l'angle de trajectoire. L'UE télécharge également des fichiers pendant le mouvement et, à la fin, le téléchargement peut réussir ou non. Pour chaque simulation, nous avons noté la cellule cible, l'état de réussite du téléchargement et le RSRP/RSRQ mesuré par l'UE.
L'activité de simulation peut être décrite sur la figure 10. Notre simulation contient trois activités : la génération de données d'entraînement (1), les simulations de transfert utilisant l'algorithme traditionnel (2), la détermination des cellules cibles à l'aide du Near-RT RIC (3) et la vérification du résultat de transfert de la cellule cible déterminée par Near-RT RIC (4).
Pour créer les données de formation, nous avons exécuté 100 simulations de transfert déterministe vers chaque cellule voisine. Les 100 premières simulations sont des cas de transfert déterministes dans lesquels l'UE est obligé d'effectuer un transfert vers la cellule 2 quel que soit l'angle de trajectoire. Les 100 simulations suivantes sont également des cas de transfert déterministe mais cette fois vers la cellule 3. Il y a également les 100 simulations suivantes vers la cellule 4 pour une simulation à 4 cellules. Cette activité est décrite comme la première activité sur la figure 10.
Pour comparer les performances des algorithmes de transfert (l'algorithme traditionnel et nos algorithmes proposés basés sur RIC), nous avons exécuté d'autres simulations de transfert non déterministe. Dans ces simulations, l'UE peut effectuer un transfert vers n'importe quelle cellule voisine, en utilisant un algorithme de transfert traditionnel, basé sur les mesures RSRP/RSRQ. Le résultat de ces simulations (état de réussite du téléchargement et mesure RSRP/RSRQ) est le résultat du transfert traditionnel. algorithme de transfert et est utilisé comme référence pour être comparé aux algorithmes basés sur l’apprentissage automatique exécutés dans le RIC Near-RT. La mesure RSRP/RSRQ pour ces simulations est également utilisée comme entrée pour l'algorithme de transfert basé sur RIC. Cette activité est décrite comme la deuxième activité sur la figure 10.
Ensuite, nous avons effectué des simulations de transfert basées sur RIC. Pour chaque exécution de simulation, nous avons effectué la détermination des cellules cibles à l'aide de l'algorithme basé sur l'apprentissage automatique dans Near-RT RIC en fournissant des mesures RSRP et RSRQ des mêmes simulations que celles que nous avons exécutées dans le processus d'algorithme de transfert traditionnel. L'algorithme du Near-RT RIC obtiendrait alors le score de chaque cellule voisine existante dans le réseau. La cellule avec le score le plus élevé est alors choisie comme cellule cible. Cette activité est décrite comme la troisième activité sur la figure 10.
À partir du RIC Near-RT, nous avons uniquement obtenu la cellule cible, mais pas encore le statut de réussite du téléchargement. Par conséquent, nous devons effectuer une vérification à l'aide de NS3 pour vérifier si le téléchargement a réussi ou non, compte tenu de la cellule cible du RIC Near-RT. Ensuite, nous avons effectué à nouveau un transfert déterministe en utilisant NS3 mais en utilisant la cellule cible obtenue par Near-RT RIC. À partir de là, nous obtenons le statut de réussite du téléchargement si le transfert est contrôlé par le RIC Near-RT. Cette activité est décrite comme la quatrième activité sur la figure 10.
Nous choisissons le taux de réussite du téléchargement comme principale mesure de performance. Comme indiqué dans l'équation. (1) à la sect. 2, le processus de transfert est amélioré au mieux en réduisant la probabilité d'échec du transfert, évitant ainsi un transfert inutile et un transfert vers une mauvaise cellule. Sur la base de cette déclaration, nous nous concentrons sur le processus de détermination des cellules cibles. Nous décidons de la mesure de performance en tant que taux de réussite du téléchargement si nous utilisons une certaine méthode pour sélectionner la cellule cible.
8. Résultat de la simulation et discussion
Comme décrit dans la sect. 7, nous avons déjà effectué trois ensembles de simulations dans nos articles précédents : le transfert traditionnel, le transfert Near-RT RIC utilisant VAR et le Near-RT RIC utilisant le réseau neuronal MLP. Dans cet article, nous proposons une méthode supplémentaire qui est le Near-RT RIC utilisant le réseau neuronal LSTM et nous avons également effectué un autre ensemble de simulations. Le transfert traditionnel a été effectué à l'aide du simulateur NS3 et nous avons noté la mesure RSRP/RSRQ et les résultats du transfert (cellule cible et statut de réussite du téléchargement). La mesure RSRP/RSRQ de ces simulations a été utilisée comme entrée dans les simulations de transfert RIC Near-RT. Après cela, nous avons comparé le taux de réussite du téléchargement de toutes les simulations parmi toutes les méthodes (Fig. 11 et Fig. 12). Nous avons effectué toutes ces simulations dans deux scénarios de réseau : 3 cellules avec 1 trou de couverture et 4 cellules avec 2 trous de couverture.
Fig. 11 Comparaison des résultats de simulation pour un réseau avec 3 cellules et 1 trou de couverture. |
Fig. 12 Comparaison des résultats de simulation pour un réseau avec 4 cellules et 2 trous de couverture. |
Le taux de téléchargement réussi pour l'algorithme de transfert traditionnel, dans un environnement à 3 cellules et 1 trou de couverture, est de 86.2 %, et non de 100 % en raison de la présence du trou de couverture. Toutes les simulations avec des téléchargements échoués se sont produites lorsque l'UE a été transféré à la cellule 2 (sur la base de la meilleure mesure RSRP/RSRQ), mais il est entré dans le trou de couverture derrière le bâtiment après le transfert. S'il a été remis à la cellule 3 au lieu de la cellule 2, le téléchargement peut réussir car la cellule 3 n'a pas été obstruée par le bâtiment. Ce résultat montre que parfois l’algorithme de transfert traditionnel n’est pas fiable dans des conditions non idéales.
Ce taux de téléchargement réussi pour l'algorithme de transfert traditionnel s'aggrave dans l'environnement à 4 cellules et 2 trous de couverture, qui n'atteint que 29 %. Les deux trous de couverture ont créé un espace vide dans le réseau qui a provoqué un échec de téléchargement si l'UE effectuait un transfert vers la cellule 2 ou la cellule 3. L'UE peut connaître un téléchargement réussi s'il effectuait un transfert vers la cellule 4, mais la cellule 4 n'est jamais un transfert réussi. option dans l’algorithme de transfert traditionnel car les RSRP/RSRQ sont trop faibles au moment du transfert.
Lorsque nous avons déterminé la cellule cible à l'aide du RIC Near-RT dans l'environnement réseau à 3 cellules et 1 trou de couverture, les taux de téléchargement réussi augmentent pour la plupart, en fonction de la méthode et de la quantité de données d'entraînement (Fig. 11). Si QoE Predictor xApp utilise l'autorégression vectorielle (VAR), le taux de réussite peut atteindre 95.3 % en utilisant les 100 données d'entraînement disponibles, 94.1 % avec 50 données d'entraînement et 92.7 % avec seulement 25 données d'entraînement. Si nous utilisons MLP-NN, le taux de réussite est légèrement inférieur mais toujours supérieur à l'algorithme traditionnel dans la plupart des cas, le taux de réussite du téléchargement peut atteindre 91.9 % en utilisant les 100 données d'entraînement disponibles et 88.4 % en utilisant seulement 50 données d'entraînement. Cependant, les performances ont chuté à seulement 58.8 % si nous n'utilisons que 25 données d'entraînement (encore moins que l'algorithme de transfert traditionnel). Grâce à notre nouveau LSTM-NN proposé, le taux de réussite est supérieur à celui des autres méthodes, atteignant 97.6 % en utilisant 100 données d'entraînement, 95.7 % en utilisant 50 données d'entraînement et 91.8 % en utilisant seulement 25 données d'entraînement.
Si nous utilisons le RIC Near-RT pour déterminer la cellule cible dans l'environnement réseau à 4 cellules et 2 trous de couverture, certaines méthodes peuvent augmenter considérablement le taux de réussite, avec suffisamment de données d'entraînement. Comme le montre la figure 12, VAR n'a pas été très performant dans cet environnement réseau. Notre précédente méthode MLP-NN fonctionnait mieux, mais en fin de compte, notre nouvelle méthode LSTM-NN a mieux fonctionné pour cet environnement.
Les travaux connexes [6] ont rapporté que la méthode proposée atteignait un taux de réussite de téléchargement de 95.37 % par rapport à la méthode de pointe qui ne donne que 54.45 % dans leur simulation. Cependant, ils n’ont pas effectué l’implémentation dans le RIC Near-RT.
Il est démontré que les algorithmes d'apprentissage automatique peuvent fournir de meilleures performances de transfert en déterminant la bonne cellule cible dans des conditions de réseau non idéales, avec suffisamment de données d'entraînement. Plus il y a de données d’entraînement, meilleures sont les performances. D'après le résultat de la simulation, notre LSTM-NN nouvellement proposé fonctionne mieux que toutes les autres méthodes et nous l'avons prouvé dans les deux cas d'environnement réseau.
En résumé, toutes les méthodes de transfert discutées dans cet article peuvent être comparées dans le tableau 3. Le VAR modifié et le MLP-NN sont nos méthodes proposées précédemment [13], [14] tandis que LSTM-NN est la méthode actuellement proposée.
En outre, nous avons également comparé d’autres méthodes basées sur RNN conçues pour la classification de séries chronologiques. Nous avons remplacé la couche LSTM par la couche GRU et SimpleRNN. Aucune modification n'a été effectuée dans la couche MLP et les hyperparamètres. Le résultat est similaire à la méthode LSTM mais LSTM reste supérieure à ces méthodes (Fig. 13). Ces méthodes sont cependant très prometteuses pour de futures explorations.
9. Conclusion et travaux futurs
Le processus de transfert peut provoquer une interruption de la transmission des données, en particulier dans des conditions de mobilité élevée où les conditions radio peuvent se détériorer en raison de la vitesse de l'utilisateur. Augmenter la probabilité de transferts réussis, par exemple en s'assurant d'effectuer le transfert vers la cellule cible correcte, peut minimiser cette interruption. Par conséquent, la détermination des cellules cibles est très importante dans le processus de transfert.
Dans cet article, nous avons présenté le résultat de notre nouvelle méthode proposée, le réseau neuronal LSTM, utilisant le RIC O-RAN Near-RT pour déterminer la cellule cible dans le processus de transfert. Cette nouvelle méthode constitue une amélioration de nos précédentes méthodes basées sur l'apprentissage automatique, qui gère mieux la nature des séries chronologiques des données d'entrée. À partir du résultat de la simulation, on peut conclure que cette méthode peut être utilisée et s'est avérée meilleure pour déterminer la cellule cible par rapport à d'autres méthodes, à l'algorithme de transfert traditionnel et à nos précédentes méthodes basées sur l'apprentissage automatique. Les performances des algorithmes dépendent de la méthode et de la quantité de données d'entraînement.
À l'avenir, nous améliorerons encore le réseau neuronal pour obtenir de meilleures performances. Nous prévoyons de tester cette méthode dans un autre environnement réseau non idéal autre que le cas du trou de couverture. Nous prévoyons également d'explorer les possibilités d'utilisation d'autres méthodes basées sur RNN telles que GRU et SimpleRNN.
Références
[1] M.S. Obaidat and P. Nicopolitidis, Smart Cities and Homes: Key Enabling Technologies, Morgan Kaufmann, 2016.
CrossRef
[2] H.S. Park, Y. Lee, T.J. Kim, B.C. Kim, and J.Y. Lee, “Handover mechanism in NR for ultra-reliable low-latency communications,” IEEE Netw., vol.32, no.2, pp.41-47, 2018.
CrossRef
[3] 3GPP, “NR; User Equipment (UE) radio transmission and reception; part 2: Range 2 standalone-Rel. 16,” 2020.
[4] P.V. Klaine, M.A. Imran, O. Onireti, and R.D. Souza, “A survey of machine learning techniques applied to self-organizing cellular networks,” IEEE Commun. Surveys Tuts., vol.19, no.4, pp.2392-2431, 2017.
CrossRef
[5] C. Lee, H. Cho, S. Song, and J.M. Chung, “Prediction-based conditional handover for 5G mm-Wave networks: A deep-learning approach,” IEEE Veh. Technol. Mag., vol.15, no.1, pp.54-62, 2020.
CrossRef
[6] Z. Ali, N. Baldo, J. Mangues-Bafalluy, and L. Giupponi, “Machine learning based handover management for improved QoE in LTE,” Proc. NOMS 2016 - 2016 IEEE/IFIP Network Operations and Management Symposium, no.5, pp.794-798, 2016.
CrossRef
[7] N. Sinclair, D. Harle, I.A. Glover, J. Irvine, and R.C. Atkinson, “An advanced SOM algorithm applied to handover management within LTE,” IEEE Trans. Veh. Technol., vol.62, no.5, pp.1883-1894, 2013.
CrossRef
[8] N.M. Alotaibi and S.S. Alwakeel, “A neural network based handover management strategy for heterogeneous networks,” Proc. 2015 IEEE 14th International Conference on Machine Learning and Applications, ICMLA 2015, pp.1210-1214, 2016.
CrossRef
[9] M.A.F. Rihani, M. Mroue, J.C. Prevotct, F. Nouvel, and Y. Mohanna, “A neural network based handover for multi-RAT heterogeneous networks with learning agent,” Proc. 13th International Symposium on Reconfigurable Communication-Centric Systems-on-Chip, ReCoSoC 2018, 2018.
CrossRef
[10] B. Shubyn, N. Lutsiv, O. Syrotynskyi, and R. Kolodii, “Deep learning based adaptive handover optimization for ultra-dense 5G mobile networks,” Proc. 15th International Conference on Advanced Trends in Radioelectronics, Telecommunications and Computer Engineering, TCSET 2020, pp.869-872, 2020.
CrossRef
[11] G. Masini, Y. Gao, and S. Sirotkin, “Artificial intelligence and machine learning in NG-RAN: New study in RAN3,” 2021.
[12] O-RAN, “O-RAN: Towards an Open and Smart RAN,” White Paper, Oct. 2018.
[13] B.H. Prananto, Iskandar, and A. Kurniawan, “Handover improvement using O-RAN near-RT RIC for network with coverage hole,” IEICE Commun. Express, vol.11, no.1, pp.19-23, 2023.
CrossRef
[14] B.H. Prananto, Iskandar, and A. Kurniawan, “A new method to improve frequent-handover problem in high-mobility communications using RIC and machine learning,” IEEE Access, vol.11, pp.72281-72294, 2023.
CrossRef
[15] J. Agrawal, P. Mor, J. Keller, R. Patel, and P. Dubey, “Introduction to the basic LTE handover procedures,” 2015 International Conference on Communication Networks (ICCN), pp.197-201, 2015.
CrossRef
[16] 3GPP TS 36.300, “3GPP TS 36.300 V16.0.0 (2019-12) evolved universal terrestrial radio access (E-UTRA) and evolved universal terrestrial radio access network (E-UTRAN) overall description Stage 2 (Release 10),” 2013.
[17] 3GPP TR 38.913, “Study on scenarios and requirements for next generation access technologies (Release 16),” 2020.
[18] 3GPP TR 36.881, “Evolved universal terrestrial radio access (E-UTRA) study on latency reduction techniques for LTE (Release 14),” 2016.
[19] A. Chincholi, M. Menon, and L. Hsu, “Measurement gap enhancements for BL/CE UEs,” World Intellectual Property Organization WO 2019/094977 Al, May 2019.
[20] M. Polese, M. Giordani, M. Mezzavilla, S. Rangan, and M. Zorzi, “Improved handover through dual connectivity in 5G mmWave mobile networks,” IEEE J. Sel. Areas Commun., vol.35, no.9, pp.2069-2084, 2017.
CrossRef
[21] H.L. Wang, S.J. Kao, C.Y. Hsiao, and F.M. Chang, “A moving direction prediction-assisted handover scheme in LTE networks,” J. Wireless Com. Network., vol.2014, no.1, 190, 2014.
CrossRef
[22] H. Martikainen, I. Viering, A. Lobinger, and T. Jokela, “On the basics of conditional handover for 5G mobility,” IEEE International Symposium on Personal, Indoor and Mobile Radio Communications, PIMRC, vol.2018-Septe, no.2, 2018.
CrossRef
[23] I.L. Da Silva, C. Eklöf, J. Muller, and R. Zhohov, “This is the key to mobility robustness in 5G networks,” Ericsson.com, https://www.ericsson.com/en/blog/2020/5/the-key-to-mobility-robustness-5g-networks, accessed March 13 2024.
URL
[24] Y. Koda, K. Yamamoto, T. Nishio, and M. Morikura, “Reinforcement learning based predictive handover for pedestrian-aware mmWave networks,” INFOCOM 2018 - IEEE Conference on Computer Communications Workshops, pp.692-697, 2018.
CrossRef
[25] C. Wang, L. Ma, R. Li, T.S. Durrani, and H. Zhang, “Exploring trajectory prediction through machine learning methods,” IEEE Access, vol.7, pp.101441-101452, 2019.
CrossRef
[26] R.V. Akhpashev and V.G. Drozdova, “Spatial interpolation of LTE measurements for minimization of drive tests,” International Conference of Young Specialists on Micro/Nanotechnologies and Electron Devices, EDM, vol.2018-July, pp.136-138, 2018.
CrossRef
[27] A. Suresh Kumar, S. Vanmathi, B. Praveen Sanjay, S. Ramya Bharathi, and M. Sakthi Meena, “Handover forecasting in 5G using machine learning,” International Journal of Engineering and Technology (UAE), vol.7, no.2, pp.76-79, 2018.
CrossRef
[28] A. Masri, T. Veijalainen, H. Martikainen, S. Mwanje, and J. Ali-Tolppa, “Machine-learning-based predictive handover,” IEEE IM 2021- France, no.Im, pp.648-652, 2021.
URL
[29] Expert.AI Team, “What is machine learning?,” Expert.AI, https://www.expert.ai/blog/machine-learning-definition/, accessed March 13 2024.
URL
[30] T. Mitchell, Machine Learning, McGraw Hill, 1997.
[31] X. Chen, F. Meriaux, and S. Valentin, “Predicting a user’s next cell with supervised learning based on channel states,” IEEE Workshop on Signal Processing Advances in Wireless Communications, SPAWC, pp.36-40, 2013.
CrossRef
[32] L. Yan, H. DIng, L. Zhang, J. Liu, X. Fang, Y. Fang, M. Xiao, and X. Huang, “Machine learning-based handovers for sub-6 GHz and mmWave integrated vehicular networks,” IEEE Trans. Wireless Commun., vol.18, no.10, pp.4873-4885, 2019.
CrossRef
[33] T. Cabral De Brito, G. Advisor, and V.A. De Sousa, “Machine learning based handover management for LTE networks with coverage holes,” Ph.D. Thesis, Universidade Federal do Rio Grande do Norte, 2018.
[34] L.L. Vy, L.P. Tung, and B.S.P. Lin, “Big data and machine learning driven handover management and forecasting,” 2017 IEEE Conference on Standards for Communications and Networking, CSCN 2017, no.September 2019, pp.214-219, 2017.
CrossRef
[35] V. Yajnanarayana, H. Ryden, and L. Hevizi, “5G handover using reinforcement learning,” 2020 IEEE 3rd 5G World Forum, 5GWF 2020 - Conference Proceedings, pp.349-354, 2020.
CrossRef
[36] Z. Ali, N. Baldo, J. Mangues-Bafalluy, and L. Giupponi, “Simulating LTE mobility management in presence of coverage holes with ns-3,” SIMUTOOLS 2015 - 8th EAI International Conference on Simulation Tools and Techniques, 2015.
CrossRef
[37] J. Nakazato, M. Kuchitsu, A. Pawar, S. Masuko, K. Tokugawa, K. Kubota, K. Maruta, and K. Sakaguchi, “Proof-of-concept of distributed optimization of micro-services on edge computing for beyond 5G,” IEEE Vehicular Technology Conference, vol.2022-June, pp.1-6, 2022.
CrossRef
[38] A. Akman, “O-RAN Working Group 1 Use Cases Detailed Specification,” O-RAN Alliance e.V. Technical Specification, 2020.
[39] Nokia, “Nokia launches first commercial Service Enablement Platform to drive Open RAN innovation,” Nokia Press Release, https://www.nokia.com/about-us/news/releases/2021/03/11/nokia-launches-first-commercial-service-enablement-platform-to-drive-open-ran-innovation/, accessed March 13 2024.
URL
[40] O. Orhan, V.N. Swamy, T. Tetzlaff, M. Nassar, H. Nikopour, and S. Talwar, “Connection management xAPP for O-RAN RIC: A graph neural network and reinforcement learning approach,” 2021 20th IEEE International Conference on Machine Learning and Applications (ICMLA), pp.936-941, 2021.
CrossRef
[41] Y. Li, E. Datta, J. Ding, N.B. Shroff, and X. Liu, “Can online learning increase the reliability of extreme mobility management?,” 2021 IEEE/ACM 29th International Symposium on Quality of Service, IWQOS 2021, pp.0-5, 2021.
CrossRef
[42] L. Bonati, S. D’Oro, M. Polese, S. Basagni, and T. Melodia, “Intelligence and learning in O-RAN for data-driven NextG cellular networks,” IEEE Commun. Mag., vol.59, no.10, pp.21-27, 2021.
CrossRef
[43] H. Lee, Y. Jang, J. Song, and H. Yeon, “O-RAN AI/ML workflow implementation of personalized network optimization via reinforcement learning,” 2021 IEEE Globecom Workshops (GC Wkshps), pp.1-6, 2021.
CrossRef
[44] F. Cefalu, “O-RAN SC Wiki: Getting started,” O-RAN SC Confluence, https://wiki.o-ran-sc.org/display/GS/Getting+Started, accessed March 13 2024.
URL
[45] D. Karnwal, “Anomaly detection use case,” O-RAN SC Confluence, https://wiki.o-ran-sc.org/display/RICP/Anomaly+Detection+Use+Case, accessed March 13 2024.
URL
[46] B.H. Prananto, Iskandar, and A. Kurniawan, “Study on neural network for cellular mobility management: NS3 simulation with coverage hole case,” Proc. 15th International Conference on Telecommunication Systems, Services, and Applications, TSSA 2021, pp.1-6, 2021.
CrossRef
[47] B.H. Prananto, Iskandar, and A. Kurniawan, “O-RAN intelligent application for cellular mobility management,” 9th International Conference on ICT for Smart Society: Recover Together, Recover Stronger and Smarter Smartization, Governance and Collaboration, ICISS 2022 - Proceeding, pp.1-6, 2022.
CrossRef
[48] J. Brownlee, “Long short-term memory networks with Python: Develop sequence prediction models with deep learning,” 2017.
[49] J. Faouzi, “Time series classification: A review of algorithms and implementations,” Machine Learning (Emerging Trends and Applications), hal-03558165, in press.
[50] H. Ismail Fawaz, G. Forestier, J. Weber, L. Idoumghar, and P.A. Muller, “Deep learning for time series classification: A review,” Data Min. Knowl. Disc., vol.33, no.4, pp.917-963, 2019.
CrossRef
[51] S. Hochreiter and J. Schmidhuber, “Long short-term memory,” Neural Computation, vol.9, no.8, pp.1735-1780, 1997.
CrossRef
[52] F.A. Gers, D. Eck, and J. Schmidhuber, “Applying LSTM to time series predictable through time-window approaches,” Artificial Neural Networks ― ICANN 2001, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol.2130, pp.669-676, 2001.
CrossRef
[53] J.L. Elman, “Finding structure in time,” Cognitive Science, vol.14, no.2, pp.179-211, 1990.
CrossRef
[54] NS3, “Design documentation ― Model library.”