La fonctionnalité de recherche est en construction.
La fonctionnalité de recherche est en construction.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Open Access
A Tutorial and Review of Automobile Direct ToF LiDAR SoCs: Evolution of Next-Generation LiDARs
Open Access
Un didacticiel et une revue des SoC Automobile Direct ToF LiDAR : évolution des LiDAR de nouvelle génération

Kentaro YOSHIOKA

  • Vues en texte intégral

    160

  • Citer
  • Free PDF (2MB)

Résumé:

Le LiDAR est un capteur de distance qui joue un rôle clé dans la réalisation de systèmes avancés d'aide à la conduite (ADAS). Dans cet article, nous présentons un didacticiel et une revue du LiDAR à temps de vol direct (dToF) automobile du point de vue des systèmes de circuits. Nous discutons de la percée des ADAS LiDAR par comparaison avec les systèmes LiDAR de première génération, qui étaient traditionnellement coûteux et dont les performances étaient immatures. Nous définissons les LiDAR actuels à hautes performances et à faible coût comme des systèmes LiDAR de nouvelle génération, qui ont considérablement amélioré le coût et les performances en intégrant le photodétecteur, le circuit de lecture et l'unité de traitement du signal dans un seul SoC. Cet article s'adresse aux lecteurs qui découvrent les ADAS LiDAR et couvrira les principes de base du LiDAR, en les comparant également avec les méthodes de distance autres que dToF. De plus, nous discutons du développement de ce domaine à travers les derniers exemples de recherche tels que l'approche à 2 puces, la matrice SPAD 2D et les LiDAR intégrés 3D.

Publication
IEICE TRANSACTIONS on Electronics Vol.E105-C No.10 pp.534-543
Date de publication
2022/10/01
Publicisé
2022/04/11
ISSN en ligne
1745-1353
DOI
10.1587/transele.2021CTI0002
Type de manuscrit
Special Section INVITED PAPER (Special Section on Analog Circuits and Their Application Technologies)
Catégories

1. Introduction

Les humains disposent de meilleurs capteurs et mécanismes de prise de décision que la plupart des systèmes matériels et logiciels modernes. Même si nous commettons de temps en temps des erreurs incroyablement enfantines ; de telles erreurs ont des conséquences irréversibles, notamment lors de la conduite automobile. Rien qu'au Japon, le nombre de morts et de blessés dans des accidents de la route en 2021 a atteint respectivement 2,636 361,768 et 1 1 [2]. Puisqu’il est impossible de réduire à zéro les erreurs humaines, des technologies de systèmes avancés d’aide à la conduite (ADAS) sont développées pour compenser ces erreurs. À titre d'étape importante, SAE a fixé cinq niveaux pour la conduite automatisée, comme le montre le tableau 2022 [0]. Par exemple, depuis 1, la conduite automatisée de niveau 2-3, comme le freinage automatique et le maintien de la voie, est disponible dans de nombreux véhicules utilitaires. Pour ne citer que quelques exemples, Tesla a lancé une fonction de conduite partiellement automatisée de niveau 3, et Honda a également équipé ses produits de fonctions de conduite automatisée équivalentes au niveau XNUMX (bien que l'utilisation de telles fonctions soit encore limitée) [XNUMX]. Ainsi, à long terme, les fonctions de conduite sont transférées des conducteurs humains vers des systèmes contrôlés par des machines.

Tableau 1  Six niveaux de conduite automatisée définis par SAE.

Il existe deux approches principales de la conduite automatisée : 1) conduire en reconnaissant constamment les objets et les situations environnantes comme un humain [4], et 2) en utilisant une carte 3D préenregistrée de l'environnement et en estimant la position de l'ego en ajustant les données 3D détectées à la carte préenregistrée [5]. Alors que les premiers peuvent conduire dans un environnement sans aucune information cartographique, il existe un risque qu'une erreur de détection inattendue, par exemple en négligeant les points gore, puisse entraîner de graves conséquences. Cependant, même si cette dernière nécessite des informations cartographiques enregistrées, elle peut atténuer les accidents ci-dessus en étiquetant à l'avance la zone de conduite possible. En particulier, un capteur de profondeur de haute qualité est essentiel pour ce dernier système de conduite automatisée. De plus, le capteur de distance haute résolution peut être utilisé pour reconnaître les voitures et les piétons environnants en détectant des objets en nuage de points [6], [7], obtenant simultanément les distances entre les objets.

Nous résumons les capteurs de profondeur typiques utilisés dans les systèmes ADAS dans le tableau 2. Il est important de noter qu'il existe un compromis entre performances et coût pour tous les capteurs. Contrairement aux radars à ondes millimétriques (mmwave), aux caméras stéréo et aux capteurs à ultrasons, les capteurs de détection et de télémétrie par la lumière (LiDAR) nécessitent un composant mécanique pour le balayage, ce qui rend le LiDAR plus cher que les autres capteurs. D’un autre côté, malgré leur coût, les LiDAR ont attiré l’attention car ils sont les seuls capteurs de profondeur capables de fournir des mesures à haute résolution et à longue portée.

Tableau 2  Un capteur de distance utilisé dans les systèmes ADAS typiques est illustré. Il y a un compromis entre coût et performance.

Ensuite, les exigences des capteurs de distance pour la conduite automatisée sont discutées. Étant donné que 150 m correspond à la distance de freinage d'une voiture roulant à 120 km/h sur une autoroute, un capteur de distance capable de détecter 200 m est nécessaire pour la surveillance vers l'avant. Cet objectif est très ambitieux, étant donné que le VLP-32 [8] a une distance maximale de 50 m et ne répond pas aux exigences d'utilisation de l'autoroute. De plus, lors de la conduite en zone urbaine, il est essentiel de ne pas négliger les piétons se trouvant à distance. Ainsi, une détection de profondeur avec une haute résolution est requise (par exemple, une résolution horizontale de 0.1 à 0.2 degrés), ce qui est très difficile à réaliser avec des capteurs ultrasoniques ou radar [9], [10].

Il est également crucial d'avoir la capacité de détecter toutes les conditions météorologiques (par exemple, ensoleillement extrême, pluie, neige, brouillard) pour accroître la fiabilité de la conduite automatisée. Parmi le tableau 2, le radar à ondes millimétriques est un capteur qui n'est pas facilement affecté par la météo. En revanche, lorsqu’un LiDAR est placé dans un environnement brumeux, sa portée effective est raccourcie car le laser est diffusé. Il est difficile de construire un système de conduite automatisé fiable avec un seul capteur pour ces raisons. Ainsi, il sera nécessaire d'adopter une approche de fusion de capteurs où les capteurs compensent les faiblesses de chacun [11], [12].

Cet article passe en revue le développement du LiDAR automobile pour la conduite automatique du point de vue des systèmes de circuits. Bien qu'un certain nombre de présentations lors de conférences aient été faites ces dernières années, à notre connaissance, il n'existe aucun document de synthèse complet sur les LiDAR pour la conduite automatique. Le lectorat cible de cet article est destiné à se situer au niveau d'introduction à l'ADAS LiDAR, et nous nous sommes fixés pour objectif d'obtenir un aperçu général de l'orientation de la recherche dans ce domaine. L’accent principal sera mis sur le LiDAR dToF doté de mécanismes de balayage utilisant des lasers de 850 à 950 nm, qui devraient être produits en série pour les applications automobiles à partir de 2022 [13]-[26]. Par conséquent, le LiDAR à 1550 27 nm [28], le FMCW LiDAR [29], [30], le Flash LiDAR [32]-[33] et l’iToF LiDAR [36]-[XNUMX] sont mentionnés à titre de comparaison, mais ne sont pas les cibles principales. de la revue. De plus, la discussion se concentrera autant que possible sur le système de circuits LiDAR, en particulier le photodétecteur (PD), les circuits de lecture et le traitement du signal, et la discussion sur l'optique et les lasers sera réduite au minimum.

Nous organisons cet article comme suit : dans le chapitre 2, nous expliquons le principe de mesure du LiDAR dToF et les enjeux propres aux LiDAR ADAS. Puis, au chapitre 3, le LiDAR de première génération est étudié en détail. Bien que le LiDAR de première génération ait apporté une contribution significative aux prototypes de conduite automatisée, son coût élevé a posé des défis à la production de masse. Ensuite, dans les chapitres 4 et 5, nous verrons comment les derniers LiDAR, que nous appelons LiDAR de nouvelle génération, ont réalisé une percée en termes de coût et de performances. Enfin, le chapitre 6 résume et discute les perspectives du domaine.

2. Fondamentaux du LiDAR

2.1 Défis du LiDAR automobile

Tout d'abord, le principe de la mesure directe de la distance par temps de vol (dToF) est brièvement expliqué sur la base de la figure 1. Ce type de LiDAR dérive la distance en fonction du temps de vol (ToF), qui est le temps qu'il faut pour que le laser émis soit réfléchi par l'objet cible.

\[\begin{eqnarray*} \textrm{Distance} = \frac{\textrm{Light speed} \times \textrm{ToF}}{2} \tag{1} \end{eqnarray*}\]

Ainsi, pour des mesures précises, un circuit de lecture avec une résolution temporelle élevée est requis (par exemple, un CAN avec un taux d'échantillonnage élevé).

Fig. 1  Principe de mesure de distance des LiDAR dToF.

Bien que le principe dToF lui-même soit simple, les LiDAR automobiles sont difficiles à concevoir, principalement en raison des points suivants.

  • Puisqu'il est monté sur un véhicule se déplaçant rapidement, des mesures à longue portée sont nécessaires.
  • Pour un fonctionnement ADAS robuste, il doit fournir des mesures précises malgré diverses conditions météorologiques.

Dans le premier cas, le laser décroît comme le carré de la distance. Par exemple, le nombre de photons laser renvoyés est de 1/16 pour une mesure de distance de 200 m contre 50 m, ce qui rend l'opération très difficile. De plus, la lumière du soleil est la source de bruit la plus importante pour les LiDAR extérieurs : pour les applications automobiles, le LiDAR doit fonctionner sous un ensoleillement extrême. La figure 2 illustre des conditions de fonctionnement aussi difficiles, dans lesquelles les sorties déclenchées par la lumière solaire peuvent être plus importantes que celles du laser dans des conditions de mesure à longue portée.

Fig. 2  Dans le LiDAR automobile, la forte lumière du soleil constitue la plus grande source de bruit et entraîne directement des erreurs de mesure.

En principe, la télémétrie LiDAR peut être exprimée en termes de SNR, où le signal est défini comme le nombre de photons laser renvoyés et le bruit comme le nombre de photons de bruit (principalement la lumière du soleil) entrés dans une certaine unité de temps [16].

\[\begin{eqnarray*} \textrm{LiDAR SNR} = \log_{20}{\frac{\textrm{Number of laser photons}}{\textrm{Number of noise photons}}} \tag{2} \end{eqnarray*}\]

Une autre restriction pour le LiDAR automobile est que la puissance laser émettrice doit être conforme aux exigences de sécurité oculaire. Pour les applications automobiles, il est courant de respecter la sécurité oculaire de classe 1 la plus stricte, c'est-à-dire que le laser ne doit en aucun cas endommager l'œil humain. En d’autres termes, en raison des limitations strictes de la puissance du laser, la puissance du signal ne peut pas être augmentée davantage. D’un autre côté, l’équation. (2) montre que les filtres optiques qui filtrent la lumière du soleil et une sensibilité accrue des PD peuvent contribuer au SNR.

2.2 Architectures LiDAR de base

Le principe de fonctionnement de la figure 1 est connu sous le nom de ToF direct (dToF), qui est la principale méthode pour le LiDAR automobile. D'autre part, la méthode indirecte ToF (iToF) module le laser et mesure la distance en détectant le déphasage et permet une plus grande précision [33]-[36]. Cependant, iToF présente un compromis entre la distance de mesure et la précision, car une fréquence de modulation du capteur plus élevée conduit à une mesure précise mais à des distances de mesure plus courtes. De plus, comme le photodétecteur doit avoir une réponse linéaire pour capturer le laser modulé, il est nécessaire d'utiliser une photodiode à avalanche (APD) au lieu d'une diode à avalanche monophoton (SPAD) hautement sensible. De ce fait, la sensibilité PD est forcément inférieure à celle de la méthode dToF. Pour ces deux raisons, il est difficile d'atteindre les performances de mesure à 200 m requises pour l'ADAS, et iToF peut être plus adapté aux applications à courte portée nécessitant une haute précision, comme la robotique [37].

Les LiDAR dToF peuvent être classés en deux types : flash [30]-[32] et balayage. Comme le montre la figure 3, le flash émet un faisceau laser sur tout le champ de vision et un réseau 2D de PD reçoit la lumière réfléchie, à l'instar des capteurs d'image. L’avantage de la méthode flash est que le LiDAR est exempt de pièces mécaniques, ce qui se traduit par un faible coût et une fréquence d’images élevée. Cependant, lorsque le nombre de pixels dans le flash LiDAR est \(N \times M\), la puissance du laser P sera diffusé à \(N \times M\) pixels, ce qui entraîne une faible puissance laser de \(P/(N \times M)\) par pixel. Par conséquent, bien qu’il soit facile d’obtenir une haute résolution avec les LiDAR flash, les mesures à longue distance telles que \(>\)20 m, c'est difficile. Par conséquent, les applications potentielles du flash LiDAR sont les LiDAR à courte portée fixés sur le côté d’une voiture ou d’une application robotique. D’un autre côté, la numérisation des LiDAR permet d’obtenir M pixels et effectuez un balayage horizontal/vertical. Ainsi, la puissance laser par pixel est \(P/M\), ce qui est bien meilleur que le flash. D’un autre côté, le coût et les fréquences d’images se dégradent en raison de la procédure de numérisation.

Fig. 3  Une comparaison entre le LiDAR de type flash et le LiDAR de type scan est présentée. Le LiDAR de type flash irradie le faisceau laser sur l'ensemble du FoV en même temps, tandis que le LiDAR de type balayage utilise un mécanisme de balayage pour scanner le faisceau laser dans l'ordre. En revanche, le SNR est élevé pour ces derniers car la puissance laser peut être concentrée dans un petit nombre de pixels, et un tel balayage est indispensable pour les mesures à longue distance comme 200 m.

Il existe également plusieurs types de méthodes de balayage LiDAR : miroir rotatif [8], [26], miroir polygonal [13], [16], [18] et miroir MEMS [20], [21], [23]. Le miroir rotatif est extrêmement volumineux mais possède généralement de bonnes propriétés optiques (moins d’atténuation laser) et peut obtenir des données à 360 degrés. Le miroir polygonal obtient des données par balayage raster dans le FoV, comme le montre la figure 4. Afin d'effectuer de tels balayages, deux miroirs d'actionnement sont utilisés pour le chemin optique du laser et du récepteur. Ainsi, la mise en oeuvre devient encombrante du fait du montage du miroir lui-même et du moteur entraînant le miroir. Enfin, le miroir MEMS élimine le besoin de composants mécaniques volumineux en utilisant un micromiroir mobile extrêmement petit. Par conséquent, la taille du LiDAR peut être considérablement réduite et est parfois appelée LiDAR à semi-conducteurs. En revanche, le miroir MEMS présente de mauvaises propriétés optiques ; le compromis est la dégradation du LiDAR SNR.

Fig. 4  Un diagramme montrant un système LiDAR à balayage raster. En règle générale, le balayage raster 2D nécessite des mécanismes de balayage pour les trajets laser (TX) et laser de retour (RX).

3. LiDAR de première génération

Le LiDAR rotatif de Velodyne [8], [38], illustré sur la figure 5, est mis en œuvre en empilant verticalement les cartes laser et réceptrices. Nous définissons un tel LiDAR comme LiDAR de première génération dans cet article, car il a été publié au début de l'ADAS LiDAR. Cependant, ces LiDAR ont permis une détection de profondeur de haute qualité et ont joué un rôle clé dans de nombreux prototypes autonomes [5].

Fig. 5  Schéma Velodyne HDL-32 [38]

Comme le montre le schéma de la figure 6 (a), l'APD est utilisé comme PD du LIDAR de première génération. La sortie APD est amplifiée par TIA et VGA puis quantifiée par un CAN haute vitesse, et le ToF a été calculé dans le processeur numérique. Le LIDAR de première génération peut être considéré comme une intégration de capteurs de distance de mesure « ponctuels » constitués d’une paire laser et PD. D’un autre côté, une telle mise en œuvre nécessitait de nombreux composants discrets. En conséquence, le coût du LiDAR de première génération était très élevé et fragile. De plus, il était difficile d’adapter les performances sur un même boîtier car l’augmentation de la résolution impactait directement le nombre de composants. De plus, bien que les APD soient plus sensibles que les photodétecteurs ordinaires, ils étaient inadaptés aux mesures à longue distance.

Fig. 6  (a) Schéma système du LiDAR de première génération. (b) Schéma système des LiDAR de nouvelle génération.

4. LiDAR de nouvelle génération

Le LiDAR de première génération a fait progresser l’horizon de la conduite automatisée et a considérablement élargi le marché des ADAS. Cependant, il était difficile d’adopter cette technologie dans des véhicules produits en série sans réduire les coûts ni augmenter ses performances. Pour atteindre ces objectifs, des recherches sur LiDAR de nouvelle génération a été effectuée. Dans cet article, nous discutons du concept fondamental du LiDAR de nouvelle génération comme l'intégration du SPAD, du circuit de lecture et du circuit de traitement du signal.

Illustré sur la figure 6 (b), réf. [15] est une percée dans le SoC LiDAR, qui réalise l'intégration du réseau SPAD, du circuit de lecture, du DSP et de la mémoire dans une seule puce. Pour le LiDAR automobile, le nombre de SPAD par pixel est de plusieurs dizaines de secondes pour atténuer la saturation du signal (ou le temps d'extinction) comme décrit ci-dessous et, par conséquent, le nombre total de SPAD dans le réseau est de l'ordre de 10 à 100 1000. Ainsi, connecter ces SPAD au circuit de traitement du signal est assez difficile. Par conséquent, la réf. [15] ont conçu un SoC utilisant un processus CMOS haute tension pour intégrer 384 SPAD, circuits de lecture, DSP et mémoire sur une seule puce.

Fig. 7  SoC LiDAR entièrement intégré [15] © IEEE

Contrairement aux LiDAR de première génération qui utilisaient de nombreux composants discrets, ce SoC remplit la même fonction sur une seule puce, ouvrant la voie à des LiDAR à moindre coût. De plus, comme on l'appelle la loi de Moore, la mise à l'échelle CMOS devrait augmenter le nombre de transistors à moindre coût, rendant ainsi les performances du LiDAR évolutives.

4.1 Détecteurs SPAD

Les APD et les SPAD fonctionnent tous deux avec des photodiodes avec une forte polarisation inverse, mais les SPAD sont des photodétecteurs très sensibles capables de détecter un photon unique [39]-[43]. Les SPAD sont polarisés au-dessus de la tension de claquage (20-30 V dans le silicium) pour faire fonctionner les diodes en mode Geiger. En mode Geiger, lorsqu'un photon est reçu, le rapport d'amplification de l'appareil devient idéalement infini, permettant la détection de photons uniques en faisant circuler un courant important indépendant de l'intensité du photon. En revanche, si un tel courant continue à circuler, l’appareil sera détruit. Par conséquent, une rétroaction négative est appliquée par la résistance d'extinction associée pour arrêter le courant de force, comme sur la figure 8.

Fig. 8  Schéma et diagramme de fonctionnement du SPAD avec trempe passive. Lorsqu'un photon entre dans le SPAD, un courant d'avalanche circule dans le SPAD. Dans le même temps, une différence de potentiel dans la résistance d'extinction fait chuter la tension de polarisation SPAD, le mode Geiger s'arrête automatiquement. Même si une résistance d'extinction plus grande offre une meilleure fiabilité, le temps de recharge se prolonge et entraîne un temps mort plus long.

Le SPAD contribue aux performances à longue portée du LiDAR car sa forte amplification permet la détection de photons uniques et de lasers à faible retour lors de mesures longue distance. Le paramètre clé de conception du SPAD est la probabilité de réception de photons et est directement lié à la sensibilité du dispositif (c'est-à-dire l'efficacité quantique ou l'efficacité de détection des photons (PDE)). Les autres paramètres sont le temps de trempe et le nombre de SPAD attribués à chaque pixel. Plus le PDE est élevé, plus les lasers faibles peuvent être détectés, affectant directement les performances longue distance. De plus, le temps de trempe est étroitement lié à la résistance à la lumière solaire. Si le temps d'extinction est long, le SPAD ne peut pas répondre au photon laser souhaité si le SPAD se recharge à partir de l'allumage par un photon bruyant tel que la lumière du soleil et dégrade les performances du LiDAR. La meilleure façon de réduire le temps de trempe est de diminuer la résistance à la trempe, mais cela constitue généralement un compromis en termes de fiabilité du dispositif. En général, plusieurs SPAD sont utilisés dans chaque pixel pour atténuer l'empilement en fournissant une redondance. Même si un SPAD se déclenche, un autre SPAD peut recevoir le signal laser.

4.2 Circuits de lecture basés sur le TDC

Alors que la sortie d'un APD est une quantité analogique proportionnelle à l'intensité de la lumière, la sortie SPAD peut être traitée comme une impulsion numérique en façonnant la sortie avec un tampon (comme sur la figure 8). \(V_{out}\)). De plus, les LiDAR dToF peuvent calculer suffisamment le ToF à partir du temps entre l’émission laser et l’augmentation de l’impulsion. De plus, bien qu'il soit difficile d'implémenter plusieurs dizaines ou centaines d'ADC haute vitesse sur un SoC en raison de sa petite surface, un circuit convertisseur temps-numérique (TDC) est utilisé dans [15], qui est un circuit spécialisé pour mesurer temps. TDC a été initialement introduit comme circuit de quantification temporelle pour PLL numérique et renvoie la valeur numérique de la différence de temps entre les deux entrées [44], [45]. Comparés aux CAN, les TDC peuvent être composés presque de circuits numériques, et en distribuant le signal d'horloge de référence à un grand nombre de TDC, un ensemble de TDC peut être réalisé avec une petite surface. De plus, la résolution temporelle disponible des TDC peut atteindre 10 à 100 ps, ​​ce qui permet d'obtenir une précision ToF qui ne peut pas être facilement obtenue avec les ADC.

4.3 Circuits de traitement du signal

L'intégration du SoC a permis un traitement du signal plus riche, conduisant au développement de techniques de traitement du signal spécifiques au dToF LiDAR. L’une des méthodes de traitement du signal les plus populaires est l’accumulation de signal. Comme le montre la figure 9, en accumulant les résultats du N Mesure du TDC dans la même situation et obtention d'un histogramme, l'accumulation peut améliorer le SNR en \(\sqrt{N}\). Alors que la lumière du soleil est un événement aléatoire sans corrélation, la lumière laser est un événement déterministe et est observée en même temps. En utilisant l'accumulation, le SNR s'améliore à mesure que le nombre de mesures augmente, mais c'est un compromis avec le FPS puisqu'il faut plus de mesures pour obtenir un seul pixel.

Fig. 9  Mécanisme de lecture du TDC dans [15] © IEEE

De plus, dans [15], un certain seuil d’activation du TDC est utilisé pour augmenter la tolérance à la lumière solaire. Les problèmes causés par la lumière du soleil sont les suivants : 1) la mémoire de l'histogramme devient gigantesque si tous les événements de lumière solaire entrants sont enregistrés, 2) en raison du temps de réinitialisation du TDC fini, le TDC peut manquer le laser si la lumière du soleil déclenche le TDC. Par conséquent, en ajoutant un seuil au déclencheur TDC (par exemple, déclencher le TDC uniquement lorsque quatre SPAD se déclenchent simultanément), nous pouvons résoudre les deux problèmes simultanément.

Enfin, la figure 10 montre l'image du nuage de points obtenue par le prototype LiDAR rapporté dans [15], où l'intégration du SPAD, du circuit de lecture et du circuit de traitement du signal a permis de réaliser un LiDAR haute performance capable de reconnaître des murs jusqu'à 100 m de distance.

Fig. 10  Résultat de mesure de [15] © IEEE. Grâce à l'intégration d'une seule puce et au traitement riche du signal, le lidar atteint des performances de distance de 100 m.

5. SoC LiDAR de nouvelle génération

Dans le chapitre précédent, nous avons étudié l'évolution du LiDAR de nouvelle génération basé sur [15]. Ce chapitre examinera en détail des exemples de recherche plus avancés pour approfondir notre compréhension du domaine récent des ADAS LiDAR.

5.1 Approche à 2 puces

Tout d’abord, nous présenterons l’approche à 2 puces. La caractéristique la plus distinctive de l'architecture de [15] est qu'elle intègre à la fois le numérique et les SPAD sur la même puce, ce qui constitue un excellent choix en termes de coût. Cependant, cela pose un défi lorsqu’il s’agit d’étendre davantage les performances. Par exemple, une structure de diode spéciale est nécessaire pour obtenir les meilleures performances des SPAD, ce qui est difficile à obtenir dans les processus CMOS numériques avancés. Par conséquent, [15] utilise un ancien CMOS 180 nm pour le SoC. Si nous pouvons adopter un processus CMOS plus avancé, la capacité de traitement du signal et la résolution temporelle du TDC peuvent être considérablement améliorées grâce à la loi de Moore.

Réf. Le LiDAR de [16] adopte l'approche à 2 puces, qui permet d'obtenir le meilleur des deux mondes en adoptant la technologie de processus la plus adaptée pour le SPAD et le DSP (300 nm et 28 nm), respectivement. Cependant, le nombre de fils de sortie pour les SPAD est important et la simple séparation des puces entraînera des problèmes de câblage. Pour résoudre ce problème, [16] utilise une configuration SiPM, qui connecte plusieurs SPAD (60 dans [16]) en parallèle et extrait la sortie sous forme de courant sommé pour atténuer la complexité du câblage. De plus, lors de l'utilisation d'un TDC, un comparateur avec un seuil défini est utilisé pour convertir la sortie en impulsions, permettant le même traitement que les systèmes conventionnels basés sur TDC.

Dans [15], le SNR LiDAR a été amélioré en histogrammant la sortie TDC de plusieurs résultats de mesure. Cependant, comme le TDC ne se déclenche que si le tir du SPAD dépasse un certain seuil, l'accumulation n'était pas efficace lorsque le laser de retour était très faible à longue distance. Si nous pouvons accumuler directement la forme d'onde brute du SPAD, le LiDAR peut utiliser efficacement les informations inférieures au seuil d'accumulation, mais une telle configuration nécessitera un CAN comme circuit de lecture.

Le SoC LiDAR [16] vise à améliorer encore les performances du LiDAR en adoptant un circuit de lecture hybride, qui bascule entre l'ADC et le TDC pour les distances lointaines et courtes, respectivement (Fig. 11). La figure 12 illustre le concept de lecture hybride ; un TDC est utilisé pour les mesures à courte distance, car une résolution à distance élevée est requise et le SNR du laser de retour est suffisamment élevé. En revanche, sur de longues distances (\(>\)20 m) où le SNR est sévère, la forme d'onde SiPM est lue directement par un CAN et l'accumulation est effectuée au niveau de la forme d'onde brute. Notamment, l'exigence de résolution de distance est assouplie sur des distances plus longues, de sorte que même un CAN de 400 MS/s peut atteindre des performances de mesure de distance suffisantes. En conséquence, l'architecture hybride TDC/ADC réduit considérablement les exigences de vitesse ADC et minimise le coût matériel. [16] réalise pour la première fois une mesure de distance de 200 m, grâce à l'accumulation de forme d'onde basée sur l'ADC et à l'intégration SPAD personnalisée.

Fig. 11  Lecture et traitement du signal LiDAR SoC dans [16] © IEEE.

Fig. 12  Présentation de la configuration hybride TDC/ADC. Le TDC à haute résolution temporelle est utilisé à courte portée lorsque le laser est puissant, et l'ADC est utilisé à longue portée lorsque le SNR est faible et qu'une accumulation est nécessaire.

5.2 Approche de tableau SPAD 2D

[15] et [16] nécessitaient tous deux un mécanisme de balayage pour effectuer un balayage raster (Fig. 4) et utilisaient des SPAD disposés dans un réseau 1D. Bien que le balayage raster réduise les SPAD requis, il implique le balayage des faisceaux laser de réception (RX) et de transmission (TX). Étant donné que les mécanismes de balayage du RX sont beaucoup plus grands que ceux du TX en raison du rapport d'ouverture plus grand, cela a posé un défi important lors de la réduction de la taille du LiDAR. [19] ont proposé une méthode de balayage intégré au capteur dans laquelle le balayage raster RX est effectué dans le réseau SPAD 2D (Fig. 13), éliminant ainsi le besoin de machines de balayage RX. La suppression du système de numérisation RX encombrant réduit considérablement le dimensionnement du LiDAR (Fig. 14). De plus, [19] utilise une technique de trempe active qui réinitialise les SPAD avec des transistors pour raccourcir le temps de trempe. Cela a permis de réduire les SPAD par pixel et [19] d'obtenir un système LiDAR à plus haute résolution à moindre coût.

Fig. 13  Système à 2 puces proposé par [19]

Fig. 14  L'approche matricielle 2D permet une petite intégration LiDAR comme dans [46]

5.3 Approche d'intégration 3D

Des études antérieures ont étendu leurs performances en fabriquant respectivement SPAD et DSP séparément avec des processus appropriés. D’un autre côté, à mesure que le nombre de pixels augmente, la connectivité entre puces devient complexe et ces approches perdent en évolutivité. De plus, en raison de l’utilisation de SiPM, il était nécessaire d’utiliser un CAN avec une faible efficacité de zone pour atteindre des performances de portée de 200 m [16], [18].

Pour résoudre ce problème, [23], [24] ont proposé un SoC LiDAR avec l'approche d'intégration 3D (Fig. 15, 16). L'intégration 3D permet de fabriquer des puces SPAD et DSP selon leur procédé approprié (respectivement 90 nm et 40 nm). De plus, le grand nombre de connexions inter-puces 3D haute densité permet le câblage de 100,000 23 SPAD ; puisqu'un simple SPAD au lieu d'un SiPM peut être utilisé, un TDC efficace en termes de zone peut être adopté comme circuit de lecture. En outre, une autre percée est l’utilisation de la technologie des microlentilles et de l’éclairage arrière (BSI) sur les SPAD, une technique couramment utilisée pour augmenter la sensibilité des capteurs d’image. En appliquant la microlentille et le BSI au SPAD, [24], [22] ont montré que la PDE peut être considérablement améliorée jusqu'à 905 % à une longueur d'onde de 2 nm, ce qui représente presque XNUMX fois plus que les SPAD conventionnels. Une telle augmentation du PDE conduit à une amélioration significative des performances du LiDAR.

Fig. 15  SPAD intégrés 3D [24] © IEEE

Fig. 16  SoC LiDAR intégré 3D dans [23] © IEEE

Enfin, nous comparons les performances des LiDAR mentionnés ci-dessus dans le tableau 3. Il est difficile de comparer directement les performances de ces travaux, car ils ont tous des méthodes de numérisation, des optiques, des puissances laser et des résolutions différentes. Par exemple, le SNR d'un miroir MEMS est bien inférieur à celui d'un miroir rotatif, ce qui constitue un inconvénient pour les performances du LiDAR à longue portée (cependant, ils permettent un dimensionnement LiDAR beaucoup plus petit). Par conséquent, plutôt que la valeur absolue des performances du LiDAR, il est nécessaire d’évaluer les progrès de la technologie des circuits et des systèmes dans ce domaine.

Tableau 3  Comparaison des performances des LiDAR de première génération et de nouvelle génération

6. Conclusions et perspectives d'avenir

Un didacticiel et une revue du LiDAR pour dToF ADAS ont été présentés, dans lesquels les LiDAR sont des capteurs de distance clés lors de la réalisation de systèmes de conduite automatisés. Tout d’abord, nous avons discuté de la percée des LiDAR de nouvelle génération par comparaison avec les systèmes LiDAR de première génération. Les systèmes LiDAR de nouvelle génération ont considérablement amélioré leur coût et leurs performances en intégrant le photodétecteur, le circuit de lecture et l'unité de traitement du signal dans un seul SoC. En outre, nous avons discuté des derniers développements dans ce domaine en discutant des exemples de recherche les plus récents tels que l'approche à deux puces, la matrice SPAD 2D et l'intégration 3D LiDAR.

Il existe deux directions principales pour le développement futur du LiDAR : commerciale et recherche. Le LiDAR automobile DToF étendra ses performances en faisant évoluer les performances SPAD et DSP grâce à l'intégration 3D et à un traitement étendu du signal. Lorsque la productibilité de masse du LiDAR dToF atteindra un niveau suffisant, ces LiDAR seront installés dans les systèmes ADAS des véhicules utilitaires.

Côté recherche, le LiDAR 1550 nm présente encore un excellent potentiel. Par exemple, les LiDAR dToF courent le risque d’être usurpés par des attaquants malveillants [47], [48], et il y a de grands espoirs pour les LiDAR FMCW qui pourront empêcher que cela ne se produise [49]. De plus, les LiDAR à 1550 29 nm dotés de photonique sur silicium peuvent réaliser un balayage laser à l'état solide pour réduire encore davantage le coût, et le développement de la recherche attire une attention considérable [XNUMX].

Remerciements

Ce travail a été soutenu en partie par le programme JST CREST sous la subvention JPMJCR21D2, et en partie par la Société japonaise pour la promotion de la science (JSPS) KAKENHI, sous la subvention 21K20413.

Références

[1] National Police Agency, “Traffic Accident Statistics,” https://www.npa.go.jp/publications/statistics/koutsuu/toukeihyo.html, Accessed: 2022-2-2.

[2] SAE, “Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles,” https://www.sae.org/standards/content/j3016_202104/, Accessed: 2022-2-2.
CrossRef

[3] Asahi Shimbun, “Honda rolls out world’s first level 3 automated car for the public,” https://www.asahi.com/ajw/articles/14242632, Accessed: 2022-2-2.

[4] Tesla Inc., “Artificial Intelligence & Autopilot,” https://www.tesla.com/AI, Accessed: 2022-2-2.

[5] M. Montemerlo, J. Becker, S. Bhat, H. Dahlkamp, D. Dolgov, S. Ettinger, D. Haehnel, T. Hilden, G. Hoffmann, B. Huhnke, D. Johnston, S. Klumpp, D. Langer, A. Levandowski, J. Levinson, J. Marcil, D. Orenstein, J. Paefgen, I. Penny, A. Petrovskaya, M. Pflueger, G. Stanek, D. Stavens, A. Vogt, and S. Thrun, “Junior: The stanford entry in the urban challenge,” J. Field Robotics, vol.25, no.9, pp.569–597, Sept. 2008.
CrossRef

[6] A.H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “Pointpillars: Fast encoders for object detection from point clouds,” Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit., pp.12697–12705, 2019.
CrossRef

[7] C.R. Qi, W. Liu, C. Wu, H. Su, and L.J. Guibas, “Frustum pointnets for 3D object detection from RGB-D data,” Proc. IEEE Conf. Comput. Vis. Pattern Recognit., pp.918–927, 2018.
CrossRef

[8] Velodyne, “VELODYNE’S HDL-64E: A HIGH DEFINITION LIDARTM SENSOR FOR 3-D APPLICATIONS,” http://velodynelidar.com/docs/papers/HDL07_web.pdf, Accessed: 2022-2-2.

[9] T. Mitomo, N. Ono, H. Hoshino, Y. Yoshihara, O. Watanabe, and I. Seto, “A 77 GHz 90 nm CMOS transceiver for FMCW radar applications,” IEEE J. Solid-State Circuits, vol.45, no.4, pp.928–937, 2010.
CrossRef

[10] J. Lee, Y.-A. Li, M.-H. Hung, and S.-J. Huang, “A fully-integrated 77-GHz FMCW radar transceiver in 65-nm CMOS technology,” IEEE J. Solid-State Circuits, vol.45, no.12, pp.2746–2756, Dec. 2010.
CrossRef

[11] D.J. Yeong, G. Velasco-Hernandez, J. Barry, and J. Walsh, “Sensor and sensor fusion technology in autonomous vehicles: A review,” Sensors, vol.21, no.6, pp.2140, 2021.
CrossRef

[12] L. Lou, K. Tang, Z. Fang, Y. Wang, B. Chen, T. Guo, X. Feng, S. Liu, W. Wang, and Y. Zheng, “An early fusion complementary RADAR-LiDAR TRX in 65nm CMOS supporting gear-shifting sub-cm resolution for smart sensing and imaging,” 2021 IEEE International Solid-State Circuits Conference (ISSCC), vol.64, pp.220–222IEEE, 2021.
CrossRef

[13] C. Niclass, M. Soga, H. Matsubara, S. Kato, and M. Kagami, “A 100-m range 10-frame/s 340x96-pixel time-of-flight depth sensor in 0.18um CMOS,” IEEE J. Solid-State Circuits, vol.48, no.2, pp.559–572, Feb. 2012.
CrossRef

[14] C. Niclass, C. Favi, T. Kluter, M. Gersbach, and E. Charbon, “A 128x128 single-photon image sensor with column-level 10-bit time-to-digital converter array,” IEEE J. Solid-State Circuits, vol.43, no.12, pp.2977–2989, Dec. 2008.
CrossRef

[15] C. Niclass, M. Soga, H. Matsubara, M. Ogawa, and M. Kagami, “A 0.18-um CMOS SoC for a 100-m-range 10-frame/s 200x96-pixel time-of-flight depth sensor,” IEEE J. solid-state circuits, vol.49, no.1, pp.315–330, Jan. 2013.
CrossRef

[16] K. Yoshioka, H. Kubota, T. Fukushima, S. Kondo, T.T. Ta, H. Okuni, K. Watanabe, M. Hirono, Y. Ojima, K. Kimura, S. Hosoda, Y. Ota, T. Koizumi, N. Kawabe, Y. Ishii, Y. Iwagami, S. Yagi, I. Fujisawa, N. Kano, T. Sugimoto, D. Kurose, N. Waki, Y. Higashi, T. Nakamura, Y. Nagashima, H. Ishii, A. Sai, and N. Matsumoto, “A 20-ch TDC/ADC hybrid architecture LiDAR SoC for 240x96 pixel 200-m range imaging with smart accumulation technique and residue quantizing SAR ADC,” IEEE J. Solid-State Circuits, vol.53, no.11, pp.3026–3038, Nov. 2018.
CrossRef

[17] K. Yoshioka, H. Kubota, T. Fukushima, S. Kondo, T.T. Ta, H. Okuni, K. Watanabe, Y. Ojima, K. Kimura, S. Hosoda, Y. Oota, T. Koizumi, N. Kawabe, Y. Ishii, Y. Iwagami, S. Yagi, I. Fujisawa, N. Kano, T. Sugimoto, D. Kurose, N. Waki, Y. Higashi, T. Nakamura, Y. Nagashima, H. Ishii, A. Sai, and N. Matsumoto, “A 20ch TDC/ADC hybrid SoC for 240× 96-pixel 10%-reflection < 0.125%-precision 200m-range imaging LiDAR with smart accumulation technique,” 2018 IEEE International Solid-State Circuits Conference-(ISSCC), pp.92–94, IEEE, 2018.
CrossRef

[18] S. Kondo, H. Kubota, H. Katagiri, Y. Ota, M. Hirono, T.T. Ta, H. Okuni, S. Ohtsuka, Y. Ojima, T. Sugimoto, H. Ishii, K. Yoshioka, K. Kimura, A. Sai, and N. Matsumoto, “An automotive LiDAR SoC for 240× 192-pixel 225-m-range imaging with a 40-channel 0.0036-mm 2 voltage/time dual-data-converter-based AFE,” IEEE J. Solid-State Circuits, vol.55, no.11, pp.2866–2877, Nov. 2020.
CrossRef

[19] T.T. Ta, H. Kubota, K. Kokubun, T. Sugimoto, M. Hirono, M. Sengoku, H. Katagiri, H. Okuni, S. Kondo, S. Ohtsuka, H. Kwon, K. Sasaki, Y. Ota, K. Suzuki, K. Kimura, K. Yoshioka, A. Sai, and N. Matsumoto, “A 2D-SPAD array and read-out AFE for next-generation solid-state LiDAR,” 2020 IEEE Symposium on VLSI Circuits, pp.1–2, IEEE, 2020.
CrossRef

[20] H. Akita, I. Takai, K. Azuma, T. Hata, and N. Ozaki, “An imager using 2-D single-photon avalanche diode array in 0.18-μm CMOS for automotive LIDAR application,” 2017 Symposium on VLSI Circuits, pp.C290–C291, IEEE, 2017.
CrossRef

[21] K. Ito, C. Niclass, I. Aoyagi, H. Matsubara, M. Soga, S. Kato, M. Maeda, and M. Kagami, “System design and performance characterization of a MEMS-based laser scanning time-of-flight sensor based on a 256x64-pixel single-photon imager,” IEEE Photonics Journal, vol.5, no.2, Article No. 6800114, April 2013.
CrossRef

[22] M. Liu, H. Liu, X. Li, and Z. Zhu, “A 60-m range 6.16-mW laser-power linear-mode LiDAR system with multiplex ADC/TDC in 65-nm CMOS,” IEEE Trans. Circuits and Systems I: Regular Papers, vol.67, no.3, pp.753–764, March 2020.
CrossRef

[23] O. Kumagai, J. Ohmachi, M. Matsumura, S. Yagi, K. Tayu, K. Amagawa, T. Matsukawa, O. Ozawa, D. Hirono, Y. Shinozuka, R. Homma, K. Mahara, T. Ohyama, Y. Morita, S. Shimada, T. Ueno, A. Matsumoto, Y. Otake, T. Wakano, and T. Izawa, “A 189x600 back-illuminated stacked SPAD direct time-of-flight depth sensor for automotive LiDAR systems,” 2021 IEEE International Solid-State Circuits Conference (ISSCC), vol.64, pp.110–112, IEEE, 2021.
CrossRef

[24] K. Ito, Y. Otake, Y. Kitano, A. Matsumoto, J. Yamamoto, T. Ogasahara, H. Hiyama, R. Naito, K. Takeuchi, T. Tada, K. Takabayashi, H. Nakayama, K. Tatani, T. Hirano, and T. Wakano, “A back illuminated 10μm SPAD pixel array comprising full trench isolation and Cu-Cu bonding with over 14% PDE at 940nm,” 2020 IEEE International Electron Devices Meeting (IEDM), pp.16–6, IEEE, 2020.
CrossRef

[25] H. Seo, H. Yoon, D. Kim, J. Kim, S.-J. Kim, J.-H. Chun, and J. Choi, “Direct TOF scanning LiDAR sensor with two-step multievent histogramming TDC and embedded interference filter,” IEEE J. Solid-State Circuits, vol.56, no.4, pp.1022–1035, April 2021.
CrossRef

[26] Ouster, “OS-2,” https://ouster.com/products/scanning-lidar/os2-sensor/, Accessed: 2022-2-2.

[27] S. Chung, M. Nakai, S. Idres, Y. Ni, and H. Hashemi, “Optical phased-array FMCW LiDAR with on-chip calibration,” 2021 IEEE International Solid-State Circuits Conference (ISSCC), vol.64, pp.286–288, IEEE, 2021.
CrossRef

[28] B. Behroozpour, P.A.M. Sandborn, N. Quack, T.J. Seok, Y. Matsui, M.C. Wu, and B.E. Boser, “Chip-scale electro-optical 3D FMCW lidar with 8μm ranging precision,” 2016 IEEE International Solid-State Circuits Conference (ISSCC), pp.214–216, IEEE, 2016.
CrossRef

[29] C.V. Poulton, A. Yaacobi, D.B. Cole, M.J. Byrd, M. Raval, D. Vermeulen, and M.R. Watts, “Coherent solid-state LIDAR with silicon photonic optical phased arrays,” Optics letters, vol.42, no.20, pp.4091–4094, 2017.
CrossRef

[30] A.R. Ximenes, P. Padmanabhan, M.-J. Lee, Y. Yamashita, D.-N. Yaung, and E. Charbon, “A 256× 256 45/65nm 3D-stacked SPAD-based direct TOF image sensor for LiDAR applications with optical polar modulation for up to 18.6 dB interference suppression,” 2018 IEEE International Solid-State Circuits Conference-(ISSCC), pp.96–98, IEEE, 2018.
CrossRef

[31] P. Padmanabhan, C. Zhang, M. Cazzaniga, B. Efe, A.R. Ximenes, M.-J. Lee, and E. Charbon, “A 256× 128 3D-stacked (45nm) SPAD FLASH LiDAR with 7-level coincidence detection and progressive gating for 100m range and 10klux background light,” 2021 IEEE International Solid-State Circuits Conference (ISSCC), vol.64, pp.111–113, IEEE, 2021.
CrossRef

[32] S. Lindner, C. Zhang, I.M. Antolovic, M. Wolf, and E. Charbon, “A 252× 144 SPAD pixel FLASH LiDAR with 1728 dual-clock 48.8 ps TDCs, integrated histogramming and 14.9-to-1 compression in 180nm CMOS technology,” 2018 IEEE Symposium on VLSI Circuits, pp.69–70, IEEE, 2018.
CrossRef

[33] S. Kawahito, I.A. Halin, T. Ushinaga, T. Sawada, M. Homma, and Y. Maeda, “A CMOS time-of-flight range image sensor with gates-on-field-oxide structure,” IEEE Sensors Journal, vol.7, no.12, pp.1578–1586, Dec. 2007.
CrossRef

[34] C.S. Bamji, P. O’Connor, T. Elkhatib, S. Mehta, B. Thompson, L.A. Prather, D. Snow, O.C. Akkaya, A. Daniel, A.D. Payne, T. Perry, M. Fenton, and V.-H. Chan, “A 0.13 μm CMOS system-on-chip for a 512× 424 time-of-flight image sensor with multi-frequency photo-demodulation up to 130 MHz and 2 GS/s ADC,” IEEE J. Solid-State Circuits, vol.50, no.1, pp.303–319, Jan. 2014.
CrossRef

[35] C.S. Bamji, S. Mehta, B. Thompson, T. Elkhatib, S. Wurster, O. Akkaya, A. Payne, J. Godbaz, M. Fenton, V. Rajasekaran, L. Prather, S. Nagaraja, V. Mogallapu, D. Snow, R. McCauley, M. Mukadam, I. Agi, S. McCarthy, Z. Xu, T. Perry, W. Qian, V.-H. Chan, P. Adepu, G. Ali, M. Ahmed, A. Mukherjee, S. Nayak, D. Gampell, S. Acharya, L. Kordus, and P. O’Connor, “IMpixel 65nm BSI 320MHz demodulated TOF Image sensor with 3μm global shutter pixels and analog binning,” 2018 IEEE International Solid-State Circuits Conference-(ISSCC), pp.94–96, IEEE, 2018.
CrossRef

[36] M.-S. Keel, Y.-G. Jin, Y. Kim, D. Kim, Y. Kim, M. Bae, B. Chung, S. Son, H. Kim, T. An, S.-H. Choi, T. Jung, Y. Kwon, S. Seo, S.-Y. Kim, K. Bae, S.-C. Shin, M. Ki, S. Yoo, C.-R. Moon, H. Ryu, and J. Kim, “A VGA indirect time-of-flight CMOS image sensor with 4-tap 7-μm global-shutter pixel and fixed-pattern phase noise self-compensation,” IEEE J. Solid-State Circuits, vol.55, no.4, pp.889–897, April 2019.
CrossRef

[37] K. Yoshioka, H. Okuni, T.T. Ta, and A. Sai, “Through the Looking Glass: Diminishing Occlusions in Robot Vision Systems with Mirror Reflections,” 2021 IEEE/RSJ Int. Conf. Intelligent Robots and Systems (IROS), pp.1578–1584, IEEE, 2021.
CrossRef

[38] David Hall, “High Definition LiDAR System,” US Patent No. 8767190.

[39] C. Niclass, A. Rochas, P.-A. Besse, and E. Charbon, “Design and characterization of a CMOS 3-D image sensor based on single photon avalanche diodes,” IEEE J. Solid-State Circuits, vol.40, no.9, pp.1847–1854, Sept. 2005.
CrossRef

[40] F. Zappa, S. Tisa, A. Tosi, and S. Cova, “Principles and features of single-photon avalanche diode arrays,” Sensors and Actuators A: Physical, vol.140, no.1, pp.103–112, Oct. 2007.
CrossRef

[41] D. Stoppa, D. Mosconi, L. Pancheri, and L. Gonzo, “Single-photon avalanche diode CMOS sensor for time-resolved fluorescence measurements,” IEEE Sensors Journal, vol.9, no.9, pp.1084–1090, Sept. 2009.
CrossRef

[42] C. Niclass, M. Gersbach, R. Henderson, L. Grant, and E. Charbon, “A single photon avalanche diode implemented in 130-nm CMOS technology,” IEEE J. Sel. Topics Quantum Electron., vol.13, no.4, pp.863–869, July–Aug. 2007.
CrossRef

[43] G. Gariepy, N. Krstajić, R. Henderson, C. Li, R.R. Thomson, G.S. Buller, B. Heshmat, R. Raskar, J. Leach, and D. Faccio, “Single-photon sensitive light-in-fight imaging,” Nature communications, vol.6, no.1, pp.1–7, 2015.
CrossRef

[44] S.-K. Lee, Y.-H. Seo, H.-J. Park, and J.-Y. Sim, “A 1 GHz ADPLL with a 1.25 ps minimum-resolution sub-exponent TDC in 0.18um CMOS,” IEEE J. Solid-State Circuits, vol.45, no.12, pp.2874–2881, Dec. 2010.
CrossRef

[45] A. Elkholy, T. Anand, W.-S. Choi, A. Elshazly, and P.K. Hanumolu, “A 3.7 mW low-noise wide-bandwidth 4.5 GHz digital fractional-N PLL using time amplifier-based TDC,” IEEE J. Solid-State Circuits, vol.50, no.4, pp.867–881, April 2015.
CrossRef

[46] IEEE, “Toshiba’s Light Sensor Paves the Way for Cheap Lidar,” https://spectrum.ieee.org/toshibas-light-sensor-highresolution-lidar, Accessed: 2022-2-2.

[47] J. Sun, Y. Cao, Q.A. Chen, and Z.M. Mao, “Towards robust {LiDAR-based} perception in autonomous driving: general black-box adversarial sensor attack and countermeasures,” 29th USENIX Security Symposium (USENIX Security 20), pp.877–894, 2020.

[48] Y. Cao, C. Xiao, B. Cyr, Y. Zhou, W. Park, S. Rampazzi, Q.A. Chen, K. Fu, and Z.M. Mao, “Adversarial sensor attack on lidar-based perception in autonomous driving,” Proc. 2019 ACM SIGSAC Conf. Computer and Communications Security, pp.2267–2281, 2019.
CrossRef

[49] C. Hao, “Varying waveforms across frames in frequency-modulated continuous-wave (fmcw) lidar systems,” European Patent Office No. 3936889.

Auteurs

Kentaro YOSHIOKA
  Keio University

received his BS, MS, Ph.D. degrees from Keio University, Japan. Currently, he is an Assistant Professor at Keio University. He worked with Toshiba during 2014–2021, developing circuitry for WiFi and LiDAR SoCs. During 2017–2018, he had been a visiting scholar at Stanford University exploring efficient machine learning hardware and algorithms. Currently, Dr. Yoshioka serves as a technical program member of Symp. VLSI circuits conference. He was the recipient of ASP-DAC 2013 Special Feature Award, the A-SSCC 2012 Best Design Award, and 1st place winner of Kaggle 2020 Prostate Cancer Grade Assessment (PANDA) Challenge.

Mots-clés

LiDAR,  dToF,  ADAS,  automobile,  SPAD,  TDC,  ADC