Accueil / L’intelligence artificielle et le véhicule autonome

L’intelligence artificielle et le véhicule autonome

Publié en ligne le 30 août 2020 - Intelligence Artificielle -

Le véhicule autonome, libérant des contraintes inhérentes à la conduite, est ancré dans notre imaginaire comme l’étape ultime de l’évolution de l’automobile – en attendant les voitures volantes… Ce qui rend le véhicule autonome aujourd’hui désirable du point de vue sociétal, ce sont d’abord des considérations de sécurité routière. Puisque qu’on estime que 95 % des accidents de la route sont liés à une erreur humaine, on peut attendre de la technologie une contribution significative à la réduction du nombre d’accidents. Mais dans un contexte d’augmentation continue du trafic, d’urbanisation croissante et de temps toujours plus contraint, le véhicule autonome est également perçu comme un moyen de réduire le stress du conducteur et des passagers dans certaines situations de conduite, dans les bouchons par exemple, et de lui libérer du temps.

Le développement du véhicule autonome est une des meilleures illustrations des progrès spectaculaires de l’intelligence artificielle (IA) au long des dix dernières années. La plupart des constructeurs, ainsi que des entreprises issues du monde du numérique comme Waymo (créée par Google) ou Uber, conduisent actuellement des expérimentations à plus ou moins grande échelle de ce qui pourrait être une composante de la mobilité de demain.

Cet article propose d’examiner comment l’IA est utilisée dans ces véhicules autonomes, et présente quelques-uns des défis auxquels nous nous trouvons confrontés.

Une double difficulté : système autonome et système critique

© oonal | Istockphoto.com

En comparaison avec d’autres applications de l’IA, la mise au point de véhicules autonomes présente une double difficulté :

  • L’objectif est de développer un système autonome, c’est-à-dire capable de prendre des décisions seul, quelle que soit la situation. Ceci contraste avec les applications d’aide à la décision dans les domaines médicaux, industriels, etc., où l’IA est en support d’un utilisateur en charge de prendre la décision finale. Dans le contexte automobile, c’est une rupture majeure par rapport aux systèmes d’aide à la conduite existants (comme le freinage ABS, les régulateurs de vitesse, la détection de piétons ou l’aide au maintien dans la file de circulation), où le conducteur reste décideur, et au final responsable de sa décision.
  • Le domaine considéré, celui de la mobilité, est un domaine critique, au sens où une mauvaise décision peut avoir des conséquences dramatiques. De nombreux systèmes d’IA peuvent se prévaloir d’être autonomes, mais dans le cas du jeu de go par exemple, les conséquences d’une mauvaise décision sont mineures. Il en va tout autrement d’un véhicule autonome.

Cette double difficulté, système autonome et système critique, impose un très haut niveau de performance (au sens de prendre les bonnes décisions, y compris dans les situations les plus complexes), mais aussi de pouvoir démontrer la robustesse et la sécurité du système.

La place de l’IA dans les véhicules autonomes

Avant de passer en revue les difficultés auxquelles l’IA est confrontée quand il s’agit de mettre au point un véhicule autonome, exposons brièvement comment elle y est utilisée.

L’apprentissage profond (deep learning) a révolutionné les tâches de perception automatique et, dans notre cas, la capacité à identifier des panneaux routiers, des piétons, des cyclistes ou d’autres véhicules. Des caméras embarquant cette technologie sont déjà largement utilisées dans les véhicules actuellement commercialisés, que ce soit pour détecter les limitations de vitesse ou pour déclencher un freinage d’urgence (AEB 1 piétons par exemple).

Mais les besoins de perception du véhicule autonome vont bien au-delà de la nécessité d’éviter un choc piéton. Il va donc être nécessaire d’utiliser différents types de capteurs (lidar – télédétection par laser –, radars…) en complément de caméras pour tirer le meilleur des capacités de chacun. L’IA va alors être une des techniques utilisées pour analyser les informations fournies par un capteur, fusionner ces différentes informations dans une représentation cohérente de l’environnement, piloter l’évolution de cette représentation dans le temps (tracking) permettant ainsi de pallier des phénomènes d’occultation où un objet est momentanément masqué par un autre, mais sans avoir pour autant disparu.

Sur la base ce cette représentation de la situation, le véhicule autonome va alors décider de la manœuvre à réaliser : accélérer, changer de file, laisser passer un autre véhicule, etc. L’IA intervient à nouveau dans cette étape, mais le caractère sensible de la décision fait qu’elle n’est jamais utilisée seule, mais sous le contrôle d’autres techniques plus classiques permettant de rendre plus prévisible le comportement du système.

Si l’IA contribue massivement aux tâches de perception et de prise de décision, elle est également utilisée dans d’autres fonctions intelligentes embarquées. Par exemple, dans le cas d’un véhicule partiellement autonome, c’est-à-dire capable de proposer une conduite déléguée dans certaines situations seulement (autoroutes, bouchons…), l’IA sera également mobilisée lors de la phase de reprise en main pour s’assurer que le conducteur est effectivement en situation de reprendre le contrôle du véhicule.

Enfin, l’IA est largement présente pour la mise au point et la validation du véhicule autonome. La complexité d’un véhicule autonome fait qu’une validation sur route nécessiterait des millions, sinon des milliards, de kilomètres de roulage… ce qui est absolument impensable. Le recours à la simulation numérique s’impose donc, et des environnements de simulation et de validation ont été développés par tous les constructeurs : à partir de bibliothèques de scénarios, des situations sont simulées en intégrant le véhicule autonome, puis analysées pour détecter les problèmes éventuels. Parmi les différentes utilisations de l’IA, citons-en deux :

© metamorworks | Istockphoto.com

le développement de modèles de comportement des différents acteurs permettant de rendre l’environnement du véhicule testé aussi réaliste que possible (d’un point de vue théorique, ce n’est pas complètement possible : cela supposerait d’avoir résolu le problème du véhicule autonome pour pouvoir le modéliser…) ; l’analyse des quantités gigantesques de données produites par ces simulations ou par des roulages physiques, pour compléter la base de scénarios ou aider à détecter et analyser automatiquement les situations incorrectes.

Les principaux défis à relever

Les expérimentations en cours et la médiatisation du sujet pourraient laisser penser que le problème de la mise au point du véhicule autonome dans sa généralité est en passe d’être résolu. Mais c’est loin d’être le cas. Les quelques problématiques décrites ci-dessous illustrent les difficultés auxquelles la recherche et les développements se trouvent actuellement confrontés.

« Comprendre » une situation pour anticiper

Le fait d’identifier des objets ou les acteurs d’une situation de conduite ne signifie pas que le système a « compris » cette situation et qu’il est donc en mesure de prévoir les évolutions possibles, et ainsi de les anticiper. Or l’anticipation est une des conditions de la sécurité sur la route. Par exemple, reconnaître un piéton sur le bord de la route et identifier (de visu ou sur une carte) un passage protégé à côté du piéton n’informent en rien sur l’éventuelle intention du piéton de traverser. Pour le système de conduite autonome, ce sont deux objets différents qui se trouvent juste être localisés l’un à côté de l’autre.

Bien évidemment, de telles situations peuvent être apprises – et le sont – par le système comme autant de situations spécifiques. Mais on touche probablement aux limites de l’apprentissage à partir d’exemples, tel qu’il existe aujourd’hui. L’apprentissage profond est très performant pour reconnaître ce qu’il a appris ; il ne permet pas (encore) de donner du sens à ce qu’il a appris.

La très grande variabilité des situations à prendre en compte

Il est d’usage d’expliquer qu’il existe des situations de conduite plus complexes que d’autres : la traversée de la place de l’Étoile à Paris est une véritable épreuve pour un nouveau conducteur, et la traversée de Bombay un défi pour un conducteur européen… Mais même dans des situations plus habituelles, les conducteurs sont tous les jours confrontés à des situations d’une très grande diversité. Des exemples de ces situations les plus bizarres se retrouvent sur Internet, et notre connaissance générale du monde nous permet de les gérer tout à fait correctement : piétons se rendant à une fête costumés en poussins géants, passager d’un scooter revenant d’un magasin de bricolage chargé de planches et de tuyaux, autobus arborant une publicité avec une route en trompe-l’œil, etc.

Chacune de ces situations atypiques est susceptible d’être mal interprétée par un système d’IA. Aucune ne pose de problème de principe, et chacune pourra donc être prise en compte et apprise de façon spécifique. Mais leur nombre quasi infini fait qu’en l’absence d’une connaissance générale du monde (c’est-à-dire savoir, indépendamment de conduire, ce qu’est une fête costumée, du matériel de bricolage, etc.), il est très difficile d’envisager de les traiter toutes.

Une solution pragmatique consiste à définir des contextes spécifiques d’application (ODD – Operational Design Domains) permettant de faire des hypothèses simplificatrices sur les situations à prendre en compte : par exemple la conduite sur autoroute.

Le besoin de robustesse et de validation

La démarche utilisée pour construire ces systèmes d’IA, par apprentissage à partir d’exemples et non pas à partir de spécifications, pose un autre problème : comment garantir que le modèle ainsi appris va permettre de traiter correctement des situations jamais rencontrées dans les phases d’apprentissage ? Le problème n’est pas seulement lié à la très grande diversité des situations, mais également à la robustesse du modèle, c’est-à-dire au fait qu’une très légère variation par rapport à une situation apprise ne doit pas engendrer de changements brutaux de comportement.

Des travaux récents, très sophistiqués, ont montré qu’il était possible de construire un système d’IA qui apprenait à tromper un autre système d’IA, pourtant considéré comme particulièrement efficace, en construisant des exemples dits « adverses » (GAN – Generative Adversial Networks). Concrètement, un simple autocollant judicieusement positionné sur un panneau de signalisation peut mettre en erreur le système de reconnaissance... Ces travaux montrent qu’une nouvelle forme de malveillance est possible ; ils montrent surtout que la qualification d’un système d’IA, c’est-à-dire la capacité à le valider voire le certifier, reste un problème ouvert.

Parmi les quatre instituts interdisciplinaires d’IA lancés par le gouvernement français en 2019 dans le cadre de la « stratégie nationale de recherche en intelligence artificielle » [1], celui de Toulouse (Aniti) [2] a mis en axe prioritaire la certificabilité de l’IA embarquée dans des systèmes critiques. Des industriels impliqués dans les transports (Airbus, Thalès, Continental et Renault) font partie des fondateurs de cet institut de recherche. Et un des grands défis sur l’IA lancés par le SGPI (Secrétariat général pour l’investissement) en 2019 traite également du sujet de la « robustification » de l’IA dans les systèmes critiques.

Interaction et coopération

Nombre de situations de conduite quotidiennes nécessitent des interactions fines, voire relèvent de formes de coopération : piétons cherchant à s’assurer que le véhicule le laissera traverser sur un passage protégé, véhicule cédant sa priorité pour désengorger un carrefour, ou au contraire besoin de forcer le passage pour ne pas rester bloqué.

Un exemple a priori simple comme l’insertion sur autoroute montre la complexité des stratégies mises en œuvre : évaluation de la situation par le véhicule cherchant à s’insérer (non prioritaire), mais aussi par le véhicule prioritaire pour anticiper les manœuvres possibles du véhicule entrant ; échange d’informations (sur l’intention de s’insérer, de laisser passer, de ne pas laisser passer), par exemple par l’usage du clignotant, une accélération ou un ralentissement marqués ; analyse de la réaction de l’autre véhicule et adaptation ; etc.

Ces situations d’interaction nécessitent des échanges d’informations variées, la compréhension des intentions des acteurs, la capacité à construire des scénarios possibles, et des stratégies de coopération ou de non-coopération. Ces sujets sont encore assez peu développés et il sera vraisemblablement nécessaire de standardiser ces formes d’interactions pour éviter de voir se développer des stratégies différentes (par exemple plus ou moins agressives selon les constructeurs), et surtout de faciliter l’appropriation et l’acceptabilité par l’ensemble des usagers.

S’assurer du caractère éthique des décisions prises

Dans certaines situations, le véhicule autonome pourrait être amené à devoir choisir entre des décisions ayant toutes des conséquences dramatiques. Cette problématique, connue sous le nom du « dilemme du tramway fou », a été largement médiatisée. Des études (voir en particulier le projet The Moral Machine [3]) ont montré l’extrême variabilité des sensibilités à ces questions en fonction des pays et des cultures. Les réponses à ces questions délicates ne peuvent être du ressort de constructeurs automobiles mais doivent s’appuyer sur des réflexions et des législations nationales et internationales.

En guise de conclusion

© JariJ | Istockphoto.com

Une dernière difficulté demeure, et non des moindres. Comme on l’a vu, mettre au point un véhicule autonome fiable est un problème difficile du point de vue technologique, qui nécessite des coûts de développement et de mise au point très importants, sans oublier le coût des équipements embarqués (capteurs, puissance de calcul…). Encore faut-il que la valeur proposée aux clients soit à la mesure du surcoût engendré. Or, plus les domaines d’utilisation vont être restreints (pour permettre d’atteindre les niveaux de robustesse et de sécurité visés), plus il va être difficile de générer de la valeur. L’équation paraît aujourd’hui difficile à résoudre pour des véhicules particuliers, et certains constructeurs ont d’ailleurs publiquement annoncé ne plus viser ce marché.

Aujourd’hui, la stratégie de la plupart des industriels est de considérer que le déploiement du véhicule autonome passera par des flottes de robots-taxis totalement autonomes, offrant un service de mobilité sur un territoire donné. Cette approche s’inscrit dans la tendance actuelle de la mobilité partagée et d’une bascule de la propriété vers l’usage. Les conséquences sont importantes :

  • l’utilisation intensive de ces robot-taxis fait que dans ce cas le modèle économique est totalement différent et permet d’amortir plus facilement la technologie nécessaire ;
  • parce que le service de mobilité est localisé sur un territoire spécifique, il devient possible d’aménager ce territoire pour faciliter l’introduction de véhicules autonomes : voies partiellement réservées, carrefours aménagés avec une intelligence débarquée collaborant avec les véhicules autonomes, etc.

En s’autorisant plus de technologie d’une part, et en jouant sur le territoire pour simplifier le problème d’autre part, le développement de robots-taxis paraît ouvrir la voie à l’introduction de véhicules complètement autonomes. On attend également de ce premier déploiement qu’il engendre une baisse significative des coûts, permettant d’envisager dans un deuxième temps le déploiement sur des véhicules particuliers.

Il reste qu’offrir un service de mobilité en opérant des flottes de robots-taxis est un nouveau métier pour les constructeurs automobiles ; c’est la raison des acquisitions et des expérimentations en cours qui vise à les doter de ces nouvelles compétences.

En conclusion, le développement du véhicule autonome est probablement un des défis les plus ambitieux auquel l’IA ait jamais été confrontée dans le cadre d’une application industrielle. La prise de conscience, récente, des difficultés à surmonter a amené nombres d’acteurs à revoir les prévisions faites voilà quelques années. Et si le développement de flottes de robots-taxis, sur des territoires spécifiques, laisse entrevoir la voie d’un déploiement progressif, l’histoire du véhicule autonome reste pour une large part à écrire.

1 Advanced Emergency Braking, ou « freinage automatique d’urgence »

Publié dans le n° 332 de la revue


Partager cet article


L' auteur

Jean-Marc David

Jean-Marc David est docteur en intelligence artificielle et a été responsable du domaine d’expertise stratégique (...)

Plus d'informations

Intelligence Artificielle

L’intelligence artificielle (IA) suscite curiosité, enthousiasme et inquiétude. Elle est présente dans d’innombrables applications, ses prouesses font régulièrement la une des journaux. Dans le même temps, des déclarations médiatisées mettent en garde contre des machines qui pourraient prendre le pouvoir et menacer la place de l’Homme ou, a minima, porter atteinte à certaines de nos libertés. Les performances impressionnantes observées aujourd’hui sont-elles annonciatrices de comportements qui vont vite nous échapper ?