Waiting..
Auto Scroll
Sync
Top
Bottom
Select text to annotate, Click play in YouTube to begin
00:00:00
[Musique] [Musique] voilà le dernier exposé avant la table ronde qui terminera la matinée donc
00:00:28
c'est Patrick Perez que j'invite directeur scientifique de Valeo merci voilà qui va nous parler de cette vision aller à plomb là futuriste comme je l'ai appelé donc il va peut-être nous
00:00:43
dire que elle est pas si futuriste que ça voilà c'est la question du véhicule autonome avantage et peut-être inconvénient je ne sais pas bonjour à tous je suis ravi d'être là pendant qu'on est en train de
00:00:56
s'installer pour vous parler donc du véhicule autonome et je vais faire appel à des diapositives en anglais vous me pardonnerez mais je vais continuer en français
00:01:08
du coup la voiture autonome la voiture sans conducteur ou comme disent nos amis anglo-saxons la voiture qui conduit toute seule le sel blovingcor est un vieux rêve donc je vais juste revenir en
00:01:20
arrière sur ce vieux rêve qui qu'on retrouve dans la littérature dans le cinéma etc et j'ai pour illustration cette publicité de 1956 pour une
00:01:33
entreprise américaine et qui est qui imagine donc des voitures sans conducteur et elle est intéressante à deux titres cette illustration merci bien d'une part elle montre qu'on peut faire la voiture autonome sans avoir à
00:01:46
changer la voiture complètement en tout cas il y a toujours ou un tableau de bord un volant et des pédales mais ça pose également une question qui est vraiment d'actualité pour les acteurs du domaine qui est celui de comment occuper le temps libérer pour le conducteur et
00:01:58
les autres occupants dans dans la voiture et on imagine facilement les enjeux qu'il y a derrière une autre illustration qui date de 1990 et étonnamment qui est peut-être plus plus daté que la précédente mais elle
00:02:11
sort d'un film que peut-être certains d'entre vous ont vu donc c'est la vision du cinéaste néerlandais Paul Verhoven dans le film Total Recall en 1990 où il imagine donc un taxi alors on parle maintenant de robotaxi mais là c'est un
00:02:23
taxi avec un chauffeur robot donc c'est pas tout à fait ce que ce que je vais vous présenter aujourd'hui pour que ce rêve devienne réalité une première étape très importante qui s'est passé en Europe à la dans les années 80
00:02:37
et qui s'est étalé sur une dizaine une dizaine d'années est un projet bilatéral dans le dans le cadre du programme Eureka et c'était un projet qui s'appelait Prometheus et en
00:02:50
particulier avec des acteurs français et allemands et qui est allé de des années 86 à 95 et qui a réellement développé des véhicules en voie vanne aussi une version véhicule léger avec déjà tous
00:03:04
les ingrédients qu'on va retrouver dans les dans les véhicules sans conducteur actuel en particulier des caméras des scanners laser des algorithmes qui permettent de de détecter de comprendre
00:03:17
où sont les autres véhicules et de commander complètement le véhicule je vous ai mis sur le slide que vous aurez je vais pas la jouer une vidéo que j'ai retrouvé sur sur internet sur Youtube et qui est vraiment extraordinaire et qui
00:03:30
en l'espace de 10 minutes présente toutes les avancées de ce projet et on voit réellement le véhicule sur autoroute en Allemagne en train de se débrouiller pas mal du tout et quand on pense à la capacité de calcul qui est embarquée à l'époque c'est assez
00:03:42
remarquable et il y avait déjà des réseaux de neurones à l'époque mais il a fallu attendre une dizaine d'années de l'autre côté de l'Atlantique pour qu'il y ait vraiment une étape également très importante qui est
00:03:54
souvent mentionnée dans l'histoire de de ces technologies là qui sont les les challenges qui ont été mises en place par la l'agence américaine la défense la dare pas il y en a eu deux notre notablement un en 2004 qui était de la
00:04:07
du véhicule autonome dans le désert donc on imagine les applications peut-être davantage militaires et autant je m'en souvienne aucun des véhicules sur la ligne de départ n'a atteint la ligne d'arrivée ils sont même tous s'arrêter
00:04:19
très très tôt après la ligne de départ et trois ans plus tard il y a eu un autre version du challenge qui était en milieu urbain dans une réplique de de ville et là avec déjà au bout de trois
00:04:31
ans beaucoup d'avancées techniques et beaucoup des acteurs qui ont participé à ce challenge ont d'ailleurs essayé aux États-Unis à travers des labos académiques et des start-ups on va arriver
00:04:45
dans l'époque moderne on va dire en 2009 avec ce petit véhicule au courbe au courbe rigolotes que on a commencé à voir dans certaines sur certaines routes
00:04:57
de la citadelle c'était la Google Car en 2009 avec une partie de ces capteurs sur le sur le toit et c'était c'était disons la phase on est rentré dans la phase
00:05:09
vraiment récente et une dizaine d'années plus tard ben voilà le la situation en tout cas en termes de de véhicules légers la Google card a donné ce que vous voyez à gauche qui est waymo qui est donc une filiale de groupe alphabet
00:05:22
la maison mère de Google il y a d'autres d'autres acteurs la concurrence est assez féroce donc aux États-Unis je donne l'exemple de CROUS ici et évidemment la Chine qui n'est pas en reste et vous voyez un autre beau
00:05:34
taxi à droite qui est celui de d'Alibaba en Chine donc c'est servi de robotaxie sont des sont limités que celui de ce sont essentiellement des expérimentations celui de WeMo par
00:05:48
exemple tourne essentiellement à Phoenix même si les autorisations étaient données dans d'autres villes aux États-Unis et de même en Chine j'ai pas personnellement l'occasion de
00:05:59
d'essayer mais on trouve beaucoup de pour ceux qui s'intéresse beaucoup de vidéos sur Internet de d'usagers de ces services mais ça c'est peut-être la partie la plus spectaculaire la plus la plus
00:06:11
visible pour les particuliers en tout cas et les médias et à vrai dire le véhicule le terrestre autonome c'est c'est bien d'autres choses en fait c'est d'autres véhicules à commencer par et d'autres usages non il a commencé par des véhicules plus petits pour la
00:06:24
livraison la livraison des des biens là vous voyez deux exemples celui de l'entreprise américaine Nioro et en dessous vous voyez un véhicule qu'on a développé une plateforme développée par Valeo pour
00:06:37
le l'entreprise chinoise makihan de livraison à domicile donc c'est aussi ce qu'on appelle la livraison du ou l'autonomie du dernier kilomètre également alors certains d'entre vous
00:06:51
ont vu sans doute parce qu'en France il y en a pas mal c'est c'est navette autonomes donc on est sur des trajets plus courts à faible vitesse on va du point A au point B sur le même et là vous voyez deux exemples donc le
00:07:03
véhicule de Navia au dessus et celui du easymile en dessous donc deux entreprises françaises et pour des véhicules plus lourds il y a évidemment la logistique avec les
00:07:16
camions sur sur autoroute vous voyez l'exemple à nouveau de une branche qui s'appelle weimovia pour les camions et puis alors des véhicules qu'on croise assez rarement c'est des très gros
00:07:28
véhicules de l'industrie minière et puis dans l'agriculture également des tout un tas de tracteurs etc qui sont de plus en plus autonomes et là on est sur des équipements très lourds donc voilà pour
00:07:41
vous donner une idée un peu plus complète de de quoi on parle ici et pour faire le point et c'est très important parce qu'on en parle beaucoup parfois dans les médias de cette façon là des niveaux d'autonomie
00:07:54
d'automatisation de la conduite alors je pars rentrer dans tous les détails de ce tableau mais c'est pour vous dire que donc les niveaux d'automatisation de la conduite des transports sur route sont un peu sont standardisés
00:08:07
par la société internationale des ingénieurs de l'automobile il y a cinq niveaux d'automatisation le niveau 5 étant le niveau ultime où on peut se
00:08:18
passer de volant et de ce qui est important de comprendre dans ce tableau c'est qu'il y a la partie à gauche la partie bleue jusqu'au niveau 2 en fait c'est de l'assistance à la conduite donc il y a toujours un conducteur à tout
00:08:30
instant en charge et quand on passe à au niveau 3 et au-delà dans la partie droite en vert on rentre vraiment dans ces systèmes de délégation de la conduite qui sont de plus en plus poussées
00:08:42
un autre élément intéressant qu'on passe du niveau 1 au niveau 2 donc d'assistance à la conduite une des différences principales c'est qu'au niveau 2 le système peut contrôler simultanément le longitudinal
00:08:54
c'est-à-dire la vitesse et le latéral c'est à dire la direction ce que vous n'avez pas au niveau et après il y a tout un tas de contextes particuliers d'utilisation en particulier au niveau 2 ça peut être des systèmes de parking
00:09:06
automatiques donc à faible vitesse où ça peut être des des systèmes de d'assistance du maintien de voix ou de changement de voix sur autoroute au niveau 3 le premier qui est le premier
00:09:19
niveau donc d'automatisation de délégation on peut où on voit que le conducteur peut être encore sollicité ça peut être dans des cas très très restreints je vais je vais je vais l'évoquer dans une seconde évidemment aussi ce que je viens de dire
00:09:32
entre assistance automatisation à des conséquences sur les aspects légaux ça sera peut-être évoqué cet après-midi et si on regarde sur les véhicules de particulier qui sont actuellement commercialisés il y a surtout des sur
00:09:45
des véhicules haut de gamme pas mal de système désormais de niveau 2 et en particulier pour le pour les deux fonctions que j'ai évoqué le parking automatique et le maintien ou le changement de voix sur autoroute quand
00:09:59
on passe de l'autre côté en termes de système réel commercialisé alors là c'est il y a très peu de choses à l'heure actuelle en fait il y a essentiellement deux modèles qui ont été autorisés à en Allemagne Mercedes Classe
00:10:11
S et 1 au Japon la Honda légende à être au niveau 3 et dans une circonstances très particulières c'est pour de l'aide à la conduite sur autoroute à moins de 60 km/h donc en
00:10:24
congestion et il a dit l'élément important c'est que dans ce système ces systèmes là le l'utilisateur le conducteur peut vraiment faire autre chose merci mails faire autre chose et c'est en cas de
00:10:37
problème il a 10 secondes pour reprendre la main donc vous voyez c'est là où on en est ce dans des véhicules commercialisés ou qui qui s'apprête à naître les robots taxis donc j'ai montré
00:10:50
précédemment qui sont pas des véhicules évidemment commercialisés pour les particuliers sont de niveau de niveau 4 et on les voit on voit ici cette fonction là donc le taxi de taxi
00:11:03
autonome dans des zones bien déterminées alors pourquoi pourquoi l'industries pourquoi le monde académique scientifique dépense sous ton énergie autant d'argent des milliards d'investissements sur ce sujet là donc
00:11:18
de l'assistance avancée l'acronyme anglais c'est hadas ou donc jusqu'à la lotonomie ou l'automatisation complète la première raison évidente c'est pour rendre les transports terrestres et des
00:11:32
personnes et des biens le plus sûr possible sachant qu'il y a plus d'un million de morts par an sur les roues dans le monde donc sans parler des blessés donc ce qui est exorbitant et 90% de ces accidents sont liés à des
00:11:46
défaillances humaines et une grande partie de celle-ci liée à l'endormissement la distraction et les briétés toutes choses pour lequel le
00:11:58
le système automatique est clairement et clairement immunes et c'est pas la seule raison et ça va connecter avec d'autres choses qui ont été évoquées ce matin ça a du manière plus générale le l'automatisation de la conduite va
00:12:10
rendre le les transports plus confortables en particulier pour les conducteurs évidemment plus plus inclusive et également puisque ça va permettre à des gens qui sont pas en capacité de conduire ou bien qui sont
00:12:21
éloignés de de la des desserts des desserts qui sont isolés d'avoir accès plus facilement à ce genre de transport plus efficace également et compris dans un contexte de de véhicules partagés et
00:12:36
à tout prendre plus durable puisque plus économique et plus efficient donc il y a beaucoup d'enjeux derrière et on imagine évidemment que ce que ces technologies là sont le potentiel et ça a déjà
00:12:51
commencé de vraiment de changer fondamentalement les mobilités terrestres mais pourquoi ne voit-on pas des robots taxis pour partout dans Paris alors que certains les ont annoncés il y a deux
00:13:04
ans en fait il y a pas mal de défis autour de l'assistance avancée et d'automatisation de la conduite que je vais et que je vais lister
00:13:15
rapidement les systèmes dont on parle la premièrement doivent être d'un point de vue technique doivent être embarqués évidemment et fonctionner en temps réel donc sur des calculateurs et avec des disons plus réduits que ce que vous
00:13:27
auriez dans un datacenter ils sont évidemment critiques en termes de sécurité et doit fonctionner dans un monde ouvert un prédictible imprévisible pardon et en plus sur des durées assez longues alors c'est pas l'aviation certes mais comme ça déjà été évoqué une
00:13:41
voiture une fois qu'elle est vendue elle est sur la route pour 10-15 ans donc ça ça a un impact sur sur les systèmes dont on parle et enfin ça va être basé beaucoup sur donc ce qu'on appelle
00:13:53
communément l'intelligence artificielle donc en particulier un message automatique ce qui permet beaucoup de choses mais vient aussi avec des limites importantes et au vu de ce de
00:14:05
ces prérequis ou de ces de ces attendus ces systèmes ils doivent être ils doivent avoir plein de propriétés qui sont toutes prises une individuellement un défi ils doivent être ils doivent être performants ils doivent être obuste
00:14:18
ils doivent être capable de généraliser à de nouvelles conditions ils doivent être donc fiables évidemment mais pour poursuivre là-dessus doivent être autant que faire ce peu valider de
00:14:29
façon de façon pointue et si possible certifié pour être sur la route et transparent jusqu'à certains points pour comprendre vraiment qu'est-ce qui se passe et pourquoi une décision a été prise surtout si elle était mauvaise
00:14:43
voilà autant de défis pour les ingénieurs les chercheurs je vais je vais essayer de vous expliquer maintenant rapidement comment fonctionne la pile logiciel de d'un véhicule autonome
00:14:58
parce que vous voyez ce que vous voyez ici est un ciel essentiellement une quelque chose de très classique en robotique autonome ça ça démarre avec avec des capteurs qui envoient des
00:15:09
signaux à des et bien honnêtes et genre artificielle désormais qui est en charge de comprendre où sont les véhicules autour de les autres véhicules les autres usagers de la route les piétons
00:15:21
que font-ils ou vont-ils par ailleurs s'il y a une carte disponible ou accessible d'autres capteurs dans la voiture que sont le GPS
00:15:33
et les capteurs inertiels permettent de localiser le véhicule sur cette carte et on va mélanger ces différentes informations pour fabriquer une sorte de modèle autour disons à 50 ou à 100 mètres à
00:15:46
distance de 50 à 100 mètres autour de notre véhicule et cette ce modèle là c'est une augmentation du vue de dessus si vous voulez ou ensuite on va pouvoir essayer de prédire à une ou deux
00:15:59
secondes à l'avance quelles seront les évolutions possibles ou les trajectoires possibles les autres usagers et ceci étant fait on peut enfin essayer de planifier la
00:16:11
trajectoire de notre véhicule étant donné la destination qui lui est fixée et convertir ça en contrôle donc sur la vitesse et la direction du véhicule alors ce qui se passe depuis un petit
00:16:24
nombre d'années qui est donc cette chaîne est classique mais ce qui est nouveau et vraiment révolutionnaire c'est que une grande partie de des premières couches des toutes les premières couches sont désormais réalisées par des réseaux
00:16:37
neurones donc ce qu'on appelle apprentissage profond ce sont des fonctions mathématiques de dizaines de millions voire des bientôt de dizaines ou de centaines de milliards de paramètres qu'il faut apprendre d'un mois à passer à partir de données mais
00:16:48
qui vont contrôler donc chacune de ces couches de perception de fusion de de prédiction etc encore plus radical et plus récent donc ça c'est c'est ce qu'on appelle la pile module modulaire plus
00:17:02
radical et plus récent cher à certains cherchent désormais à avoir un seul système monolithique qui va directement des signaux des capteurs aux commandes de la voiture avec un seul et même
00:17:14
modèle à base donc et de réseau neurones et de technique qu'on appelle de d'apprentissage par renforcement ou par imitation donc ça c'est des choses très récentes à quoi ça ressemble en vrai je vais
00:17:28
prendre un exemple qui qui m'est proche puisque ça c'est ce que vous voyez c'est un et de pas y avoir de son c'est un véhicule des plateformes donc Valeo qui sont équipés d'ailleurs de
00:17:41
capteurs commercialisés qui sont par ailleurs sur des véhicules des véhicules de particuliers et vous avez vu je vais essayer de le rejouer rapidement vous avez vu au dessus la
00:17:52
version grande distance on traverse des continents ou des pays et puis en dessous vous voyez la conduite urbaine en particulier à Paris et voyez l'intérieur du cockpit et puis aussi la vision technique la différents
00:18:05
endroits où en fait vous voyez les les points laser de positionnement des objets détectés etc en 3D et puis des changements d'élimination qui doit qui doit être qui doivent être prises en compte
00:18:18
[Musique] alors les je vais essayer d'illustrer certains des tâches en particulier de perception qui sont qui sont nécessaires pour réaliser ça la perception là elle peut se faire en particulier avec des
00:18:32
caméras elle peut se faire en 2D sur cet exemple vous voyez une tâche en particulier qui consiste non seulement à détecter les piétons mais pour chacun avoir une idée de la pose de dés de est-ce que le piéton est en train de
00:18:44
regarder la voiture quel est son intention va-t-il traverser ou pas etc en particulier pour les piétons qui sont proches du véhicule donc on voit clairement l'intérêt de ce genre d'analyse automatique
00:18:56
la perception peut se faire aussi en 3D cet exemple issu de d'une base de données weemo ce que vous voyez c'est pas le résultat de la perception mais c'est le ce qu'on cherche idéalement à faire faire
00:19:09
l'ordinateur ça c'est des données d'entraînement et vous voyez donc chaque véhicule chaque piéton etc était détecté enfin ou en tout cas et positionner en 3D vous voyez le petit parallélépipède remporté mon assiette la
00:19:22
même chose en 3D et donc ça c'est une des tâches phare et difficile à faire réaliser par par la machine cette perception 3D peut se faire également avec des scanners laser ce
00:19:35
qu'on appelle des lidares là vous voyez un nuage de points typiques avec en haut à droite l'image correspondante et une fois de plus vous voyez les noms des paris hippopotes de couleurs qui correspondent aux différents aux différents véhicules
00:19:48
détectés ou usagés par route et dernière élément je voulais illustrer sur la perception c'est ce qu'on appelle le four casting dans la prédiction temporelle donc ça va un petit peu aidé
00:20:01
je vais essayer d'expliquer mais en fait là vous voyez un exemple d'une voiture dotée de 6 caméras qui voit donc à 360 et là vous avez vu la vue vous avez la vue dessus et la tâche consiste si vous
00:20:13
regardez essentiellement à prédire pour chacun donc le petit rectangle noir là c'est la voiture c'est notre voiture et de la tâche consiste à prédire à une ou deux secondes à l'avance pour chacun des utilisateurs les plusieurs éventuellement plusieurs trajectoires
00:20:26
possibles soyez c'est pour ça que vous voyez dans certains cas ça c'est vase quand arrive une intersection et ça c'est des tâches extrêmement difficiles à réaliser et pour lesquels il est difficile d'avoir des données
00:20:38
voilà alors ça c'était pour vous dire quels sont les types de tâches pour pourquoi pourquoi la perception particulière qui est donc le démarrage de la chaîne de conduite et extrêmement difficile
00:20:50
en quelques mots la raison n'est la diversité des situations des conditions des conditions ce qu'on appelle des domaines d'opération dans laquelle le véhicule peut évoluer d'un point de vue
00:21:02
statistique il y a des des variations entre ce qui a été observées à l'apprentissage du modèle et ce qu'il va réellement rencontrer au moment du déploiement et puis il y a tout un tas de situations rares qui se produisent
00:21:14
pendant la conduite et tout absorbe de perturbations là juste quelques illustrations donc les différentes conditions météo la nuit le brouillard la pluie et puis suivant qu'on déploie dans tel ou telle ville du monde ou
00:21:27
telle ou tel pays c'est pas le même type de circulation évidemment et par ailleurs tout il y a toutes les perturbations quand on le voit sur les deux images du haut vous voyez en haut à gauche un système
00:21:38
actuelle de maintien de voix sur autoroute qui est très très fortement perturbé par du soleil en face et à droite vous voyez une caméra affichage qui est une caméra assez bas sur le véhicule qui sert en particulier à la au
00:21:51
parking automatique qui peut être complètement couvert debout avec évidemment ce que cela implique pour le l'ordinateur qui doit analyser les images et ce que vous voyez en dessous ces trois exemples parmi tant d'autres de situations que nous on comprend tout
00:22:03
de suite et mais qui sont finalement assez rares du point de vue des données d'apprentissage un pick-up avec une moto à l'arrière un camion qui porte des voitures puis on traque une autre à l'arrière et puis un
00:22:18
cycliste qui tombe sur un passage piéton voilà ça c'est la la vraie vie de la conduite et à charge un ordinateur de comprendre ce qui se passe alors qu'est-ce qu'on peut mobiliser comme
00:22:30
outil technique et scientifique pour pour face à ces défis là le premier c'est d'avoir des capteurs multiples et complémentaires que ce soit en face d'entraînement ou de déploiement
00:22:45
avoir beaucoup de données je l'ai dit une grande partie de la chaîne voir la totalité des armées est basée sur de l'intelligence artificielle c'est à dire de l'apprentissage à partir de données cette donnée elle peut être en grande quantité brute voire en partie à noter
00:22:58
j'ai montré un exemple mais ça c'est très coûteux donc il faut utiliser au maximum toutes les données qu'on arrive à collecter une partie de ces données d'ailleurs peut être complétée par la donnée synthétique ou partiellement synthétique
00:23:10
à base de simulation en particulier ça c'est très précieux chose qui semble importante et qui est une vraie question ouverte c'est c'est comment faire que le système soit conscient de ses propres limites à
00:23:23
chaque instant est-ce qu'il a une idée de l'incertitude de sa décision un dernier point et celui de d'équiper nos systèmes à base d'intelligence artificielle de d'une forme
00:23:35
d'explicabilité que ce soit postériori ou par design et finalement c'est bien de faire des choses à partir des données mais la voiture doit une
00:23:48
finir respecter le code de la route et soumise aux lois aux lois de la physique que l'on peut essayer d'introduire à l'intérieur des systèmes comme une connaissance a priori un mot sur les capteurs donc ça c'est
00:24:01
l'exemple de la des capteurs que développent à Léo mais la typologie est classique il y a en gros les caméras qui sont comme nos yeux un petit peu donc ça on est habitué on
00:24:13
les comprend bien ces capteurs passifs et puis il y a les trois autres catégories de capteurs qui sont un capteurs actif qui envoie quelque chose et qui est qui reçoit et qui qui reçoivent ce qui revient l'ultrason qui
00:24:26
envoie une onde sonore c'est pour la perception enchante très proche pour l'anecdote votre voiture qui fait bip bip c'est pas du radar de recul c'est de l'ultrason mais par ailleurs il y a aussi des radars donc ça c'est des ondes radio qui
00:24:39
sont envoyées et qui permettent de mesurer entre autres la vitesse relative des véhicules et puis et puis le leader que j'ai déjà évoqué donc le scanner laser quand on voit en fait de la lumière infrarouge laser et qui et qui
00:24:51
est qui enregistre le retour tous ces capteurs se complètent ils ont des résolutions des modes de fonctionnement différents je l'ai déjà évoqué la caméra peut-être un petit peu embêté par par le mauvais
00:25:04
temps le radar pas du tout le leader fait à une perception 3D native enfin ils ont chacun leurs propriétés intéressantes mais plus que j'ai déjà montré des images de caméra et de et de
00:25:18
et de lidar je voulais juste montrer un petit ce que à quoi ressemble un signal d'un laser pardon d'un radar là pour le coup le radar est dans la la voiture est pas sur le droit de lapin sur le bord de
00:25:30
la route pour vous vous verbaliser et ce que je veux évoquer ici c'est que donc c'est un c'est un signal assez particulier vous voyez le donc la scène à côté
00:25:42
c'est pas évident même pour un expert dans le dans le spectre d'énergie du radar que j'ai mis sous de forme ici donc l'Asie mute et la portée et le doppler et la portée donc le doppler
00:25:54
c'est la vitesse relative c'est pas évident de retrouver les signatures des différents véhicules ou là du péton et de la voiture mais il se trouve désormais qu'avec des progrès récents et on y travaille en intelligence artificielle on sait désormais quand
00:26:06
même retrouver dans ces signaux et reconnaître les différents les différents objets qui sont présents un autre outil qui est intéressant pour pour améliorer la perception c'est ce
00:26:19
qu'on appelle l'adaptation de domaine et qui a pour but vraiment de limiter l'impact de la différence toujours présente entre les données qui vont être vues pendant la phase d'après d'entraînement de des réseaux neurones
00:26:30
et ceux qui seront vus à la une fois le une fois le système déployé et dans ces dans ces techniques là l'idée c'est d'avoir des données qui sont issues ce qu'on appelle un domaine source c'est
00:26:42
des données très très de très bonne qualité qui ont été annotées très bien maîtrisés mais qui sont pas forcément représentatifs de ce qu'on veut et puis des données qui sont plus proches de ce qu'on pense
00:26:57
voir ensuite au moment du déploiement mais qui n'ont pas été annotés donc qui sont moins moins propres et on veut exploiter ces deux types de données à l'apprentissage et l'exemple typique ce
00:27:09
qui va me permettre d'illustrer une autre tâche de perception c'est celui ou le une source c'est des données synthétiques qu'on contrôle parfaitement avec des avec de la simulation et le domaine
00:27:21
cible c'est des vrais scènes disons de jours et là vous voyez cet exemple pour une tâche particulière qui s'appelle la segmentation sémantique qui consiste pour chaque pixel à reconnaître la nature de l'objet au niveau du pixel de
00:27:35
la route du trottoir des arbres du ciel etc si vous apprenez un réseau de Rome sur des données purement synthétiques pour faire ça bah il va sur une nouvelle image synthétique plutôt bien se débrouiller en revanche si je lui donne
00:27:47
une image réelle maintenant ça va être la catastrophe et donc l'adaptation de domaine consiste à exploiter conjointement au moment de l'apprentissage également des images réelles mais pour lequel on ne sait pas la réponse mais qu'on peut quand même
00:28:00
exploiter pour obtenir de meilleurs résultats et ça c'est quelque chose qui est assez précieux pour dans pour améliorer la perception un autre point que j'ai déjà évoqué
00:28:12
parmi des outils précieux c'est celui de prédire la confiance qu'est-ce que j'entends par là donc un réseau de neurones peut être très très devenir très très fort maintenant pour détecter reconnaître des objets mais là
00:28:25
où il est pas très fort c'est pour savoir ce qu'il ne sait pas et donc l'idée de essayer de pouvoir prédire cette confiance afin de non seulement d'aider la conception au moment de la conception des réseaux neurones pour qu'il soit meilleur mais aussi au moment
00:28:38
de donc de leur utilisation d'avoir une utilisation plus fiable et y compris en ayant un système qui dit je ne sais pas je rends la main au conducteur si ça donc un système de conduite de bout en bout
00:28:50
et donc comme je disais le problème c'est que les réseaux de neurones savent rarement ce qu'ils ne savent pas et qui peuvent faire des erreurs qui nous semblent parfaitement absurde sans raison apparente et l'exemple un petit peu emblématique
00:29:00
c'est celui qui consiste à prendre un système de reconnaissance d'objets ici et de modifier de façon très subtile l'image mais de façon tout à fait calculée mais perceptible à l’œil humain
00:29:14
et le même système va de façon très très confiante reconnaître un autre objet alors l'image pour nous n'a pas changé c'est ce qu'on appelle des perturbations antagonistes donc c'est un exemple parmi
00:29:26
d'autres et une façon assez récente et qui est une voix de recherche intéressante pour aborder problème c'est d'entraîner un autre modèle un autre réseau de neurones qui va superviser le
00:29:37
réseau principal si vous voulez pour en particulier lui aider à prédire sa confiance donc dans le cas de la tâche que j'ai présenté précédemment de segmentation sémantique vous auriez votre modèle
00:29:49
principal qui prédit en chaque pixel une classe une catégorie et vous auriez un autre modèle qui a entraîné par dessus et qui en chaque pixel va dire quel est le degré d'incertitude donc ça c'est des choses sur lequel la communauté
00:30:02
travaille ou bien directement si c'est par exemple un modèle de bout en bout de conduite qui va prédire qu'il y a vraisemblablement là une une du système et donc déclencher
00:30:16
peut-être des alarmes etc je pour finir je voulais illustrer le aussi une autre question qui est celle de l'explicabilité qui donc un autre défaut des réseaux d'orange
00:30:33
j'ai dit qu'ils savent pas nécessairement quand ils ne savent pas mais même quand ils savent faire bien on est il y a pas vraiment de c'est pas très facile de savoir comment ils sont arrivés à la bonne conclusion donc cette idée de l'interprète de l'interprétabilité ou de
00:30:46
l'intelligibilité et une des façons intéressantes de d'aborder le problème et celle de de des explications contrefactuelles c'est à dire qui consiste à dire qu'est-ce qui se passe si je modifie l'entrée de cette façon là
00:30:58
et là illustrer dans le sur le sujet de la conduite imaginez que vous avez un modèle de conduite qui prend une image ou des images en entrée et des sites dans ce cas là de de s'arrêter
00:31:11
et nous on comprend pourquoi on aimerait être sûr que le réseau ou le modèle a pris la décision de s'arrêter pour des bonnes raisons et les les explications contre factuelles ce consiste à essayer de modifier le contenu visuel
00:31:24
et là vous le voyez modifier de façon [Musique] disons qu'avec d'une façon significative en tout cas qui a du sens de façon à faire changer la décision du
00:31:38
modèle on voudrait modifier l'image pour que le modèle de conduite décide de ne pas s'arrêter et voir qu'est-ce qui a été modifié et là vous constate que ce qui a été modifié dans l'image je sais que les feux stop de la voiture ce sont
00:31:51
plus ou moins éteints les feux rouges de tricolores sont passés au vert ce qui semble effectivement une ça a du sens ce qui semble avoir du sens et nous conforte dans l'idée que ce modèle là
00:32:02
prend ses décisions sur des sur des bancs des bonnes raisons il se trouve qu'on sait maintenant on a des outils mathématiques pour fabriquer ces variations d'une scène visuelle de faire qui
00:32:15
disons restent restent des images plausibles il faut bien comprendre cette image là c'est une image qui a été générée par une par une intelligence artificielle pour modifier cette image qui n'imagerie réelle voilà et je vous
00:32:30
montrais juste des exemples et je finirai là-dessus de 2 de type d'explications contre factuels la première donc comme ça quand je viens de teinter juste avant c'est des modifications qui n'ont pas changé la structure de la scène mais simplement sa
00:32:42
texture et en particulier on peut lui dire donc on veut que le système qui de conduite qui avait décidé de s'arrêter finalement ne s'arrête pas et on va lui en plus lui dire modifique moi uniquement et pas dans ce cas-là les
00:32:55
feux tricolores et on voit qu'il fait bien le il fait bien le job là on va lui dire modifie moi uniquement l'apparence de la voiture et là il va effectivement enlever les feux stop et là on va lui dire modifie moi la route et il va se passer un truc
00:33:07
créer des créer des marquages au sol qui a priorent ils sont sans lien avec le fait de s'arrêter ou pas donc là on peut penser qu'il y a peut-être une corrélation moins moins heureuse dans les données et que c'est important de
00:33:20
s'y pencher et l'autre version sur laquelle nous travaillons dans mon équipe et qui est tout très simple c'est de faire des modifications de la scène mais qui modifie la structure c'est à dire on peut déplacer ou modifier les objets et donc là vous voyez par exemple
00:33:33
que cette scène réelle pour pour que le système décide de de s'arrêter mais en fait il a fait apparaître une voiture au premier plan là c'est l'inverse il a pris il a fait
00:33:45
il a éloigné cette voiture là et là il a enlevé cette voiture là et de le système non se sent autorisé à tourner à gauche une fois de plus à quoi ça sert ça ça sert à essayer de comprendre quels sont les mécanismes internes du réseau neuron
00:33:58
pour prendre telle ou telle décision pour ce convaincre qu'elles sont bonnes et si elles sont pas bonnes de revenir dans la phase de conception voilà je vais m'arrêter là avec quelques éléments de conclusion
00:34:12
j'espère avoir réussi à vous convaincre que la l'assistance avancée les et l'automatisation de la conduite sont des généralités grâce à particulier au progrès de l'intelligence artificielle
00:34:26
et des capteurs et je les peux mentionné mais la puissance de calcul embarqués que c'est en train de radicalement changer l'industrie automobile évidemment en lien avec l'électrification ça concerne pas que
00:34:39
les voitures les voitures des particuliers loin de là mais que c'est sans doute sensiblement plus dur que ce que on avait imaginé et les défis qu'il y a devant nous beaucoup autour de la donnée la quantité donnée la qualité de
00:34:52
données pour l'entraînement des modèles mais aussi la validation comment améliorer sensiblement la fiabilité de ces systèmes en allant jusqu'à leur certification et la dernière question c'est une fois que ces modèles à base
00:35:05
confiance artificielle sont dans vos voitures ou dans nos camions comment on fait pour continuer à les monitorer et à mettre à jour pour les améliorer avec tout un tas de problèmes techniques à la
00:35:18
clé je vous remercie merci [Applaudissements] [Musique]
End of transcript