Waiting..
Auto Scroll
Sync
Top
Bottom
Select text to annotate, Click play in YouTube to begin
00:00:00
[Musique] [Musique] bien bonjour à tous le cours d'aujourd'hui sera
00:00:28
consacré au géométriqu et musicaux les plus élémentaires et à leur mécanismes cérébraux autrement dit on va rentrer un petit peu dans le vif des sciences cognitive du sujet qui nous intéresse je
00:00:41
vous rappelle juste que dans les cours précédents nous avions vu que les hommes depuis extrêmement longtemps les petits- enfants également produisent des dessins mais des dessins qui ne sont pas
00:00:52
proprement parler réaliste on a parlé de réalisme intellectuel parce que ces dessins sont très souvent géométrisés lifié en faisant appel à un petit jeu de forme comme des carrés des
00:01:04
rectangles des cercles des lignes parallèles ou en zigzag et parfois il n'y a pas de réalisme du tout il y a simplement la production de motifs géométriqu et ce sont parfois les plus
00:01:16
anciens comme ici sur cette ocre qui date l'atelier d'ocre en question daterit d' a entre 70000 et 100000 ans alors aujourd'hui on va s'intéresser à
00:01:29
au mécanismes cognitif qui sont nécessaires pour expliquer cette capacité de produire des dessins géométriques des motifs géométriques mais avant ça je voudrais vous
00:01:41
présenter une vidéo qui illustre à quel point nous sommes sensibles à la présence de motifs à la fois dans l'espace et dans le domaine sonore et je fais appel pour cela à Monsieur Bobby
00:01:54
mferine vous allez voir c'est très sympathique talking about expectations expectations W pa pa
00:02:21
pa pa pa pa pa PA [Musique]
00:02:36
[Applaudissements] oke pa pa pa [Rires] pa
00:02:58
pa PA [Musique] bon je vous laisserai regarder toute la vidéo tranquillement sur internet mais je crois que vous avez compris l'idée ici en une minute même pas en 30
00:03:22
secondes euh les personnes qui assistent ce spectacle bon qui ont peut-être une petite formation musicale quand même mais perçoivent immédiatement le pattern le motif voilà la correspondance entre
00:03:34
l'espace et un motif dans l'espace une espèce d'oscillation dans l'espace des positions et puis euh un motif musical et c'est exactement ça qui va nous intéresser aujourd'hui euh comment est-ce qu'on fait pour reconnaître aussi
00:03:46
rapidement de tels motifs alors je vais vous mettre immédiatement dans la situation du laboratoire ça c'est le test que Maria malerck a utilisé pendant sa thèse euh avec de jeunes enfants euh maternel et de de CP donc vous êtes un
00:04:00
jeune enfant maintenant c'est beaucoup plus simple que Bobby mcferine mais quand même vous allez voir un poisson qui se cache dans ces mars ici et votre tâche c'est de deviner où est-ce qu'il va aller je vous laisse voir alors où est-ce qu'il va vous
00:04:19
savez je pense hein ici et puis là et puis là vous êtes tous sûr d'ailleurs et vous seriez choqué s'il n'allit pas au bon endroit alors qu'après tout c'est une séquence spatiale je peux faire ce que je veux bon mais euh vous avez immédiatement perçu la séquence ici mais
00:04:32
c'est pas si simple hein euh c'est une séquence en zigzag et euh vous l'avez perçu en moins d'un essai en fait on parle vous savez on parle de one trial learning mais là c'est pas one trial learning c'est half a trial c'est un
00:04:45
demi-essai même pas vu toute la séquence savz déjà comment ça va se poursuivre euh c'est ça qu'on va essayer d'expliquer aujourd'hui l' extraordinaire capacité de percevoir des motifs abstraits est-ce qu'elle est propre à l'espèce humaine comment ça se
00:04:57
passe dans le cerveau ici on a un Z Z AG et je avis montrer au début du cours un zigzag un des plus anciens marqueurs de géométrie de l'humanité sur un coquillage qui daterait d' a environ
00:05:09
540000 ans et qui n'est donc pas homo sapiens mais c'est plutôt l'œuvre d'un homoererectus voil le zigzag est un paturne absolument universel on en trouve dans toutes les cultures souvent
00:05:21
il représente de façon abstraite les vagues la mer mais il peut représenter aussi les bras ici ou bien une rivière qui cool euh il est universel et il est pourtant il est très abstrait qu'est-ce
00:05:34
qu'il faut pour expliquer un zigzag alors ça a été le premier travail de Maria maleri au laboratoire d'essayer de comprendre qu'est-ce qu'il faut comme ressource cognitive pour expliquer cette capacité de mémoire d'une séquence en
00:05:46
fait on n pas étudié que la séquence zigzag qui s'appelle ici quatre segments parce qu'il y a quatre segments parallèles les uns aux autres hein mais sur cette octogone avec huit positions on a essayé plein de séquences différentes dont certaines extrêmement
00:05:58
simples comme tourner autour de de l'octogone et d'autres un peu plus complexe par exemple on peut tracer un arc d'un côté et puis un autre arc de l'autre côté voyez en commençant n'importe où évidemment hein ou bien on peut tracer un carré et puis un deuxième
00:06:11
carré ou bien on peut tracer un rectangle et un deuxième rectangle et puis il a des séquences qui sont irrégulières dans la mesure où aucun d'entre nous n'y voit de régularité et alors on s'est aperçu que pour expliquer des choses aussi simple que le zigzag il
00:06:24
fallait faire appel en fait à une sorte de langage euh un langage de la géométrie et on a fait une prop position précise sans doute incomplète qui demande encore être raffiné mais enfin qui est nécessaire pour rendre compte de cette mémoire des séquences la raison
00:06:36
pour laquelle on a choisi huit positions ici c'est parce que normalement huit positions ça devrait excéder votre mémoire de travail et vous ne devriez pas être capable de vous souvenir facilement d'un séquence de on dit que la c'est à peu près 7 peut-être le
00:06:48
maximum de la M de travail et en réalité on parle maintenant plutôt de trois ou quatre slots dans lequel on peut mettre de l'information mais qui peut être comprimé donc pour expliquer précisément qu'on est capable de reconnaître certains de ces motifs mais pas tous et
00:07:01
bien on doit postuler qu'il y a une compression de l'information dans la mémoire de travail et pour comprimer l'information on a été amené à postuler que les sujets doivent disposer d'un petit répertoire de primitive comme la
00:07:14
rotation dans un sens dans l'autre en sautant ou pas des étapes et puis les symétries toutes les symétries possibles par exemple vous avez été sensible à la symétrie diagonale ici dans le premier exemple qui n'est pas qui n'est pas trivial voilà mais surtout l'idée
00:07:27
essentielle c'est que il y a pas seulement ces primitif a leur combinaison récursive par exemple pour représenter le zigzag il faut avoir une sorte de formule qui dit répétons quatre fois une symétrie qui se répète donc
00:07:38
avec deux points qui sont symétriques l'un de l'autre c'est ça que vous avez fait vous avez vous avez considéré que le premier point se déplace et qu'à chaque fois on prend son symétrique autour d'un axe d'accord c'est une description qui convient bien de ce que
00:07:50
les sujets font dans cette tâche alors ça paraît un appareil théorique considérable j'isessayie de vous montrer que c'est nécessaire pour rendre compte des données que nous avons eu d'abord donc on a des données comportementales on a demandé aux gens d'anticiper
00:08:04
exactement ce que je vous ai demandé au départ où va aller la séquence où va aller le poisson et donc là on voit en fonction du temps les différents endroits que les personnes ont choisi le carré indiquerait le bon endroit donc
00:08:15
comme c'est un zigzag ça fait un espèce de zigzag ici sur l'écran et puis la séquence donc démarre avec les deux premiers et on demande où va aller le 3e où va aller le 4e où va aller le 5e et ensuite une fois que la séquence s'est
00:08:28
déroulée une première fois on a roule une deuxème fois ici voyez on regarde si la personne a retenu comment ça se passait alors vous voyez ici les performances en terme de taux d'erreur est-ce que la personne a choisi le bon endroit le 3e endroit c'est difficile
00:08:40
mais dès le 4e 5e 6e vous vous aviez eu le 5e 6e et pardon je crois que vous avez le 6e 7e et 8e et bien je vous ai donné les C premiers c'est très facile de connaître les trois
00:08:53
suivants la représentation ici montre aussi une séquence qui est en gris la séquence en gris c'est la férence ce sont des séquences de complexité maximale une fois qu'on a notre langage on peut on peut choisir des séquences
00:09:05
qui ont qui ne peuvent pas être comprimés avec ce langage peut pas être raccourci pour lequel la description est la plus grande je suis passé un petit peu vite mais il y a ce concept essentiel de longueur de description minimale c'estàd la longueur de
00:09:18
l'expression mentale qu'il faut avoir pour décrire la séquence cette longueur peut être très courte je tourne autour de l'octogone peut être un peu plus complexe je fais des zigzags elle peut être extrêmement complexe on a arrive pas à comprimer la séquence du tout et
00:09:31
dans ce cas-là ça donne une séquence de longueur de complexité plutôt maximale les longueurs sont toujours 8 hein c'est toujours huit éléments mais la complexité géométrique est maximale et c'est on a représenté les performances
00:09:42
des sujets pour ce type de séquence irrégulière ici en en fond vous voyez que bien sûr une personne peut apprendre à exclure les éléments passés c'est toujours des nouveaux éléments qui apparaissent et puis elle peut apprendre
00:09:54
à retenir une séquence mais elle ne fait pas très bien elle est aux alentours de 50 % de performance même à la fin et ici vous voyez que pour des séquences régulières on fait bien mieux on fait bien mieux évidemment pour des séquences qui tournent autour du cercle mais on fait bien mieux en fait pour toutes les
00:10:07
séquences qui sont régulières ici par exemple vous avez une alternance j'avance je recule et cetera vous avez la fameuse séquence deux arc un arc de 4 à droite un arc de 4 à gauche alors voyez que c'est intéressant parce que le
00:10:20
sujet commence son arc et puis évidemment il peut pas prédire que ça va changer donc là il y a une erreur mais après ça il continue à séquence normalement mais quand il la te on retrouve une petite erreur au début une
00:10:32
petite erreur au début du deuxème arc et puis c'est tout la mémoire est excellente et en fait la la reproduction de la séquence reflète la structure mentale de la séquence celle comp postule les groupes de quatre vous avez
00:10:44
d'autres exemples ici avec de carrés ou deux diagonales voyez que la structuration en groupe de 4 est là pour de carrés la structuration en groupe de 2 est là pour les diagonal de rectangles de croix et cetera et alors si vous regardez
00:10:58
attentivement ce diagramme vous voyez voy que la distance entre la courbe grise et la courbe noire n'est pas la même pour les séquences les plus simples elle est énorme pour les séquences plus complexe elle est plus faible et c'est exactement ce qu'on a trouvé quand on
00:11:11
regarde de façon plus générale c'est que la complexité prédite par ce langage de la pensée la la capacité de comprimer la séquence en mémoire avec une description courte et bien prédit le pourcentage
00:11:23
d'erreurs que vont faire les sujets dans cette tâche et non seulement elle prédit la performance des adultes mais aussi la performance de jeunes enfants en maternel ici et aussi grâce à un collègue du CNRS pierre pic qui est
00:11:36
peut-être ici je sais pas si Pierre est parmi nous on a la chance de pouvoir accéder à des populations en Amazonie les Indiens munduruku et l'intérêt c'est que on peut exclure donc ou séparer en
00:11:49
tout cas une composante d'éducation d'une composante d'âge sont des personnes qui sont adultes mais qui n'ont pas d'éducation formelle en mathématique ou en musique et vous voyez que on Contin continue d'avoir cette différence entre des séquences qui sont
00:12:01
très simples selon le langage et que le les indiens arrivent à anticiper comme vous et moi et puis des séquences irrégulières que les Indiens n'arrivent pas à anticiper bon il y a des détails qui sont pas exactement les mêmes le
00:12:14
langage est peut-être un peu plus simple pour eux la capacité de récursion à trois niveaux qui est nécessaire peut-être pour des séquences comme deux croix ou deux ou quatre diagonale n'est peut-être pas présente mais c'est quand
00:12:26
même globalement le même langage qui est utilisé donc ça veut dire que nous amenons à cette tâche une sorte de structure une structure géométrique euh qui fait qu'on fait des groupes et des groupes de groupes don des répétitions
00:12:38
de répétition alors on peut aller plus dans le détail hein on peut prédire vraiment point par point en fonction du temps ici donc vous avez les éléments de 3 à 8 de la séquence la performance des
00:12:50
adultes et la performance d'un modèle et vous voyez qu'il y a un parallélisme très étroit entre les données réelles et le modèle le mode modèle dit simplement à chaque étape le sujet essaie de trouver le programme le plus simple qui
00:13:05
est compatible avec ce qu'il a observé jusque là et si la complexité est trop grande il peut se tromper de programme il narrive pas à trouver un programme de ce type ce sont les deux seules hypothèses de ce modèle ici et on arrive très bien à rendre compte des
00:13:17
performances et de l'écroulement des performances des adultes des enfants et des indi munduruku avec juste quelques paramètres dans ce modèle je rentre pas dans le détail mais vous voyez que par exemple c'est assez compréhensible que dans une séquence de 2 carrés on
00:13:29
n'arrive pas à prédire le démarrage du 2è carré mais une fois qu'on a le premier point du 2è carré on sait qu'on va faire un carré autour de de ce premier point donc on a des moments d'incertitude et puis on a des moments
00:13:41
dans lesquels on peut simplement dérouler le programme récursif cette approche a été étendue récemment inspirée par notre travail hein euh vous savez qu'on interagit beaucoup avec l'équipe de Josh tenon bom
00:13:54
à mit et là euh le groupe de de Tenon bom a produit une extension vraiment considérable de cette idée euh avec euh un programme où il y a plus h positions mais n'importe quelle position sur une
00:14:07
tablette peut être utilisée c'est un jeu assez sympa d'ailleurs hein on donne un premier point et puis la personne doit deviner où va être le point suivant alors elle clique où elle veut on voit ici par exemple euh pour cette séquence où ça ça alterne simplement entre deux
00:14:21
positions hein et la personne a cliqué un peu au hasard les points bleus ici le la couleur représente le temps qui se déroule il y a 20 essais successifs donc le premier essai la personne sait pas où cliquer et le programme lui dit non tu aurais dû cliquer là 3e essai 4e essai
00:14:34
5e essai vraiment comme on a fait avec euh euh notre séquence à nous mais on peut cliquer n'importe où sur l'écran comme on peut cliquer n'importe où sur l'écran on peut faire des séquences particulièrement sophistiquées donc vous avez une par exemple ici qui est une sorte de sinusoïde dont l'amplitude
00:14:47
augmente vous avez une très simple ou c'est juste une droite dans tous les cas vous voyez qu'avec la couleur les données des sujets s'alignent et elles s'alignent je sais pas si vous arrivez à voir sur les petits points noirs qui sont les endroits euh où le programme
00:15:01
demande qu'on clique alors il y a des séquences qui sont trop complexes où les sujets n'y arrivent pas ils ne font qu'une sorte d'approximation mais pour les l'immense majorité de ces séquences les sujets font bien et trouvent la euh séquence mais cette fois-ci dans un
00:15:14
espace beaucoup plus large avec une grande variété de structures possibles euh les sujets arrivent à inférer euh non seulement le zigzag mais la sinusoïde la quadratique ici le cercle voilà ici les données sont sur un cercle
00:15:26
donc le premier point vous cliquez un peu au hasard autour du point le deuxième vous commencez à voir que ça va dans cette direction là et puis très vite vous comprenez ah c'est un cercle j'arrive à cliquer sur le sur le point suivant et toutes ces données donc qui
00:15:38
sont très riches c'est c'est toujours cette approche du groupe de de tenenbom de générer des données comportementales très riches et toutes ces données peuvent être modélisées explicitement par cette idée d'un langage de la pensée ils appellent ça l'inférence de
00:15:51
programme et j'avais utilisé terme dans le cours précédent c'est-à-dire que ce que fait l'esprit humain dans cette situation c'est d'inférer quel est le pattern quel est le motif géométrique et surtout quel est le
00:16:02
programme qui a généré ce motif géométrique et il parle donc d'un programme avec un langage de la pensée lot c'est language of S on verra cette abréviation souvent et ce langage de la
00:16:14
pensée dans leur cas est plus complexe que le nôtre il fait appel à toutes sortes de primitives voyez de nombres entiers et réels de paramètres de mouvement d'accélération de changement
00:16:26
d'angle et cetera alors on verra dans le dernier cours le 6e cours que Mathias sabl meilleur et moi-même avons proposé un langage simplifié un peu de ce type aussi mais voilà donc le débat
00:16:39
actuellement ce n'est plus sur l'existence d'une sorte de langage de la pensée c'est vraiment sur la nature des primitives qui compose ce langage de la pensée est-ce qu'on a vraiment besoin de toutes ces primitives par exemple accélérer ou bien est-ce que ça peut être quelque chose qui est lui-même
00:16:52
explicable par des primitifs encore plus simples vous voyez que il faut quand même une richesse conceptuelle très forte pour expliquer ces motifs que les sujets humains sont capables d'apprendre alors revenons à notre
00:17:04
langage plus élémentaire avec juste l'octogone les huit positions une fois qu'on a un beau test comme ça on peut faire toutes sortes d'études première étude qu'on a faite c'est les mouvements oculaire dans cette tâche on a fait une
00:17:16
chose extraordinairement simple on a juste demandé au sujet regardez il y a huit positions là il y a un objet qui va bouger c'était plus un poisson mais un objet abstrait tout ce que vous avez à faire c'est le suivre avec vos yeux donc quand le truc apparaît vous bougez vos
00:17:29
yeux à cet endroit-là bah ça c'est l'instruction mais évidemment ce que font les sujets c'est beaucoup plus riche ils anticipent avec leurs yeux la position qui va venir ils ne peuvent pas s'empêcher de bouger leurs yeux à l'avance vers la position qu'ils pensent
00:17:42
voir apparaître et donc ce qu'on a fait c'est de mesurer un index d'anticipation voyez ici sur l'axe des Y cet index d'anticipation s'il est proche de zéro ça veut dire que le sujet est déjà à la bonne position en gros c'est
00:17:54
la distance à la position qui serait la bonne avant qu'elle apparaisse voilà donc le sujet bouge ses yeux vers la bonne position avant même qu'elle apparaisse sans en avoir conscience hein et sans que ça ça fasse partie de l'instruction et vous voyez que cette
00:18:08
anticipation là encore varie avec la régularité de la séquence donc la la complexité le la longueur de description minimale prédit la capacité d'anticiper et en particulier la courbe en gris ici
00:18:21
c'est toujours ma séquence de contrôle irrégulière maximalement irrégulière selon le langage qu'on propose vous voyez que là il y a il a pas beaucoup d'anticipation il y en a très peu même s'il y a quand même une forme de régularité qui est qu'on exclut
00:18:33
progressivement les positions qui ont déjà été présentées he il y a toujours huit positions et toutes ces positions sont toujours utilisées dans la séquence donc à la fin on a utilisé les huit positions donc vous voyez que on on voit directement dans ces mouvements
00:18:45
oculaires la structure de la séquence par exemple ici on voit les diagonales qui alternent tous les tous les deux items ici on voit quatre segments on voit que ça alterne de façon régulière ici un petit peu tous les h et tous les quat ici ici on voit très très bien tous
00:18:57
les quatre et cetera alors ensuite on peut faire de l'IRM fonctionnel le l'intérêt de cette tâche de mouvement oculaire c'est on a juste à dire allez suivez les choses de du regard vous n'avez rien d'autre à faire que suivre les choses du regard on
00:19:10
peut mesurer le regard dans l'IRM et donc on on enfourne si je puis dire le sujet dans l'IRM on lui fait suivre ses séquences on fait suivre des séquences de de structures différentes et on corrèle l'activité cérébrale avec la
00:19:24
complexité qui est prédite par notre modèle et vous voyez ici en haut toutes les régions cérébrales qui sont un petit circuit assez bien restreint hein qui implique les régions occipitaaupariétales beaucoup d'activités le long du sillon
00:19:36
intrapariétal et dans les régions pariétales dorsales et puis ça descend et c'est toujours bilatéral ça descend dans les régions prémotrices et euh dans la région frontale inférieure gauche mais en restant assez dorsal et euh dans
00:19:49
la région 44D spécifiquement et en particulier ici alors on navait pas complètement euh anticipé que euh évidemment il y a quand même euh des confans comme on dit des corellas euh
00:20:01
non désirables et en particulier la distance des sacas demande à être contrôlé alors quand on enlève ce qui pourrait être expliqué par la distance des sacades ou par l'exigence de mémoire de la séquence le réseau se restreint et
00:20:13
on voit que cette région frontale inférieure gauche reste elle joue un rôle vraiment important dans la tâche mais surtout on avait peut-être pas assez réfléchi au fait que en fait on ne s'attend pas vraiment à une activation
00:20:24
monotone en fonction de la complexité on s'attend à une activité croissante seulement jusqu'au moment où le sujet n'arrive plus à suivre et s'il n'y a aucune régularité dans la séquence ben en réalité on a vu que le sujet n'arrive
00:20:37
pas bien à mémoriser la séquence n'arrive pas bien à l'anticiper et on s'est dit bah il faut prendre en compte finalement la capacité même d'anticipation du sujet donc on a créé un régresseur qui reflète en fait la
00:20:49
capacité d'anticipation du sujet et qui s'écroule quand il n'arrive plus à anticiper et vous voyez que ce régresseur rend encore mieux compte de l'activité cérébrale et en particulier dans le cortex préfrontal dorseau latéral ici et puis dans le noyau codé
00:21:02
vous avez cette activation extrêmement claire et également dans dans la région frontale inférieur gauche ici hein dans le cortex prémoteur un moindre degré ça monte jusqu'au point où la séquence est maximalement complexe mais on arrive à
00:21:14
la suivre et quand on arrive plus à la suivre quand il y a plus de régularité l'activation s'écroule dans ces régions autrement dit ces régions sont de très bons candidats pour le codage de ces régularités géométriques que le comportement montre qu'on extrait de ces
00:21:27
séquences de façon très intéressante cette étude montre que bien qu'il faille faire appel à un langage de la géométrie on parle d'un langage de la pensée ce ne sont pas les aires classiques du langage parl ou
00:21:40
écrit qui sont activés ici à gauche vous avez chez les mêmes sujets un ce qu'on appelle un localizer c'est-à-dire une séquence d'IRM o on regarde qu'est-ce qui s'active quand le sujet écoute ou lit des phrases et on voit ce réseau en
00:21:54
rouge ici c'est un groupe de sujets donc c'est un peu flou mais chez chaque sujet on peut identifier précisément quel voxul quelle région du cortex s'active pour le langage parlé ou écrit sont les régions qui sont en rouge et toutes ces
00:22:07
régions en rouge ici n'ont pas d'activité dans la tâche de géométrie si quelque chose elles sont plutôt déactivées voyez et à mesure que la complexité augmente de plus en plus déactivée donc on a un langage
00:22:20
géométrique mais ce sont pas les aires de langage qui travaille pas du tout quels aires sont en train de travailler et bien si on cherche un recouvrement avec d'autres tâche on trouve un recouvrement avec les mathématiques on trouve un recouvrement avec le calcul
00:22:33
mental donc pareil on a un localizer pour les voxul pour un sujet donné qui s'intéresse au calcul mental calculer 3 x 5 ça suffit à activer ces régions et ces mêmes régions s'activ fortement et
00:22:46
s'active de plus en plus avec la complexité ici dans cette tâche de géométrie donc ça veut dire que il y a un recouvrement entre cette tâche très élémentaire retenir une séquence visup
00:22:58
et puis coder les nombres travailler avec des des objets mathématiques élémentaires ça reste à explorer plus finement hein mais c'est tout à fait ce qu'on prédit on prédit qu'il y a des sortes de boucles de répétition répéter
00:23:10
quatre fois répétter deux fois une certaine symétrie tout ça ce sont des objets mathématiques qui se recouvrent avec ceux qu'on utilise pour faire de l'arithmétique par exemple alors ensuite on peut faire de la
00:23:22
magnéto-encéphalographie ou de l'électro-encéphalographie vous savez que cette machine qui est disponible à neurospice permet de suivre maintenant millisecondes par millisecondes le déroulé de l'activité cérébrale l'IRM va moyenner sur plusieurs secondes
00:23:35
typiquement et donc l'IRM nous donnait jusqu'à présent ce que je vous montrais chaque barre ici c'est l'activation à une séquence toute entière h items une activation grâce à l'amè on va pouvoir suivre l'activation de chacun des items
00:23:48
un par un et voir quelles sont les anticipations du sujet donc voilà à quoi ressemble le décodage d'une séquence spatiale grâce à la magnéte encéphalographie ici vous avez le temps mais faites attention l'échelle c'est en
00:24:01
millisecondes ici donc vous avez l'activation cé causée par un item d'une séquence de H et ici vous avez les h successifs et ce qu'on vous montre ici c'est ce qu'on appelle le décodage c'est la sortie d'un décodeur multivarié qui
00:24:14
est entraîné à prédire où la séquence va alors c'est vraiment euh quelque chose d'assez simple mais en même temps assez magnifique prenant les signaux de Meg on a 300 capteurs autour
00:24:26
de la tête un peu plus 300 on est capable de prendre ces signaux et d'entraîner un algorithme à retrouver quelle était la position de euh qui était stimulé sur l'écran parmi les huit positions possibles et ici le décodeur
00:24:40
le niveau du hasard serait ici et le décodeur fait bien mieux que le hasard pendant toute une période de temps ici et peut décoder chacun des huit éléments de la séquence bon c'est assez trivial quand même il y a des cartes rétinotopique dans le cerveau donc
00:24:53
chaque point de la rétine correspond à un point différent du cortex sur différentes carte donc on arrive à décoder ces cartes et vous voyez que pour chaque séquence le décodeur va donner à peu près une reconstruction de la séquence qui a été qui a été vu par
00:25:06
le sujet ces techniques se sont encore améliorées je suis sûr qu'on pourrait faire encore beaucoup mieux maintenant euh par exemple entre les mains de jeanréy King on est capable de prendre les signes omèg pour décoder quelle est la phrase qu'une personne a entendu et
00:25:18
dans une large mesure arriver à dire quel est le mot que la personne a entendu parmi plusieurs mots possibles donc ici on arrive à dire quelle est la position qui a été stimulée parmi plusieurs positions possibles parmi huit positions possibles voyez que la
00:25:31
séquence ferait un arc et un autre arc et vous voyez un arc et un autre arc dans le décodage bon ceci c'est assez facile encore on décode la position absolue du stimulus mais il y a déjà quelque chose de très intéressant
00:25:44
c'est qu'on arrive à décoder cette position avant qu'elle survienne on arrive à décoder une anticipation du sujet voilà ici vous voyez le décodeur de la position du sujet de la position de de l'item au moment où il survient
00:25:57
qui est zéro ici on voit une énorme augmentation du décodage mais en fait on voit le décodage avant un petit peu mieux que le hasard à chaque fois qu'on dit décodage cérébral il faut que vous pensiez mieux que le
00:26:10
hasard ça veut pas dire c'est parfait ça veut pas dire qu'à chaque essai on arrive à dire que ça marche on narrive pas à lire les pensées on arrive à faire mieux que le hasard c'est une preuve de principe qu'il y a un code dans le cerveau donc ici il y a une preuve de principe qu'il y a un code dans le
00:26:22
cerveau pour la position de l'item qui va venir pas pour celui qui est déjà là mais celui qui va venir et que dans cette analyse on doit contrôler finement pour la position parce que si on était très proche de l'item précédent
00:26:34
peut-être que c'est simplement le décodeur précédent qui je dirais bave sur cette position là mais ici on a bien contrôlé en ayant un point de contrôle qui est à égale distance du point précédent mais qui n'est pas celui qui va venir donc par exemple le carré
00:26:46
tourne dans ce sens-là vous avez compris que la séquence tourne dans ce sens-là et ici c'est un point de contrôle à égale distance de celui-ci vous voyez que on arrive à montrer que le décodeur fait mieux que le hasard pour la bonne bonne position par rapport à la position
00:26:59
de contrôle donc il y a des anticipations dans le cerveau c'est la première chose bon c'est pas très nouveau on sait très bien que le cerveau fonctionne sur un mode prédictif il anticipe ce qui va venir ce qu'on avait vu avec les saccades ici le sujet bouge pas les yeux hein bouge absolument pas
00:27:12
les yeux mais dans son cerveau il y a une anticipation mais ce qui est encore plus intéressant c'est qu'on a pu montrer que cette période d'anticipation corrèle avec la complexité de la séquence donc exactement comme les sacades tout à l'heure il y a un
00:27:25
marqueur dans le cerveau qui dit plus la séquence est simple plus j'arrive à prédire la suite donc c'est à nouveau une preuve que cette longueur de description minimale c'est un bon prédicteur de l'activité cérébrale on a
00:27:37
besoin de quelque chose comme la longueur du programme la longueur de cette expression mentale pour expliquer les données ici voz encore beaucoup mieux euh je vous ai dit tout à l'heure que pour rendre compte de ces petites
00:27:49
séquences on avait besoin de primitive qui était des rotations + 1 -1 autour du cercle ou bien des symétries par par rapport à un axe vertical horizontal et bien on arrive à décoder ces primitives
00:28:02
à partir de l'activité cérébrale donc ici c'est beaucoup beaucoup plus abstrait on ne décode pas la position absolue de l'item on on décode quelle est sa relation avec l'item précédent est-ce qu'il est relié à l'item
00:28:14
précédent par une opération de rotation par une opération de symétrie + 1 + 2 - 1 - 2 et cetera évidemment ici on décode une parmi 11 primitives mais il faut faire attention parce que ces primitifs
00:28:28
sont aussi distingués par la distance par exemple + 1 versus + 2 ou + 3 autour du cercle d'accord et la distance elle-même peut-être pourrait être un paramètre physique qui est décodable même si vous voyez qu'on décode avant
00:28:41
même à nouveau hein que le l'item survient donc on est dans la période entre P1 et P2 et on décode la nature de la transition entre P1 et P2 vous voyez qu'il y a même des anticipations avant même que P1 survienne ici le premier
00:28:53
point donc ça veut dire que le sujet est tout entier dans un programme anticipateur tout est anticipé mais il y a une chose vraiment belle qu'on peut faire ici c'est d'utiliser le fait que à séquence physique absolument identique
00:29:07
les mêmes positions sont stimulées mais notre langage de la pensée prédit que les choses ne sont pas codées de la même manière dans le cerveau pourquoi parce que quand je vous ai présenté le zigzag ici le passage de la position 1 à la
00:29:20
position 2 est codé comme une symétrie c'est une partie de la symétrie par rapport à l'axe vertical par exemple ici d'accord mais la même transition si maintenant je vous présentais la séquence avec un arc sur le côté et un
00:29:33
arc de l'autre côté c'est codé comme une rotation je suis en train de tourner et je vais continuer à tourner donc notre vision de ce langage de la pensée prédque que la même séquence physique peut être codé de façon différente dans
00:29:44
le cerveau et on a réussi à décoder non pas la physique du stimulus mais la représentation mentale c'est une rotation ou c'est une symétrie d'accord donc là il y a plus que deux possibilités le niveau de hasard c'est
00:29:58
50 % vous voyez qu'on fait un poil mieux que le niveau du hasard c'est pas extraordinaire hein comme décodage mais c'est significatif et ça nous permet de dire euh il y a des représentations mentales abstraites de la rotation ou de
00:30:09
la symétrie dans le cerveau du sujet et puis on peut aller encore plus loin vous voyez que il y a des différences importantes entre ces séquences c'est la régularité rythmique à laquelle vous avez vu qu'au départ
00:30:22
avec Bobby mcferin on est très sensible aussi hein donc il y a des séquences qui sont organisées par groupe de deux comme le zigzag qui est appelé quatre segments ici hein 1 2 puis je recommence 1 2 à chaque fois j'applique une symétrie
00:30:34
pareil pour les séquence autour la symétrie centrale en fait qu'on appelle quatre diagonales ici et puis il y a des séquences qui sont organisées par quatre un arc de quatre un arc de 4 un premier carré un deuxè carré et là notre langage
00:30:47
prédit qu'il y a des boucles complètement différentes ici il y a une boucle c'est comme dans un sens informatique une boucle fort qui se répète les choses deux fois et ici il y a une boucle fort qui répète les choses quatre fois il y aurait quelque chose
00:30:59
comme for I one to F voilà alors nous avons cherché s'il y avait vraiment une sorte de marqueur numérique dans la tête du sujet lorsqu'on regarde une telle séquence est-ce qu'il y a un marqueur qui va de 1 à 4 dans les séquences de
00:31:12
droite et de 1 à 2 dans la séquence de gauche et on a vu qu'on arrivait à décoder ces marqueurs numériques voilà il y a possibilité de créer un décodeur qui à partir des signes omè dit 1 et dit
00:31:26
2 alors voyez qu' a un décalage temporel mais en relation avec le l'indice le marqueur que nous postulons dans le langage de la pensée et ici il y a des
00:31:38
oscillations 1 2 1 2 1 2 ici il y a des oscillations 1 2 3 4 il est possible de décoder un marqueur 1 2 3 4 et vous voyez que si on fait le spectre de puissance de ces décodeurs on observe un
00:31:51
on observe toujours la fréquence la plus élevée puisque ça change tous les euh tous les items donc ça c'est la fréquence la la plus élevée mais on observe un souspic à la fréquence la
00:32:03
plus élevée divisé par 2 donc qui correspond à ces groupements par de ici et on observe un souspic à la fréquence la plus élevée divisée par 4 pour le la séquence dans lequelle les groupes sont des groupes de quatre autrement dit on
00:32:16
retrouve dans les signomèg eu même une trace de cette de ce groupement en deux ou en qu qui est prédit par le modèle et on ne trouve rien de tout ça ça c'est important c'est un contrôle très important si on essaie d'appliquer les même décodeur à la séquence irrégulière
00:32:29
ou aux séquences qui sont pas appropriées on ne trouve rien de tout ça donc ces groupements sont imposé par le cerveau à ces séquences quand c'est possible on peut même d'ailleurs faire
00:32:40
un décodeur pour 1 2 1 2 qui a été entraîné sur la séquence zigzag et qui généralise à la séquence diagonale et on peut créer un décodeur 1 2 3 4 pour la séquence de arcs qui généralise à la
00:32:53
séquence de carrés donc il y a vraiment une sorte de boucle abstraite qui est commune à plusieurs de ces séquences voilà donc c'est un résumé de beaucoup de données hein c'est aussi plusieurs articles ici et plusieurs
00:33:06
années de travail du laboratoire avec liping Wang avec foska Al Rumi tout le travail de de magnétoenphographie c'est le travail de FOSC al roui et tout ceci converge pour dire que bien que toutes ces séquences soient de longueur 8
00:33:19
qu'ell fassent tout appel au même position et bien en fait on a absolument besoin d'un langage de l'esprit pour expliquer ces données on a besoin de postuler que le sujet comprime et utilise des régularités et des
00:33:31
régularités de régularité euh des répétitions de répétition répétition avec variation je répète la symétrie mais je change le point de départ pour expliquer comment les sujets codent ce type de séquence alors ça rentre bien
00:33:45
dans l'un programme de recherche que on avait initié au laboratoire depuis plus de 10 ans et qui résumé ici dans cet article de de de neurone c'est l'idée de chercher quelle est la nature des représentations des séquences et est-ce
00:33:58
qu'il y a pas certaines représentations des séquences qui sont partagées avec d'autres espèces et d'autres qui seraient propres à l'espèce humaine je vais pas reprendre tout ce travail ici je crois que je l'avais exposé en 2016 lorsqu'on a déjà parlé de de langage
00:34:11
musical et du langage mathématique donc vous invite à regarder éventuellement le cours de 2016 mais l'idée c'était il y a des choses très élémentaires que nous ne sommes pas les seuls à comprendre les
00:34:23
animaux beaucoup d'animaux comprennent les transitions entre et sont capables de voir des probabilités de transition entre item ils peuvent savoir qu'une note en suit une autre et si ça n'est pas le cas s'il y a une violation ils observent que ce n'est pas le cas ils
00:34:35
sont capables de regrouper éventuellement les items pour former des chunks ils sont même capables d'avoir des nombres vous savez qu'il y a un sens du nombre évidemment chez beaucoup d'espèces animales et donc la notion de 1er 2e 3e existe chez l'animal et
00:34:48
peut-être même des patterns abstraits comme a a bon mais ce qui serait unique à l'espèce humaine c'est la capacité de former des structures enchassées récursive de type programme de la pensée
00:35:00
des structures de ce type là voyez je vais répéter une séquence puis je vais la répéter en sens inverse et la séquence elle-même est constituée deux paires par exemple donc vous voyez l'idée c'est que peut-être il y a un
00:35:11
langage et on utilisait vraiment ce terme à dessin qui serait propre à l'espèce humaine ù peut-être qu' y a une capacité générale de former des langages qui serait propre à l'espèce humaine alors la la séquence spatiale offre une
00:35:25
opportunité extraordinaire de de tester cette idéelà parce que après tout des animaux sont tout à fait capables d'apprendre des séquences spatiales et ça a été le travail de liping Wang qui a passé d'abord son postdoc au labo puis qu' est reparti en Chine et il teste ses
00:35:39
idées dans son laboratoire à shanghï il entraîne des animaux et essaie de voir quelles sont les limites de ce qu'on arrive à entraîner chez eux en terme de séquence spatiale donc il a réussi à entraîner les animaux à faire des séquences spatiales assez sophistiqué ici vous voyez c'est plus un octogone
00:35:52
c'est un hexagone il y a six positions et on va donner à l'animal une première position position une deuxè une trè elle change à chaque essai donc il y a plein de séquences possibles et après un certain délai l'animal va reproduire
00:36:05
cette séquence et il est même possible de lui donner un indice ici au milieu qui lui dit reproduis la séquence mais en marche arrière commence par le dernier et puis ensuite dans l'ordre inverse voilà ce qui est le cas ici donc il y a à la fois la séquence en marche
00:36:18
avant et la séquence en marche arrière je montre une vidéo on voit l'animal qui reproduit cette séquence en miroir ici donc à chaque fois vous avez les échantillons ça va un petit peu vite
00:36:30
1 2 3 et l'animal fait 1 2 3 dans le sens inverse j'espère que vous voyez suffisamment bien on va voir plusieurs exemples bon c'est un animal qui a reçu des dizaines de milliers d'ESS évidemment
00:36:46
hein alors on peut le faire aussi avec les mouvements des yeux ce qui est mieux pour l'électrophysiologie l'animal ne bouge que les yeux mais dans ses premiers tests c'était uniquement avec les les mouvements des doigts sur un écran tactile on avait pu montrer que
00:36:58
l'animal généralise donc il a appris à faire ses séquences sur l'hexagone mais il est capable de généraliser à une organisation en pyramide il est capable dans une certaine mesure de généraliser à des séquences de longueur un peu plus grande comme 4atre euh et euh voilà je
00:37:11
même dans des organisations aléatoire ici des points il arrive à généraliser la notion de miroir donc c'est déjà formidable hein il est capable de faire des choses très sophistiquées et en particulier la gramère en miroir ça veut dire une sorte d'enchassement des
00:37:24
répétitions ici et donc c'était pour ce qui est du programme par exemple de des de Chomski de description élémentaire des langage ici ça posait déjà un petit
00:37:36
problème mais par contre pour notre programme de langage de la géométrie vous allez voir qu'il y a quand même des limites extrêmement claires sur ce que les animaux font d'abord lipping a trouvé c'est peut-être pas une limite en dur mais enfin après des dizaines de milliers d'essaiis d'entraînement les
00:37:48
animaux n'arrivent pas à reproduire des séquences de longueur plus grande que trois ou quat bon on est encore en train de pousser les limites mais c'est très difficile l'apprentissage est incroyablement plus lent que les humains je vous ai montré un apprentissage en un
00:38:01
demi essai bon c'est pas le cas du tout chez les animaux et surtout les animaux n'arrivent pas à comprendre les structures géométriques alors on peut le voir en faisant une analyse un petit peu fine du comportement ici là ce sont des
00:38:13
séquences de quatre et vous voyez que on peut les classifier en 30 motifs différents un motif par exemple le plus simple pour nous c'est celui qui tourne autour de l'Hexagone comme ça c'est ce qu'on a appelé plusin on n'arrête pas de
00:38:27
d'aller à l'item suivant autour de l'hexagone et nous êtres humains on reconnaît que toutes ces séquences là appartiennent au même motif bon parfois ça tourne dans le sens des aiguilles d'une monde parfois ça tourne dans l'autre parfois on démarre ici parfois
00:38:40
on démarre là mais il y a six points de démarrage possible il y a deux directions de rotation il y a 12 variantes mais pour nous bah c'est la même séquence d'accord mais est-ce que c'est le cas pour les animaux et vous
00:38:52
voyez pour chacune de ces 30 de ces 30 motifs il y a 12 variantes possibles et bien une première observation c'est que les animaux ici il y a deux singes qui ont été entraînés ont une énorme
00:39:05
variance à l'intérieur de ces motifs et très peu de variance intermotif et pour les humains c'est exactement l'inverse nous avons très peu de variances entre ces 12 variantes ici
00:39:19
mais nous avons beaucoup de varianceces de comportement que ce soit des adultes ou des enfants entre ces 30 patterns entre ces 30 motif géométrique d'accord donc pour les singes il y a une dépendance de certaines spécificités du
00:39:32
point de départ ou du fait que ça tourne dans un sens ou que ça tourne dans l'autre pour not pour nous il y en a pas du tout pour nous on abstrait et ce qui compte c'est le motif et on le voit encore plus dans cette diapositive ici vous voyez qu' a les 30 motifs abstraits
00:39:45
qui ont été classifiés en fonction des données des enfants voyez par exemple le plus simple ici c'est celui où on tourne autour de de de l'horloge en quelque sorte s dans un sens ou dans l'autre donc là la
00:39:58
probabilité de réussir est très élevée c'est la probabilité de réussite ici et vous voyez que cet ordre qui existe les enfants est reproduit chez les adultes évidemment les adultes font mieux ils font moins d'erreur mais l'ordre est reproduit mais il y a absolument aucun
00:40:11
ordre dans les donné des singes ici les singes n'ont pas l'air de se préoccuper le moindre du monde des transitions géométriques est-ce qu'il y a une régularité ou pas donc jusqu'à présent on n' pas trouvé de capacité d'abstraire
00:40:24
des régularités géométriques et en fait je vous avais parlé l'an dernier dans un autre contexte du travail d'imagerie cérébrale au niveau neuronal de li ping Wang qui est un travail vraiment magnifique dans Science en 2022 il
00:40:37
arrive à regarder des milliers de neurones dans le cortex préfrontal il arrive à analyser comment l'information est codée dans le cortex préfrontal et il trouve que l'information est codée strictement en fonction de la position
00:40:49
absolue des item il y a trois sous-espaces neuronaux je avais parlé de cette notion d'espace neuronal il y a trois sous-espaces neuronaux qui codent la position du premier rythem la position du second la position du 3è
00:41:03
donc ici les différents points représentent les positions possibles à chaque point de l'espace réel correspond un point dans l'espace neuronal mais c'est tout il y a en quelque sorte trois slots trois guichets où on peut on peut
00:41:16
faire rentrer de l'information il y a aucune évidence d'un codage des transitions et de la géométrie de ces transitions entre ces positions donc évidemment on voit que c'est limité va pas avoir un nombre infini de de cases
00:41:28
de mémoire dans lequel coder de l'information et c'est peut-être pour cela que l'animal au bout de 4 ou 5 commence à échouer terriblement c'est juste des cases de mémoire mais nous avons quelque chose de plus nous avons
00:41:41
la capacité de comprimer l'information sous forme de de ce langage alors on va faire une petite pause je sens que je vais un peu vite aussi pu ça bien mais je vous fais pas
00:42:00
écouter du bac pour rien la question c'est est-ce que vous percevez une sorte de zigzag pourquoi pas c'est un peu réducteur de dire bac c'est du zigzag
00:42:16
mais vous voyez la métaphore d'ailleurs on le voit dans la partition ici il y a une sorte de tapisserie qui se déroule dans le temps et dans l'espace mais un espace qui n'est pas l'espace physique c'est un espace fréquentiel maintenant
00:42:29
qui est représenté par la hauteur sur la partition ici est-ce que c'est la même chose c'est la question qu'on s'est posé au laboratoire est-ce qu'il y aurait pas que finalement une représentation abstraite commune à la géométrie à la
00:42:43
musique est-ce qu'on pourrait essayer de comprimer la musique ou de comprendre les structures musicales comme capacité d'enchassement récursif et bien sûr il y a eu des propositions théoriques extrêm
00:42:56
extrêmement précise làus s de grammaire de la musique alors sur le plan de la préhistoire c'est une diapositive pour vous rappeler que le phénomène musical chez Homo sapiens en tout cas est sans doute aussi ancien que le phénomène
00:43:09
géométrique on trouve par exemple c'est c'est magnifique hein c'est des flutes ici d'os et d'ivoir qui sont trouvé en en nombre assez important hein pour dire qu'il y avait une véritable culture musicale et que probablement c'était le
00:43:23
cas il y a 35000 ans dans cet article de Nick connard donc euh ça veut dire que peut-être il y a une ancienneté tout aussi importante de ce langage musical que du langage géométrique alors je dois adresser mes
00:43:36
excuses à Jean-Sébastien bac tout de suite parce Queau laboratoire nous réduisons ces phénomènes à une expression extraordinairement simple voilà les stimulis que nous utilisons pour tester ces [Rires]
00:43:52
idées bon c'est pas du bac hein euh mais la question c'est est-ce que vous arrivez à vous souvenir de cette séquence je pense que oui voilà pourtant c'est une séquence de 16 hein notes bon
00:44:06
vous avezu que sont des séquences binaires on va on va réduire la musique à quelque chose de binaire pour l'instant en tout cas donc c'est un peu comme si vous jouiez du Bongo et qu' avait deux deux tambours possibles je
00:44:17
vous en donne une [Rires] deuxième vous avez l'impression de vous sauriez la répéter probablement peut-être une deuxième fois je en donne
00:44:30
une dernière vous répétez HM voilà alors là vous avez une sorte de hiérarchie de séquences qu'on a utilisé au laboratoire qui vont depuis des choses extraordinairement simples je pas fait écouter celle-là où il y a h t
00:44:47
identiques et h autres ou bien quatre et quatre mais ensuite vous avez des choses plus compliquées et jusqu'à tout en bas c'était une séquence la plus irrégulière possible et vous avez la complexité ici c'est la longueur de description
00:44:59
minimale qui est prédite par notre langage voyez que on a tout de suite l'intuition qu'effectivement là il y a pas de régularité alors en fait on propose exactement les mêmes idées dans le domaine de ces séquences binaires que
00:45:11
dans le domaine des séquences géométriques c'estd qu'il y a un système qui détecte les choses qui se répètent que ce soit les notes qui se répètent ou les répétitions de répétition qui est décrit comme des boucles et qui les compriment donc par exemple la séquence
00:45:24
je vais vous la redonner celle que je vousi donneré en prier voilà quelque part dans votre tête il y a quelque chose qui dit il y a une paire une deuxième paire il y a des paires de paires et puis ensuite il y a des alternances et tout ça se répète
00:45:38
d'accord voilà et c'est ça la proposition c'est que il y a une opération de répétition avec variation comme dans le domaine géométrique et alors ce qui est extraordinaire c'est qu'on a pu utiliser exactement le même langage on a rien dû changer du tout la
00:45:51
seule différence c'est qu'il y a plus que deux positions avant il y avait huit positions et comme il y a plus que deux positions il y a plus que essentiellement deux primitives soit je reste au même endroit soit je change je vais à l'autre endroit d'accord qui serait l'équivalent de la symétrie
00:46:04
peut-être et c'est tout et après on laisse le langage identique on fait les mêmes calculs et on trouve que notre langage prédit la mémoire de travail pour des séquences auditives comme ça alors comment tester la mémoire on pourrait faire répéter à la personne
00:46:17
mais c'est quand même compliqué on a préféré faire une version plus discrète de la mémoire qui consiste à habituer la personne à une de ses séquences on R toujours la même des séquences de 16 ici et puis à un moment il y a des violations par exemple cette note n'est
00:46:30
pas bonne ou bien il y a carrément une note intruse C ici qui n'a jamais été entendu auparavant qui est présenté on demande au sujet de cliquer pour dire j'ai détecté qu'il y avait un intru et que la capacité de détection d'un Tru
00:46:43
est directement liée à la complexité prédite par le modèle c'est-à-dire le minimal description l la longueur des descriptions minimal qu'on appelle aussi language of thought complexity lot complexity dans dans dans ces textes là
00:46:57
la prédiction est vraiment excellente voyez que c'est le cas à la fois pour les déviants où c'est la note B qui a été mise à la place de la note A mais même pour ce qu'on appelle les super déviants c'est ces notes c'est comme un coup de klaxon au milieu de de de bac
00:47:09
voyez c'est c'est pas bonne note du tout et bien les sujet le détecte très facilement mais le temps qui met pour le détecter et augmente légèrement avec la complexité comme si la complexité de la séquence les empêcher de détecter ces
00:47:22
notes en tout cas de les détecter aussi vite que d'habitude et puis en fait il de demander aux personnes quel est quel est votre jugement de la complexité subjective c'est quelque chose dans le dont on peut être conscient on est conscient qu'il y a des séquences plus
00:47:34
difficiles que d'autres alors ce qui a été très beau dans ce travail de Samuel planton c'est qu'il a pu aussi exclure tout une série de modèles alternatifs après tout on propose un modèle particulier donc il est il est ici lot
00:47:48
complexity et il corrèle très bien avec les données mais peut-être que d'autres modèles pourraient corréler très bien avec les données euh j'ai oublié de dire cet axe des y ici qui est un peu curieux s'appelle Lisa c'est un mélange des
00:48:00
temps de réaction et des taux d'erreur c'est une manière de fusionner les temps de réaction et les taux d'erreur mais traitez-le comme un temps de réaction c'est le temps de réaction qu'il faut pour détecter un item mais ça pourrait être aussi le taux d'erreur voyez qu'on a une très bonne prédiction du
00:48:13
comportement avec le modèle ici et surtout donc on a pu exclure toutes sortes d'autres euh euh modèle possi je vais pas rentrer dans le détail mais il y a eu énormément de propositions par exemple il y a l'idée queon comprime
00:48:25
comme un fichier ZIP voilà il y a un algorithme standard de compression l'emple ZIF ici qu'on a a utilisé et qui marche beaucoup moins bien que le langage spécifique qu'on a proposé il y a d'autres notions de complexité algorithmique d'entropie et cetera et on
00:48:39
peut faire des comparaisons de modèles ici plus on est bas sur cette échelle qui s'appelle le critère de d'information de akike plus on est bas plus le modèle est bon et voyez que le modèle de language of S est très bas en
00:48:52
fait on s'est aperçu qu'on pouvait faire encore mieux que le modèle qu'on avait proposé et c'est ce qui s'appelle lot chunk ici ça veut dire que en fait le sujet ne considère pas absolument tous les programmes la première chose qu'il fait c'est qu'il regroupe les sons qui
00:49:05
se répètent donc s'il y a des sons qui se répètent cinq fois par exemple ça va rester dans le programme final il se trouve que c'est pas toujours la stratégie optimale des fois il vaudrait mux dire il a quatre et puis le suivant il appartient à une alternance par exemple et bien le cerveau ne fait pas
00:49:18
ça en tout cas pas pas facilement et donc il vaut mieux faire cette hypothèse que les chunks les groupements de répétition vont conservé dans le programme final c'est un détail mais ça montre he qu'on peut utiliser la sélection de modèle pour trouver le
00:49:31
meilleur modèle possible et ça veut pas dire que différentes régions du cerveau ne font pas des choses différentes on a aussi observé qu'il y avait une une contribution des probabilités de
00:49:44
transition entre les items mais ça ne suffit pas à rendre compte des données il faut absolument faire appel à quelque chose comme la la complexité dans ce langage alors ça nous amène à un travail encore plus récent et tout aussi
00:49:57
intéressant de Maxime maahe pour sa thèse avec Florent miel publié tout récemment dans lequel on a pu montrer qu'il y avait effectivement deux systèmes très différents les uns des autres un système qui traite les règles
00:50:09
dont je vous parle depuis le départ de ce cours et puis un système qui traite les statistiques et sont des choses vraiment distinctes et que le sujet est capable de distinguer les statistiques ça vait être il y a certaines chances
00:50:20
que tel et T survienne il y a 20 % de probabilité que il y a 80 1 % de probabilité que et puis les règles déterministes bah c'est ce dont je viens de vous parler on est sûr une fois qu'on a compris la règle on est sûr de ce qui
00:50:32
va se passer ensuite alors on a créé un modèle baisien qui est capable de faire des inférences dans les deux domaines par exemple lorsqu'il entend une séquence comme a a a a a a et bien il y
00:50:45
a deux systèmes qui vont se dérouler en même temps il y en a un qui va dire je pense qu'il y a une règle j'ai l'impression qu'il y a une règle qui se répète tous les trois ici et que la règle c'est a A B et voilà il a une certaine probabilité que cette règle
00:50:58
soit réalisée il fait une anticipation et puis vous avez un deuxième système qui calcule les statistique qui dit ah j'ai observé plusieurs fois la transition de A vers A et puis parfois c'est de A vers B mais quand c'est B c'est toujours a derrière donc je vais
00:51:11
attribuer des probabilités de transition à ces items mais c'est uniquement probabiliste alors un nouvel item apparaît alors d'abord oui tous ces systèmes se combinent et nous donnent une certaine idée de la probabilité que
00:51:24
ce soit une règle qui de domine la séquence ou que ce soit une statistique qui domine la séquence puis le nouvel item apparaît ah c'est un a bon c'était pas un B la probabilité que ce soit la
00:51:36
règle à laquelle on pensait s'écroule totalement voyez en un essai hein c'est pas la règle AAB mais par contre la probabilité de transition gagne un tout petit peu et se déplace un tout petit peu en fonction de ces nouvelles
00:51:48
observations voyez qu'on révise nos hypothèses de façon baisienne donc ça c'est le modèle c'est le modèle se complique un petit peu il y a la fois l'hypothèse qu'il y a des règles dans le cerveau mais il y a l'hypothèse qu'on arbitre entre ce système de règles et ce
00:52:01
système de probabilité de transition et qu'on calcule les deux en même temps avec les mêmes données et comment faire des sciences cognitives avec cette chose là et bien on a trouvver une astuce qui
00:52:12
est intéressante comment lire ces probabilités à chaque instant dans le cerveau du sujet on a utilisé un écran tactile et les mouvements du doigt du sujet c'estàd une une mesure continue de
00:52:24
l'évolution de la pensée du sujet alors la tâche est simple on demande au sujet de placer son doigt ici en bas sur l'écran et de le bouger en permanence pour dire ou tenter de dire est-ce que c'est plutôt une règle qui domine la
00:52:38
séquence ou est-ce que c'est plutôt une régularité statistique qui domine la séquence donc le sujet va bouger son doigt bouger son doigt et puis un moment il va dire je sais c'est une règle ou bien je sais ou je crois que je sais c'est une statistique d'accord au
00:52:51
passage je vous j'attire votre attention sur cet article de revue qu'on a écrit avec Dror d'tane sur l'utilisation des mouvements du doigt pour mesurer des opérations cognitive on a on utilisait
00:53:05
cette capacité des tablettes tactiles de suivre le mouvement du doigt c'est d'une richesse informationnelle extraordinaire pour ceux qui font des sciences cognitives en fait pratiquement à l'échelle de la milliseconde de la dizaine de millisecondes on arrive à
00:53:17
suivre le déroulement de la pensée des sujets et en particulier ces inférences bayisiennes quels sont ces a prioris comment ils se mettent à jour pour donner un une représentation à postériori
00:53:29
comment est-ce que on voit aussi la confiance du sujet dans le doigt c'est assez intéressant les hypothèses se traduisent par la position du doigt mais la vitesse du doigt indique la confiance la vitesse donne une idée de la
00:53:41
confiance du sujet bref un énorme domaine dont je parlerai peut-être une autre fois ici on le met en application dans cette inférence entre deux système statistique ou de règles et je vous
00:53:53
donne un exemple donc ici vous avez une expérience où pendant tout un temps le sujet est exposé à des séquences qui sont aléatoires donc qui a vraiment pas de régularité puis à un moment où il y a un point de changement et il y a une
00:54:06
séquence qui devient régulièreyz que le ici vous avez le doigt du sujet qui bouge donc ça ce sont les données issues du sujet et ici c'est le modèle le doigt du sujet bouge aussi de
00:54:19
temps en temps va un petit peu dans la direction de statistique puis revient et puis à un moment la règle apparaît et au bout d'un nombre précis d'observation tac le sujet dit je sais il y a une règle et je vais dans la position de la
00:54:31
règle ce qui est caractéristique de la détection des règles c'est ce caractère abrupte ici qu'on ne voit pas dans la détection de régularité statistique la détection de régularité statistique vous voyez là encore le doigt du sujet bouge
00:54:43
il bouge un petit peu puis à un moment la statistique démarre et là le doigt du sujet se déplace mais lentement et en accord avec la lenteur du modèle vers la position qui dit il y a une régularité
00:54:55
statistique dans la séquence ici je crois qu'il y a plus d'alternance voyez il y a plus de fois a qui suit B et B qui suit a que la répétition alors je vais pas rentrer énormément dans le détail mais on peut donc modéliser ces
00:55:08
données voyez que le modèle peut rendre compte assez précisément de ces données et en particulier montrer qu'il y a vraiment deux espaces statistiques qui sont calculés en même temps que même
00:55:20
dans la partie aléatoire où il y a pas de régularité et bien le modèle prédit convenable ement la manière dont un sujet détecte ou croit détecter des régularités et arrive à à commencer à biaiser son doigt dans une direction ou
00:55:32
dans une autre et puis au sein même des règles ça c'est intéressant vous avez une règle par exemple qui dit 5A 5b 5A 5b 5A 5b ou 2a
00:55:45
2b 2 a 2B ces règles sont décrites comme je viens de le faire par une petite formule mais elles ont aussi des régularités statistiques par exemple ici il y a beaucoup de répétitions et dans l'autre il y a pas beaucoup de
00:55:58
répétition et bien on voit le doigt du sujet ça c'est la trajectoire du doigt du sujet qui reflète d'abord la statistique et ensuite soudainement la découverte que non c'est une règle il y a une règle derrière C ces données voyez
00:56:10
donc ça c'est une preuve que les deux sont calculés en permanence que le sujet a en quelque sorte deux cases dans l'esprit une qui détecte les statistique et une qui détecte les règles voilà il y
00:56:21
a encore d'autres détails je vraiment Maxime MAE a fait ici un travail remarquable pour tester des modèles alternatifs par exemple on pourrait tester l'hypothèse qu'il y a un seul système ça pourrait être un seul système
00:56:35
de statistique mais qui est biaisé pour penser que les probabilités sont tout ou rien c'est soit ZrO soit 1 donc les transitions entre item sont soit impossibles soit possibles les transitions les alternances sont soit
00:56:48
possibles soit impossible ça ne marche pas du tout c'est pas ça le système de règle le système de règle c'est vraiment un système qui détecte des motifs et des des règles sur ces motifs la deuxième alternative que Maxime a pu rejeter
00:57:00
c'est l'idée que il y a deux systèmes complètement indépendant l'un de l'autre ces deux systèmes sont pas indépendants parce qu'ils échangent quelque chose qui est une mesure baaisienne ces systèmes échangent une probabilité ils sont
00:57:12
capables de dire moi je pense que j'ai raison il y a une probabilité 80 % qui a une règle et l'autre dit j'ai une probabilité de 20 % VO donc ils ne sont pas indépendants les uns des autres dans ce sens-là le cerveau était vraiment se comporte comme un système bayisien qui
00:57:26
est capable d'échanger des probabilités baisiennes de le faire de façon rationnelle je rentre pas plus dans le détail c'est vraiment un article assez technique pour ceux que ça intéresse mais euh ça veut dire que on confirme l'existence d'un système de règles qui
00:57:39
fonctionne un petit peu comme ça en tout ou rien ou presque il accumule les statistiques puis un moment où il est quasiment certain qu'il y a une règle qui est présente alors je reviens à mes expériences maintenant sur la la musique
00:57:51
binaire et les patrons de musique binaire alors on a créé je vais aller un petit peu vite parce que je vois que le temps passe on a créé toute une hiérarchie de séquences binaires qui sont présentées ici par des X et des Y
00:58:03
qui correspondent à ces sons Bip Bip Bip Bou et cetera qui reproduisent et testent les différents niveaux de la hiérarchie de l'article de 2015 qu'on avait proposé donc vous avez alors
00:58:16
évidemment tout en bas des séquences qui ont la complexité maximale c'estàd qu'il y a pas de règle selon notre modèle on peut pas trouver de règles là-dedans c'est complexité maximal tout en haut il y a les séquences qui sont facilement
00:58:28
décrites par des probabilités de transition soit que ça se répète tout le temps soit que ça alterne tout le temps par exemple et puis entre les deux il y a des séquences qui demandent du chunking des groupements par exemple par paire ou par cadruplé donc il faut déjà
00:58:41
une sorte d'index numérique ici et puis des séquences enchassé par exemple celle que vous avez entendu les deux paires et les quatre alternances deux paires quatre alternances pour chacune de ces séquences on peut tester si le sujet les
00:58:54
les a compris en mettant des violations et les couleurs ici indiquent les endroits où on a choisi de mettre des violations et de regarder si le cerveau détecte ces violations donc on va introduire la mauvaise note un X à la
00:59:06
place d'un y ou vice-versa à tous ces endroits et sans rentrer là encore dans le détail mais je laisserai les diapos sur le site chacun de ces endroits teste finement ce que le sujet a compris par
00:59:18
exemple ici si c'est des paires et bien parfois c'est la répétition qu'on attend si c'est le deuxième élément de la paire mais parfois c'est le changement qu'on attend d'accord et au sein d'une même séquence le cerveau du sujet doit
00:59:32
basculer de j'attends que ça se répète j'attends que ça change j'attends que ça se répète j'attends que ça change c'est déjà une opération assez sophistiquée mais ici c'est encore plus sophistiqué parce que dans la première partie j'attends que ce soit des paires mais
00:59:45
dans la deuxième partie j'attends que ça alterne d'accord et les prédiction se renverse complètement ce qui était prédit par l'un devient ce qui est surprenant pour l'autre alorsz un petit peu vite maintenant mais
00:59:59
pour dire que la encéphalographie confirme que on trouve des traces de ce langage de la pensée dans le cerveau des gens donc là vous avez différents reflets de ces signaux cérébraux hein
01:00:11
d'abord tout simplement ce qu'on appelle le Global field power c'est la puissance émise dans ces signaux et vous voyez qu'il y a de plus en plus de puissance qui est émise à mesure que les séquences sont complexes à peu près 100 miseondes après la présentation d'un des tons de
01:00:23
cette séquence c'est une séquence de 16 tons mais ici on présente la moyenne sur chacun des tons hein et puis si on fait simplement une régression au niveau de de chacun des capteur au niveau des sources ici en fonction de la complexité
01:00:35
vous voyez un très bel arrangement en fonction de la complexité prédite par le modèle donc il y a vraiment une organisation au sein des séquences standard he sans qu'il y ait de violation pour l'instant euh une organisation très belle en fonction de
01:00:48
euh la description par le modèle de ces séquences les séquences qui sont faciles à décrire conduisent à moins d'activité et puis on peut regarder les signaux de violation et là encore on a exactement
01:01:00
ce qu'on prédit c'estàdire que les violations induisent d'autant plus de signals qu'elles sont faciles à détecter c'est-à-dire que la séquence est facile à coder si une séquence a un code
01:01:12
comprimé facile à retenir on détecte facilement les violations et donc on voit d'énormes signaux de violation ici pour les déviants dans la séquence qui se répète dans la séquence qui alterne mais aussi dans toutes les autres
01:01:24
séquence intermédiaire mais presque pas ou pas du tout pour la séquence la plus complexe et comme on a un décodeur qu'on peut appliquer à chacun des essai de toute la séquence ici à droite c'est vraiment une figure extraordinaire qui a
01:01:36
produite FOSC al roui vous voyez la totalité des 16 éléments de chaque séquence donc ici la séquence qui se répète X X X X X au départ quand on s'y habitue il y a des signaux de surprise
01:01:49
mais très vite quand elle est devenue standard parce qu'elle a été répétée plusieurs fois les signaux deviennent bleus c'estàdire qu'il y a plus de surprise et par contre quand il y a une violation où qu'elle soit ici ici ici ou
01:02:00
ici vous avez une réaction de surprise du cerveau et ensuite si vous regardez la taille de cette réaction de surprise elle est présente dans les différentes séquences mais elle devient plus lente et plus faible pour les séquences qui sont les plus complexes voilà mais elle
01:02:13
est toujours présente par exemple dans la séquence que je vous avais fait entendre en premier deux paires de deux paires et quatre alternances là deux paires quatre alternances vous avez toujours ces signaux de violation ici qui indiqueent que le sujet est en train de suivent très finement les différentes
01:02:26
étapes de cette séquence on peut faire la même chosees en IRM fonctionnel et euh là encore on teste toute une hiérarchie de séquence ici on a réussi à en tester un petit peu plus on a une dizaine et franchement
01:02:41
j'aime bien ce design ici qui peut être utilisé dans d'autres expériences et en particulier pourrait être utilisé chez l'animal hein vous avez donc cette hiérarchie depuis des séquences qui s'expliquent par des probabilités de transition des chunks des groupements
01:02:54
toute une série de structures enchassé plus ou moins complexes et puis on peut rien faire d'autre que d'essayer de mémoriser les séquences les plus complexes ici il y a pas de régularité à découvrir et première chose le comportement est toujours magnifique
01:03:07
donc si on demande au sujet de détecter des violations des déviant ici à gauche vous voyez le taux d'erreur et le temps de réaction hein reflète extrêmement précisément la complexité prédite par le
01:03:19
langage de la pensée là lot complexity c'est rare en psychologie d'avoir des corrélations aussi belle et aussi aussi précise et voyez ce taux d'erreur c'est pas de petits effets on parle de 0 %
01:03:31
d'erreur versus 70 % d'incapacité de détecter un déviant donc c'est vraiment la mémoire du sujet qui est déterminé par l'organisation de la séquence et puis on a fait une autre tâche ici qui est intéressante on a demandé au sujet
01:03:44
de placer des parenthèses on lui a redonné une sorte de description visuelle on dit mets les parenthèses où tu penses que la séquence est structurée voilà où est-ce qu'il y a des débuts et des fins de sous-séquence et vous voyez que les parenthèses qui sont
01:03:56
représentées ici par l'intensité de la couleur donc ça représente l'endroit où le sujet a mis le plus de parenthèses à travers plusieurs individus hein et bien reflète la structure de la séquence c'est pas exactement ce qu'on pensait donc il il y a encore des choses à
01:04:09
raffiner dans le modèle ici par exemple la séquence d'alternance bien en fait elle est groupée par deux et on y avait pas pensé au départ c'est AB et puis comme AB se répète bah il y a un 2ième AB 2è AB et cetera donc euh il a mis les
01:04:22
parenthèses par deux mais grosso modo ça reproduit comment nous pensons que la séquence est structurée dans le cerveau du sujet et quand c'est les complexes il y a pas vraiment de structure qui émerge ici alors ensuite on fait l'IRM de tout
01:04:33
ça euh je vous redonne les prédictions j'aurais peut-être dû insister un petit peu là-dessus la première prédiction évidemment c'est que la réponse cérébrale doit augmenter avec la complexité du modèle qu'on doit retenir en tête donc modèle simple peu
01:04:46
d'activité modèle complexe beaucoup d'activités sauf euh alors évidemment pour les violations c'est exactement l'inverse he modèle simple grande capacité de détecter les violations modèle complexe faible capacité de
01:04:58
détecter les violations mais puis il y a ce phénomène supplémentaire dont j'ai parler pour la géométrie si la séquence est un peu trop complexe bah les choses s'écroulent on n'arrive plus à suivre on a plus de structure en tête d'accord alors c'est exactement ce qu'on a trouvé
01:05:11
dans l'IRM et l'IRM nous a donné vraiment un joli réseau ici donc voyez en rouge les régions qui suivent de façon positive la complexité on regardera pas les régions en bleu qui
01:05:24
suivent de façon négative donc il sont déactivés dans cette tâche mais si vous regardez juste les régions en rouge et en jaune ici donc elles augmentent d'activité à mesure que la complexité de la séquence augmente comme tout à l'heure pour la géométrie he et puis
01:05:36
elle redescendent un petit peu pour la séquence la plus complexe et l'effet des déviants l'activation causée par les déviants et suit exactement la courbe inverse beaucoup d'activités pour les déviant facile à détecter peu d'activité
01:05:50
pour les déviant difficiles à détecter alors tout ceci trace un réseau que vous voyez ici qui comprend une fois de plus de façon importante une région qui est située proche mais pas dans la région de
01:06:01
brocin une région euh qui est on pourrait appeler 44D operculaire proche de l'operculum mais dorsal au région du langage et puis une région prémotrice
01:06:13
ici une région intrapariétale antérieure faible mais significative de l'autre côté en particulier ici et puis des régions temporales supérieures bilatérales et aussi du cervelet ici différentes régions du cervelet bon le
01:06:25
cervelet qui est connu pour son application dans dans la représentation des séquences donc tout ceci fa un petit réseau qui qu'on peut suivre aussi dans dans le temps ici mais je vais passer mais surtout on peut à nouveau regarder
01:06:37
son recouvrement soit avec les aires du langage chez les mêmes personnes sujet par sujet soit avec les aires des mathématiques et à nouveau vous voyez que si on choisit les régions parce qu'elles ont une réponse dans une tâche
01:06:49
mathématique elles font des petits calculs et bien ces régions contribuent à la tâche de S séquence musicale si par contre on choisit les régions par leur contribution aux aires du langage et bien on trouve pas un recouvrement nul
01:07:02
mais enfin quand même assez faible ici la plupart de ces régions du langage ne répondent pas aux séquences musicales on a de petites réponses dans la région operculaire que je viens de vous montrer et puis dans la partie postérieure du
01:07:14
sillon temporal supérieur c'est pas un réseau inintéressant mais c'est un réseau qui est quand même assez faible et qui demanderait être confirmé par des analyses supplémentaires intrasujet à haut résolution l'idée générale c'est
01:07:25
que ces langages de la géométrie et des de la musique ont peu de recouvrement ou pas de recouvrement du tout avec les aires du langage alors c'est une idée je passe un petit peu vite parce que j'en avais déjà
01:07:39
parlé dans le cours sur langage musique et mathématique mais l'idée qu'il y a une séparation entre musique et langage commence à être maintenant validé à différents niveaux j'ai pas le temps d' d'en faire une revue complète mais très
01:07:52
rapidement il y a ce premier travail de Nancy canwisher Josh mcdermot et Sam Norman Ury qui expose des sujets à plus d'une centaine de sons musicaux et non
01:08:05
musicaux de toutes sortes une sorte d'approche empirique regardons ce que le cortex fait avec des sons comme ça on bombarde le sujet de son et ils observent qu'il y a une séparation très importante dans le cortex temporal
01:08:16
supérieur entre le langage et la musique de façon purement empirique comme ça il y a des voxel qui sépare et toutes qui sont particulièrement dominants dans cette région verte ici qui sépare le
01:08:29
langage de tout le reste donc dès qu'il y a du langage ces région entre en activité et puis il y a d'autres voxel qui sont un peu plus antérieurs dans le lamp temporal ici et qui répondent systématiquement à la présence de
01:08:41
musique et c'est vraiment étonnant he tous les stimulis musicaux sont classés en premier par cette région et ensuite il y a beaucoup moins de réponsse aux autres stimulis auditifs donc dès une étape relativement précoce dans le
01:08:53
cortex temporal supérieur pas évidemment l'air auditif primaire là dans les autres composantes ce sont des composantes de tonotopie qui existe aussi bien dans le langage que que dans la musique ou dans d'autres sons hein mais à une certaine étape de traitement
01:09:07
dans le sillon temporal supérieur on commence à avoir une séparation extrêmement nette entre langage et musique et cette séparation elle est répliquée par des enregistrement intracrâen toujours par la même équipe
01:09:19
mcdermot canwier Sam normanur et là ça devient vraiment extraordinaire vous trouvez des électrodes chez des patients épileptiques vous enregistrez des électrodes qui ne répondent que à la parole que à la musique et
01:09:33
l'intersection ici c'est la musique avec des paroles d'accord et puis vous avez des neurones qui ne répondent que au champ donc musique et parole en même temps donc c'est vraiment phénoménal hein d'arriver à décomposer comme ça les
01:09:45
activations et à trouver des sites qui sont très très sélectifs dans le cerveau et langage et musique euh n'ont pas tellement de recouvrement euh à ce niveau puis alors si on élargit la recherche à l'ensemble du réseau du
01:09:58
langage ça a été fait ici dans ce papier de fedorenko et collaborateur euh il commen par isoler c'est un peu la même approche que je vous ai décrite hein ils utilisent un localizer donc c'est ce qui est marqué loc ici pour localiser pour
01:10:12
une personne donnée ces air du langage ces voxel qui répondent au langage donc la lecture de phrases versus la lecture de pseudo Mot on voit cette différence qui est très clair ici dans tous ces
01:10:25
voxels qui sont isolés dans différentes sous-régions des régions qui sont en rouge ici et ensuite on regarde avec d'autres stimulis est-ce qui répondent aux phrases oui plus qu'au non mot
01:10:37
est-ce qui répondent aux paroles d'une chanson oui plus qu'aux chansons toute seule mais il répondent pas du tout voyez ici a d'autres stimulis musicaux mais alors pas du tout du tout du tout
01:10:49
donc et pas plus qu'à des sons de l'environnement comme un violement de chat ou ou la sonnerie du téléphone donc ces aires du langage quand on les isole sujet par sujet de façon un petit peu spécifique ne répondent pas à la musique
01:11:03
et euh plus important encore peut-être elle ne répondent pas à la complexité de la musique donc si on crée un contraste qui essaie d'isoler un tout petit peu ce que je j'essaie de vous décrire depuis le début de ce cours c'est des
01:11:16
structures musicales une syntaxe de la musique donc on peut par exemple contraster de la musique de tambour réel versus mélangé pour qu'on ait cassé toutes les structures ou bien des mélodies réelles versus des mélodies
01:11:29
mélangées dans lequel on casse toute la structure et bien ça ne fait pas de différence pour ces aires du langage ces aires de langage ne sont pas les mêmes que celles qui codent les structures musicales la structure du langage parlé
01:11:41
ou écrit n'est pas codée par les mêmes régions que la structure de la musique ou la structure des séquences géométriques voilà alors euh petite conclusion intermédiaire je presque fini
01:11:53
hein euh donc d'abord des adultes et les enfants quel que soit leur niveau d'éducation code des séquences spatiales et auditives en fonction de leur longueur de description minimale il faut un modèle de langage et c'est le même
01:12:06
pour ces deux domaines au moins pour les séquences très élémentaires dont je vous ai parlé il y a Guer de doute qu'il faudra des primitives différentes pour rendre compte des octaves des quintes des des propriétés spécifiques de la musique he mais ici on est un niveau
01:12:19
tellement élémentaire que le même langage peut servir il a besoin d'une récursion des répétitions de répétition et la notion de répétition avec variation et finalement qu'est-ce que c'est qu'une répétition avec une variation bah c'est
01:12:31
une symétrie ce qu'on appelle symétrie en mathématique c'est exactement ça c'est quelque chose qui se répète avec une variation voilà ce sont des aires différentes de celles du langage al on peut tenter une interprétation des aires qui ont été trouvé ici que je vous ai
01:12:44
reprise je m'excuse pour le fait que c'est pas exactement la même représentation dans les deux cas c'est pas les mêmes chercheurs qui ont fait le travail mais vous avez d'abord c'est région intrapariétal ici des deux côtés
01:12:56
et surtout à droite et alors ces régions intrapariétales pourrai coder le nombre qui est nécessaire pour suivre ces séquences ces fameuses boucles fort ça se répète quatre fois d'accord et puis les régions frontales inférieures
01:13:09
toujours bilatéral qui est aussi très différent du langage parlé hein et bien pourrait coder l'enchassement la syntaxe de ces opérations les unes dans les autres et puis vous voyez que ces deux régions sont communes aux deux
01:13:22
paradigmes en tout cas à l'échelle qui est celle ici il faudrait vraiment le faire chez le même sujet hein mais elles interfacent par contre avec des régions différentes quand c'est le langage de la géométrie on a des régions occipitaux pariétal quand c'est le langage de la musique on a des régions temporales
01:13:35
supérieures donc l'idée c'est que ces régions puissent s'interfacer avec des éléments spécifiques qui sont soit des éléments auditifs soit des éléments visuaux spatiaux dernier mystère qui reste et qui est un énorme mystère je
01:13:47
vous ai parlé d'un programme mental c'est bien c'est une description abstraite cognitive mais tout ça demande à être implémenté dans un réseau de neurones et là nous avons de gros problèmes nous ne savons pas comment les
01:14:00
réseaux de neurones réel représente par des activités par des décharges neuronales la structure qui est postulée ici par les sciences cognitives bon ça ne m'inquiète pas trop c'est pas la première fois que les sciences
01:14:14
cognitives en terme de comportement et d'imagerie cérébrale sont à l'avance de une représentation en terme de neuroscience souvent il faut des années ou des décennies pour on arrive à comprendre le code neural correspondant mais il y a vraiment un problème bien
01:14:27
posé ici trouver un code neural qui est capable de représenter des structures symbolique enchasser les unes dans les autres alors juste très récemment je n'arrête pas de dire que les modèles d'intelligence artificielle ne
01:14:39
fonctionne pas et n'arrive pas à capturer ce type de structure mais les choses changent tellement vite que tout récemment un préprint du groupe de jeanemy King à MTA ici à Facebook et high research à Paris et au CNRS à
01:14:53
trouver un réseau qui arrive à rendre compte de ce type de séquence en tout cas qui a l'air d'y arriver c'est un préprint et les choses changent encore et on collabore d'ailleurs mais le travail est très très intéressant ils prennent un réseau strictement standard
01:15:06
de d'apprentissage profond qu'on appelle wave to V c'est W tout donc c'est un réseau qui prend le signal auditif directement c'est un signal auditif prend le signal auditif il lu applique
01:15:18
une hiérarchie de convolution et ensuite ce qu'on appelle les Transformers qui trouve des régularités à l'intérieur de ces séquences en se servant du passé pour prédire le présent d'accord je vais pas rentrer du tout dans le détail de l'apprentissage donc c'est quand même
01:15:31
assez complexe mais c'est ce qu'on appelle un algorithme autosupervisé donc il reçoit une séquence il y a pas d'autre récompense que celle d'arriver à prédire qu'est-ce qui va se passer ensuite en fonction du passé d'accord et
01:15:44
ensuite une fois que ce réseau a été exposé à plein de données alors il l'expose à du langage de la musique des sons tout ce qu'ils ont pu trouver comme son auditif hein voilà et puis ensuite ils vont pr lui présenter des manipes
01:15:57
des expériences de psychologie par exemple la manipe de Safrane j'en ai déjà parler beaucoup d'entre vous connaissent où il y a des syllabes qui font badigou kodifa et ça fait des groupes de trois et on reconnaît des mots de trois ou bien ils vont faire les
01:16:10
expériences de Maria chahit et collaborateurs où il y a une petite séquence qui se répète ou bien ils vont faire les expériences local global c'est a a a A B d'accord et c'est ça la structure à trouver et puis ils ont pris
01:16:21
exactement notre travail tout récent là de Fosca alrumi du laboratoire avec cette hiérarchie de séquences qui se répète à différents niveaux avec des répétitions de répétition et moi j'aurais juré que ça ne marcherait Pasin
01:16:33
mais ça marche le réseau est capable de détecter la présence de ces différentes séquences alors c'est pas des choses auquelles il ét exposé à moins qu'on puisse dire que c'est déjà dans la musique mais c'est quand même un petit peu loin donc vous voyez ici comment il
01:16:46
reproduisent les choses ils ont une partie aléatoire comme dans l'expérience de Maxime Mahe et puis ensuite il y a un moment où la régularité démarre par exemple les groupes de trois dans la l'expérience de safran et dès que la
01:16:59
régularité démarre très vite le réseau arrive à détecter ça se traduit par une une baisse de la l ici c'est-à-dire une meilleure prédiction en fait donc la baisse ici veut dire meilleure prédiction par rapport à une séquence
01:17:11
qui reste aléatoire d'accord et alors dans toutes ces expériences ça fonctionne y compris dans notre expérience à nous ici en bas pardon et en particulier ici vous avez toutes nos séquences différentes qui sont codées par des couleurs et vous voyez que plus
01:17:24
la séquence est régulière plus elle est apprise rapidement par le réseau en terme de la quantité d'apprentissage qu'il a fallu avant que ça marche et même à la fin les séquences complexes sont moins bien prédites que les séquences moins complexes autrement dit
01:17:37
il y a l'effet de complexité et les auteurs me disent qu'en fait notre mesure de minimal description l c'est le meilleur prédicteur de ce que fait le réseau ici donc le réseau comme le
01:17:49
cerveau humain est sensible à cette régularité quasi géométrique des séquences auditives donc on est très heureux de ce résultat il y a un résultat encore plus extraordinaire que je vous lire sera le dernier c'est que
01:18:03
on n'est pas obligé d'entraîner le réseau avec tous les signaux auditifs on peut l'entraîner que avec le langage ou bien que avec les sons environnementaux ou bien que avec la musique et vous voyez que le réseau qui n'est entraîné
01:18:16
que avec le langage et bien il n'arrive pas à comprendre les séquences que je vous ai présenté ça ressemble très étroitement à ce résultat de d'imagerie cérébrale qui est que les aires du langage ne codent pas bien pour ces
01:18:28
séquences auditives avec très peu de réponse voilà et en fait c'est l'entraînement musical qui donne peut-être un peu moins surprenant mais la meilleure prédictabilité de ces séquences euh auditiv qu'on a utilisé et
01:18:42
l'entraînement avec des sons environnementaux dans une grande mesure marche aussi ce qui veut dire qu'en fait ces risau ont l'air de créer des régularités euh avec des répétitions enchass ou des répétitions fondées sur
01:18:54
différentes échelles temporelles voilà et que le langage c'est autre chose mais là dans l'environnement il y a quelque chose à extraire des régularités à différentes échelles temporelles qui peuvent servir ensuite à faire une description abstraite de séquences
01:19:07
binaires comme on a utiliser nous bon c'est surtout extrêmement intéressant parce que maintenant on va pouvoir disséquer ce réseau on va pouvoir regarder unité par unité comment il fonctionne ce n pas facile hein mais arriver à comprendre comment il repère
01:19:20
les frontières entre les groupements est-ce qu'il y a des neurones qui sont dédiés à tel groupement ou à tel autre qu' y a des neurones qui sont dédiés à telle règle ou à telle autre et comment leur enchassement est codé dans le réseau je vais m'arrêter là parce que
01:19:32
c'est un long cours la dernière conclusion que je voudrais mentionner c'est que ces études sur les motifs géométriques et musicaux ne sont pas dépourvus d'intérêt non plus en éducation ce qu'on a vu essentiellement
01:19:46
c'est que le sens des motifs appartient aux mathématiques et c'est un grand thème en est éducation le sens des motifs et sa précocité chez l'enfant un petit peu comme on parlait des dessins
01:19:58
d'enfant là la semaine dernière les enfants peuvent être très rapidement sensibles à l'existence de motifs bon très simple par exemple l'alternance d'une étoile et d'un cercle mais aussi deux étoiles de cercles de étoiles de
01:20:11
cercles et lorsqu'on demande aux enfants de faire ce type de tâche on voit une progression très rapide de leur capacité dès 4 ans ils sont capables par exemple d'étendre un motif un petit peu comme la tâche de Maria malerck capable de le
01:20:23
transposer avec des nouveaux items et ce qui est intéressant c'est qu'il y a une corrélation entre ses capacités de traiter les motifs et les performances mathématiques ultérieures donc il y a quelque chose euh dans ce sens très
01:20:36
abstrait des motifs très simple aussi quelque part mais il y a déjà quelque chose qui en puissance euh inclut des éléments de mathématiques et il y a pas beaucoup d'études interventionnelles
01:20:48
donc on n'est pas encore certain que si on facilitait les mathématies les motifs la maternelle on aiderait les enfants à avoir de meilleures mathématiques mais quand même c'est très suggestif voilà alors la question se pose aussi pour la
01:21:00
musique et la relation entre musique et mathématique est-ce que si on faisait un entraînement musical comme c'est fait dans le réseau de neurones que je viens de vous montrer et bien est-ce qu'on développerait chez les enfants un système abstrait qui serait capable
01:21:12
ensuite de générer au mathématiques c'est une hypothèse intéressante dans la mesure où on a vu ce recouvrement hein dans le cerveau ce recouvrement partiel et je vous invite juste à noter cette date du 22 mai où nous aurons ce collocque qui est pas encore annoncé je
01:21:25
crois sur le site du collège mais très bientôt sur exactement ce sujet musique cerveau et apprentissage scolaire que dit la science donc aussi bien la note du conseil scientifique ici que ce colloque devrait nous apporter un petit
01:21:36
peu plus d'information sur ces sujets là-dessus je vous remercie beaucoup de votre attention soutenue et [Applaudissements]
01:21:51
merci [Musique]
End of transcript