Waiting..
Auto Scroll
Sync
Top
Bottom
Select text to annotate, Click play in YouTube to begin
00:00:06
c'est pour moi un plaisir de d'introduire donc ma collègue celle de jonaski donc qui est un collègue parisien mais Kim collègue de droit et qui va nous parler donc de calcul du
00:00:19
sujet à sa mise en pouvoir d'agir c'est ça non c'était ça les titres et de la parole un grand merci Alberto je suis ravie de cette invitation un peu intimidée puisque vous verrez que ma perspective
00:00:33
est peut-être quelque peu éloigné par rapport aux autres exposés de la journée mais la curiosité était trop importante de venir j'allais dire partager avec vous un certain nombre de réflexions que
00:00:47
l'on mène s'agissant des problématiques de calcul du sujet et des possibilités de concevoir finalement un autre rôle pour le sujet et je vais vous expliquer quel est ma perspective une autre
00:01:01
perspective puisque je travaille sur ces aspects là avec d'autres chercheurs en philosophie en design en anthropologie et donc je voulais vous
00:01:15
partager un certain nombre de de pistes de réflexion pour ensuite en appeler à un échange avec avec vous toutes et tous dans le cadre de cette riche journée
00:01:27
donc juste pour vous expliquer d'où je parle parce que c'est important que vous comprendrez ainsi le sens de mon propos donc je suis professeur à l'université parisien à l'école de droit de la Sorbonne professeur en droit du numérique et je m'intéresse
00:01:40
particulièrement aux enjeux de régulation des plateformes aux enjeux aujourd'hui de régulation des systèmes d'intelligence artificielle et je suis également membre d'un certain nombre d'instances qui sont plus ou moins des
00:01:52
autorités publiques comme notamment la Commission nationale consultative des droits de l'homme et dans ce contexte là je m'intéresse aux enjeux de liberté fondamentale confrontés ou
00:02:05
ou interroger par le développement des systèmes d'intelligence artificielle on a rendu un avis sur le sujet en avril dernier et donc on réfléchit aussi à cet
00:02:17
encadrement des systèmes d'intelligence artificielle qui est en cours de discussion au sein de l'Union européenne au sein de l'Europe plus généralement voire autre Atlantique je siège également en tant que membre au sein du
00:02:29
comité national pilote d'éthique du numérique où là on réfléchit aux enjeux éthiques d'un certain nombre de déploiements et notamment aujourd'hui je suis en charge d'un rapport sur les univers augmentés et on travaille
00:02:42
également sur les IA génératifs puisque c'est un sujet important du moment donc pour vous expliquer ces différents éléments qui vont justifier l'axe que j'ai choisi
00:02:55
d'adopter pour faire présentation à laquelle Alberto m'a convié et encore merci pour pour cela donc mon idée était de vous expliquer
00:03:08
aujourd'hui comment habituellement la régulation à bord de cette question des droits fondamentaux dans le contexte des systèmes d'intelligence artificielle ou finalement on va essayer d'appréhender
00:03:22
les enjeux d'un sujet en quelque sorte calculé et avec un certain nombre de mes collègues on s'interroge aussi sur la nécessité de compléter cette approche
00:03:35
par des analyses qui conduiraient à mettre également le sujet en pouvoir d'agir en faire en quelque sorte un agent du système je me plais à dire au sens informatique du terme donc on va je
00:03:48
vais essayer de vous présenter ces différents points en commençant peut-être par vous rappeler le contexte général puisque l'audience n'est pas composée exclusivement même pas du tout peut-être de juriste pour vous situer le
00:04:01
cadre et que vous compreniez peut-être mieux ensuite le même sens de nos différentes propositions donc s'agissant des de la première approche
00:04:14
il faut bien rappeler tout d'abord que aujourd'hui un des enjeux pour les pouvoirs publics pour les politiques publiques ça va être les potentiels
00:04:28
impacts majeurs j'allais dire sur les droits et libertés fondamentaux de la personne et aujourd'hui il y a un constat général qui s'établit vous le savez donc je le rappelle très très
00:04:40
rapidement d'un d'impact potentiellement déterminant sur la garantie les garanties enfin les atteintes potentielles à ses droits et libertés fondamentales et les questions
00:04:54
quand aux garanties qu'il faut apporter pour véritablement permettre à ces systèmes d'intelligence artificielle de se déployer conformément à ce que l'Union européenne appelle on
00:05:08
pourra discuter de la terminologie mais les valeurs européennes qui à mon sens sont partagées bien bien au-delà de l'Europe et notamment cette approche de d'une intelligence artificielle qui
00:05:21
vient préserver l'autonomie et la dignité humaine donc l'objectif d'un certain nombre de textes ça a été fort de ce constat qui est partagé par
00:05:34
la Commission européenne par le Conseil de l'Europe mettons c'est le mandat d'aller garantir les droits fondamentaux mais également qui aujourd'hui est inscrit dans la feuille de route de
00:05:49
l'administration Biden dans le blueprint publié sur les le développement des systèmes dia on part de ce constat et après on essaye de voir comment mettre en oeuvre au
00:06:01
travers ces réglementations la garantie des droits fondamentaux et c'est peut-être sur ce point là que l'on va se demander quelle est la place du sujet et
00:06:14
je lorsque l'on observe cette approche qui est adoptée par le régulateur aujourd'hui je vais je vais schématiser en disant que le sujet calculé et en
00:06:27
quelque sorte une mesure pour déterminer les obligations qui vont être imposées donc ici particulièrement aux fournisseur des systèmes d'intelligence artificielle donc c'est un instrument de
00:06:42
mesure un instrument de mesure pour déterminer un certain nombre d'obligations et il me semble que cela n'est pas suffisant pour garantir les libertés fondamentales et que pour garantir les libertés fondamentales il faut vraiment
00:06:54
pousser une approche complémentaire qui est celle de la mise en pouvoir d'agir de l'utilisateur donc tout d'abord dans ce dans ce premier
00:07:07
temps d'exposer pourquoi je vous indique que la protection du sujet appréhender comme un sujet calculé et un
00:07:21
instrument de mesure des des différentes textes en cours de discussion cette cette approche elle peut s'expliquer comme ça la Commission
00:07:34
européenne avait tout d'abord publié un certain nombre de livres blancs identifiant les impacts potentiellement forts des systèmes algorithmiques sur
00:07:46
les libertés fondamentales autrement dit par exemple et surtout la protection de la vie privée les données à caractère personnel mais également pourrait dire la liberté d'expression
00:07:56
jusqu'à l'autonomie et la dignité de la personne humaine on a un une attention particulière qui est portée à certains groupes vulnérables et particulièrement parce
00:08:11
que c'est l'optique de l'Union européenne les consommateurs les travailleurs ou par exemple les personnes victimes de handicap donc là on a un besoin de protection fort par rapport aux impacts potentiels par
00:08:22
exemple en termes de discrimination par exemple en termes de réduction de l'autonomie et de libre arbitre si je puis dire et donc cette première
00:08:35
approche elle a été rapidement complétée par la publication d'un texte donc vous avez certainement entendu parler qui est le règlement la proposition de règlement sur l'intelligence artificielle donc ce
00:08:48
qu'on appelle Lay i Act et cette approche elle est particulière dans la mesure où la Commission européenne véritablement conçu un texte qui est ce
00:08:59
qu'on appelle une législation j'allais dire produit défectueux c'est à dire que l'objectif de ce texte va être de s'assurer que sera mis sur le marché et pourra circuler au sein du marché
00:09:12
intérieur du marché européen un produit un système algorithmique qui ne n'expose pas c'est utilisateurs à un danger trop
00:09:24
important notamment vis-à-vis de la protection des droits et libertés fondamentaux cette mécanique de régulation elle est assez connue en droit de l'Union européenne on a déjà eu des directives
00:09:36
sur dites produits défectueux ou là on va s'assurer que le fournisseur le fabricant du produit et les différents intervenants dans la chaîne de distribution s'assure que finalement un téléviseur
00:09:47
n'explose pas ne cause pas de dommages aux consommateurs paisiblement installé dans son salon donc c'est dans cette approche là que c'est situé la Commission européenne et
00:10:01
il en a résulté que elle va définir un certain nombre d'obligations à la charge du fournisseur du système d'intelligence artificielle pour s'assurer que le produit ne soit pas dangereux et à cette
00:10:15
condition il pourra circuler entrer sur le marché intérieur européen et il circulait c'est une approche économique qu'on peut justifier de différentes raisons j'y reviendrai si vous voulez dans la
00:10:28
discussion et cette approche économique elle se elle prend en fait comme point d'appui une analyse de risque on va déterminer le les différentes
00:10:41
obligations mises à la charge du fournisseur du système algorithmique en fonction du risque généré par le système algorithmique il y a différents degrés de risque ça vous le savez et l'Union
00:10:53
européenne ici identifié différents niveaux de risque des risques qui ne sont pas acceptables des risques trop élevés peau et dans ce cas là si le système dia comporte ses risques trop
00:11:06
élevés dans ces cas-là l'accès au marché est interdit ça va être le cas pour la notation sociale utilisée par les autorités publiques par référence aux pratiques de certains états ça va être le cas également de
00:11:19
des systèmes qui sont Sublim et donc qui en subconscient vont influencer de façon préjudiciable une personne ou un groupe de personnes à son détriment et ça va être le cas potentiellement de la
00:11:34
reconnaissance faciale utilisée en temps réel dans l'espace public mais ça c'est peut-être un des points les plus discutés actuellement dans le cadre de ce proposition de texte au-delà de ce premier risque trop important pour les
00:11:46
libertés fondamentales qui justifie une interdiction vous avez des systèmes dia dit a au risque pour ces systèmes Dias au risque l'essentiel du texte va instaurer ce qu'on appelle un mécanisme de mise en conformité il va y avoir des
00:11:59
obligations à respecter et des process pour s'assurer que les fournisseurs du système dia respectent bien leurs obligations ce qu'on appelle de la comptabilité c'est à dire qu'ils vont devoir rendre des comptes du respect de
00:12:12
leurs obligations il va y avoir des mécanismes de certification de labellisation des mécanismes de gouvernance pour s'assurer de cette conformité aux obligations posées par le texte et enfin on a des systèmes d'IA usage on
00:12:26
va dire normaux ces systèmes dia à usage dit normaux c'est-à-dire qui ne présentent pas de risque particulier il ne se voit pas soumis à un encadrement particulier par
00:12:39
le texte mais c'est pas pour autant qu'ils peuvent être utilisés tout à fait librement on va ici leur appliquer une législation qu'on a développé sur les données à caractère personnel sur la
00:12:50
régulation des marchés numériques et des services numériques on vient d'adopter deux règlements à ce sujet j'y reviendrai mais ne se voit pas soumis à ses obligations particulières et donc on
00:13:03
voit bien là que finalement la défense la protection du sujet que je vais nous appeler calculer elle sert là de mesure au niveau d'obligation à la permission et au niveau
00:13:16
d'obligation pour faire finalement circuler dans le marché intérieur des systèmes d'intelligence artificielle beaucoup ont considérait que cette approche elle
00:13:30
était insuffisante si on part du principe selon lequel il faut défendre garantir le respect des droits fondamentaux des personnes contenu des enjeux importants en termes je répète de risque de discrimination d'atteinte
00:13:42
potentielles à la vie privée ou donner un caractère personnel à la liberté d'expression et de l'ensemble des droits et libertés fondamentaux ici on peut regretter que il n'y ait pas un certain nombre de mécanismes qui
00:13:54
permettent de se prévaloir du non respect de ses obligations et donc ça peut nous conduire à regretter que cette approche du sujet
00:14:08
calculée jusqu'en instrument de mesure ne soit pas complété par une autre approche qui permettrait finalement au sujet non plus de d'être un instrument de mesure mais
00:14:22
d'intervenir dans la défense de ses droits la liberté fondamentaux c'est pour cela que on pourrait considérer que le sujet devrait être mis en pouvoir mis en pouvoir d'agir pour la défense je
00:14:35
répète ici encore de ces droits et liberté fondamentaux pour cela pour arriver à placer le sujet dans cette posture active il y a un
00:14:47
certain nombre de pistes qui sont actuellement à l'étude des pistes qu'on étudie avec un certain nombre de mes collègues que je voulais évoquer devant vous pour les livrer à la discussion
00:14:59
ensuite je commencerai mon propos par un rappel préliminaire il ne s'agit pas en aucun cas de ne
00:15:11
faire que du sujet l'acteur de la défense de ses droits et libertés fondamentaux donc ce volet action du sujet il doit venir en complément du précédent
00:15:24
responsabilisation des fournisseurs des systèmes Dia et utilisateurs des systèmes dia ça c'est un point fondamental puisque on sait que c'est un risque trop important de surresponsabiliser
00:15:38
j'allais dire un utilisateur final qui n'est pas nécessairement en capacité de comprendre tout le fonctionnement du système Diaz si tant et qu'on puisse le
00:15:49
comprendrait le formaliser et puis d'un autre côté cela pourrait être une forme d'instrumentalisation de la responsabilité de l'utilisateur final au risque de déresponsabiliser les
00:16:03
fournisseurs de système dia les utilisateurs par exemple l'administration publique qui utilise un système dia ou un hôpital ou un établissement de
00:16:14
d'enseignement supérieur donc il s'agit bien là de d'en appeler des intervenants du concepteur du système à l'utilisateur final donc moi avec mes collègues on
00:16:28
s'intéresse particulièrement à la place à donner à l'utilisateur final mais vraiment j'insiste sur ce point qui est fondamental sans occulter les actions nécessaires des
00:16:41
autres intervenants dans dans le cycle de vie si je puis dire de la décision algorithmique alors comment mettre en pouvoir d'agir le l'utilisateur final du
00:16:56
système dia ici il y a plusieurs modalités qui peuvent être envisagés je vais pas être exhaustif je vais vous donner les trois points qui nous occupent particulièrement
00:17:07
le premier que vous connaissez puisqu'il est le plus discuté généralement ça va être le point qui porte sur l'information de l'utilisateur final l'information de
00:17:21
l'utilisateur final qui pourrait se prolonger me semble-t-il jusqu'à une mise en débat public de cette information sur le système dia alors sur ce point là je ne vais pas revenir ici
00:17:34
on prend en discuter par la suite sur la toute la discussion autour des exigences de transparence et d'explicabilité des systèmes algorithmiques on s'est généralement que le débat est fort pour
00:17:49
savoir finalement comment définir ses exigences de transparence et d'explicabilité avec des problématiques importants pour certains systèmes d'intelligence artificielle ce qui me semble important c'est
00:18:02
finalement de concevoir comment mettre en visibilité ces processus techniques et comment en expliquer les impacts pour l'utilisateur final
00:18:15
ici je vais prendre un autre exemple que celui classique d'une décision prise sur le fondement d'un système d'IA qui serait l'attribution d'un crédit ou la
00:18:30
processus de recrutement à l'embauche je voulais vous prendre comme exemple un système algorithmique sur lequel on nous travaillons dans la perspective de réguler les plateformes et
00:18:43
particulièrement les réseaux sociaux c'est à dire les algorithmes de recommandation de ces réseaux sociaux ici si on s'intéresse à ces systèmes algorithmique qui sont désormais visés par le Règlement sur l'intelligence
00:18:56
artificielle à la demande du Parlement européen d'il y a quelques jours ici on voit que ce qui est important pour l'utilisateur du réseau social ça va être de bien comprendre le
00:19:08
fonctionnement du système de de recommandations et ses effets sur l'exposition à certains contenus cela est fondamental puisque cela va permettre
00:19:22
potentiellement de lutter contre des effets des détails comme des diffusions de discours et ne massifs contre des mécaniques de désinformation qui vont non seulement déstabiliser
00:19:36
un individu mais on le sait plus généralement le remettre en cause le débat public et déstabiliser les démocraties donc l'objectif ici dans la perspective
00:19:47
de cette proposition ça va être de comprendre de quoi a besoin comme information l'utilisateur d'un réseau social pour pouvoir comprendre ce
00:20:01
mécanique et à quel contenu il va être exposé cet enjeu il a été pris en compte par une récente réforme du droit de l'Union européenne qui s'appelle le Règlement sur les services numériques vous avez
00:20:16
peut-être entendu parler de ce texte sous l'acronyme DSA qui Ford de ses enjeux à titre individuel et collectif des de la diffusion de contenu illicites
00:20:29
jusqu'à la désinformation et la haine en ligne a ouvert une voie dans le sens de plus de mieux informer l'utilisateur sur le fonctionnement des systèmes de recommandation pour cela le DSA va
00:20:42
imposer des obligations transparence qu'il met à la charge des plateformes s'agissant de ces systèmes de recommandation qu'elles utilisent et elles devront notamment informer leurs
00:20:53
utilisateurs des principaux paramètres utilisés et en particulier les critères les plus importants pour déterminer l'information suggérée et les raisons de l'importance relative de ces critères je vous cite là l'article 27 du texte
00:21:07
cela le texte ne nous précise que cela doit concerner à minima les critères les plus importants pour déterminer les informations suggérées au destinataires du service et les raisons de l'importance relative de ces critères et
00:21:20
l'ensemble de ces informations devront figurer donc dans les conditions générales d'utilisation dans un langage clair et compréhensible en outre les plateformes devront informer leurs utilisateurs des options
00:21:32
qu'elle leur propose pour modifier ou influencer les principes principaux paramètres en prévoyant une fonctionnalité pour sélectionner et modifier leurs options favorites qui devra être directement aisément
00:21:44
accessible dans la rubrique ou ces informations sont hiérarchisées donc on voit là que le texte finalement franchit une première étape qui est nécessaire à la compréhension de cette
00:21:56
contrainte technique en quelque sorte qui s'exerce sur le sujet mais que cela apporte un certain nombre de remarques et de prolongement qui me semblait intéressant de discuter avec vous aujourd'hui à partir de cet exemple mais qui concerne pas uniquement ces
00:22:08
algorithmes de recommandation pour les services numériques pour les services numériques beaucoup ont identifié qu'il est essentiel d'exiger une transparence sur les instructions
00:22:21
qui sont donnés à l'algorithme notamment lorsque ces instructions conduisent à prioriser par exemple certains contenus et là on a des auteurs comme Henri Verdier et Jean-Louis Louis Missika qui
00:22:34
identifie comme critère enfin qui identifié comme exemple les algorithmes de d'Instagram par exemple qui priorise les corps maigres et dénudés avec les effets qu'on a pu en connaître à l'issue
00:22:45
des révélations de français Sogan ici on voit des propositions fortes notamment de comprendre véritablement ces instructions donnaient à
00:22:59
l'algorithme pour qu'on comprenne ensuite pourquoi certains contenus sont priorisés en outre Verdier Mexica préconise d'imposer à ses opérateurs une transparence statistique sur les effets
00:23:11
de leurs algorithmes pour leur demander des comptes et par exemple ils indiquent je les cite quand certains chercheurs affirment que 70% des vidéos sur le climat vu par les Américains sont climato-sceptiques à cause de
00:23:23
l'algorithme de YouTube cette entreprise devrait être contrainte par la loi à confirmer cette statistique ou à en démontrer ou à démontrer qu'elle est fausse en ce qui concerne les réseaux sociaux des informations complémentaires
00:23:36
devraient être mises à la disposition de leurs utilisateurs afin que en autre chacun puisse comprendre l'impact de ces interactions sur la diffusion d'un contenu et notamment l'impact par
00:23:50
exemple d'un road tweet sur le News Feed d'un tiers pour comprendre finalement comment tout cela est pondéré et pouvoir ainsi réfléchir avant éventuellement de
00:24:01
repartager un contenu donc ça c'est spécifique au service numérique mais une deuxième remarque et d'importance qui porte plus généralement sur l'information de l'utilisateur final
00:24:13
s'agissant de des mécaniques algorithmiques ici cette remarque elle porte sur le modalités sur la forme de l'information qui va être communiquée
00:24:25
pour éviter que cette information elle ne soit que de façade on sait qu'un des grands enjeux pour l'utilisateur final ça va être finalement de se voir livrer une information qu'il ne prend pas en compte ou qui n'est pas en capacité
00:24:39
d'appréhender et donc comment j'allais dire formaliser cette information c'est un enjeu déterminant ici pour parvenir à l'objectif recherché donc pour assurer en quelque sorte l'effet utile de ces dispositifs
00:24:53
informationnels qu'on commence à réfléchir et à à consacrer par les textes il nous semble important de promouvoir le développement d'outils de visualisation ou de jouabilité qui a sur
00:25:06
une meilleure compréhension du récepteur en quelque sorte mettant en action l'information et en mettant en action le récepteur de l'information ici c'était le sens des expériences développées par
00:25:20
la fine la Fondation pour un internat nouvelle génération dans son expérience mes systèmes qui montrent l'intérêt de ces outils qui sont fondés sur l'interaction pour comprendre pour
00:25:34
améliorer et pour rendre réactif le concept de jouabilité je vous le rappelle vous en êtes probablement familier l'idée c'est finalement de d'offrir à l'utilisateur la possibilité
00:25:47
de jouer avec le système en faisant varier les paramètres pour en comprendre les effets donc non pas nécessairement de décrire tout le cheminement mais de faire finalement ici intervenir l'action de
00:26:01
l'utilisateur pour qu'ils comprennent comment finalement une action en amont peut produire un résultat différent en aval l'idée c'est véritablement de rendre ainsi compréhensible des informations
00:26:12
abstraites en leur donnant un véritable sens en interagissant en agissant et en voyant en action le produit de cette information ce processus de contribution à une
00:26:25
meilleure compréhension d'un algorithme d'un système ou d'un modèle par sa prise en main par le jeu avec les paramètres et par la simulation tout cela vous le connaissez fort bien au travers la
00:26:39
recherche scientifique en modélisation pour bien comprendre finalement le fonctionnement d'un système au sens jusqu'à biologique du terme en simulant
00:26:51
en recimulant et pour les systèmes algorithmiques beaucoup ont souligné l'importance de cette jouabilité notamment la mathématicienne katyonyme qui soulignait que finalement vous ne
00:27:03
savez pas vraiment ce que fait un modèle tant que vous n'avez vous ne pouvez pas interagir avec lui donc il s'agirait bien initié de permettre cette jouabilité d'offrir cette jouabilité aux
00:27:15
utilisateurs pour qu'ils puissent mieux intégrer l'information qui livrait sans autre accompagnement cognitif ne produirait finalement qu'un effet de surcharge informationnel
00:27:28
très bien en matière de droit du numérique et qui ne produit finalement qu'un effet si ce n'est une forme d'instrumentalisation et de des responsabilisations ça permettrait donc de mieux comprendre
00:27:40
la contrainte technique mais comprendre la contrainte technique ce n'est pas suffisant la contrainte elle doit être en outre pensée elle doit être réfléchie elle doit être mise en débat et pour cela un certain nombre plébiscite aujourd'hui
00:27:54
que des espaces de discussion soient mis en place par exemple au sein d'une entreprise lorsque l'on va choisir d'avoir recours à un système algorithmique pour de la gestion de ressources humaines d'associer
00:28:08
l'ensemble des personnels ou des représentants des personnels à ce choix ce choix du recours à un système algorithmique du choix de recours à ce système d'algo algorithmique et de voir aussi finalement les critères
00:28:21
d'amélioration de la gestion des ressources humaines ou des effets délétères qui pourraient en résulter par rapport finalement à l'automatisation de certaines tâches à la perte de responsabilisation et ça c'est une
00:28:33
proposition forte qu'on a formulé au sein de la Commission nationale consultative de droits de l'homme dans notre avis sur l'intelligence artificielle pour finalement que l'ensemble de ces facteurs et pas uniquement le choix d'un algorithme
00:28:45
hyper performant hyper efficace d'un point de vue j'allais dire mathématiques que cela ne soit pas le seul critère de comprendre d'un point avec une vision à 360 si le choix d'un système algorithmique
00:28:59
doit être fait quel système algorithmique doit être choisi etc etc pour que cela soit pertinent il faut que ici les représentants du personnel soient formés pour que le débat soit
00:29:12
éclairé et donc il soit formé sur les mécaniques et qu'ils puissent véritablement contribuer à se débat et c'est ainsi que à la scène ch on a prôné également une meilleure formation une meilleure accompagnement ici des
00:29:25
représentants du personnel mais ça pourrait être également le cas du grand public plus généralement si l'on veut contribuer demain à un débat qu'on appelle tous nos vœux sur le recours à ou non un système de reconnaissance
00:29:36
faciale en temps réel dans l'espace public des bacs qui est très fort et qui va encore pousser à la veille des JO Paris 2024 pour avoir un débat éclairé et non pas un débat polarisant qui peut
00:29:49
être porté par certains discours sans véritablement permettre une décision collective par rapport à notre modèle de société puisque c'est un peu ça l'enjeu il faut aussi former le grand public et donc
00:30:03
développer un certain nombre de ces outils la contrainte doit donc être comprise elle doit être mise en débat mais et c'est le deuxième point la contrainte doit pouvoir aussi être contestée donc
00:30:16
pour mettre le sujet en pouvoir d'agir il faut qu'il puisse être en mesure de contester cette contrainte et c'est en ce sens que l'on s'interroge sur la reconnaissance d'un droit de contestation des décisions prises sur le
00:30:30
fondement d'un système algorithmique d'aide à la décision donc ici je vais aller rapidement puisque ce sont plutôt des enjeux juridiques mais qui sont déterminants puisque ils permettent au sujet de faire valoir ses droits individuellement mais aussi et c'est
00:30:43
important collectivement donc pour favoriser cette action du sujet il convient de lui ouvrir cette voie au travers la reconnaissance d'un droit de contester une décision prise sur le fondement finalement pour faire simple
00:30:56
d'un calcul dans son principe ce droit à la contestation ouvert à la personne et d'ores et déjà consacrer en droit des données à caractère personnel par le règlement
00:31:09
général sur la protection des données et la convention 108 + du Conseil de l'Europe en ce qui concerne les décisions entièrement automatisées on sait qu'il y a un certain nombre d'exceptions et on travaille à sa mise
00:31:20
en œuvre mais pour que le recours puisse être utilement exercée par une personne il faut aussi en organiser les conditions d'exercice en somme il faut que des voies de recours soient
00:31:32
possibles et c'est par exemple cette voie d'action que consacre les nouvelles dispositions du Règlement sur les services numériques que je vous évoquais tout à l'heure pour permettre par exemple à l'auteur d'un contenu qui est
00:31:45
modéré algorithmiquement par une plateforme qui va conduire à au retrait de ce contenu de pouvoir contester cette décision là au nom de sa liberté d'expression et donc le DSA
00:31:57
vient consacrer des voix de recours et imposent aux plateformes de mettre en place des voies de recours interne qui permettront donc à l'utilisateur d'agir et aussi de faire que la
00:32:09
plateforme ne soit pas le censeur ou le seul gardien de la liberté d'expression cette contestation possible elle n'est envisageable enfin que si l'utilisateur
00:32:22
a accès aux éléments nécessaires pour agir en défense de ses droits et pour potentiellement remettre en cause une décision ici on sait que c'est la principale
00:32:34
difficulté notamment en cas de potentiel discrimination résultant d'un bialgorithmique la problématique d'une victime potentielle de d'une discrimination par exemple dans
00:32:48
l'octroi d'un crédit par exemple dans le cas d'une procédure de recrutement ça va être de rapporter la preuve qu'elle a été victime d'un biais algorithmique qui
00:32:58
est en violation du droit de la non discrimination la victime n'a pas accès à ces éléments et généralement ces éléments ne sont pas communiqués par
00:33:11
l'utilisateur du système dia donc toute la difficultés ça va être de rapporter ces éléments de preuve et à ce titre il y a une discussion actuelle sur un texte de l'Union européenne une directive qui viendra réformer le système de
00:33:25
responsabilité pour adapter aux spécificités des systèmes algorithmiques qui permettra un accès possible à ces éléments de preuve en créant ce qu'on appelle une présomption c'est à dire que
00:33:38
ça va être au fournisseur du système dia ou à son utilisateur de rapporter la preuve qu'il n'y a pas eu de biais à partir du moment où la victime aura rassemblé un faisceau d'indices laissant penser que elle a été la victime d'une
00:33:51
discrimination interdite au titre du droit de la non discrimination donc là on attend la publication enfin le l'adoption de ces textes qui pour
00:34:02
l'instant ne sont qu'en cours de négociation depuis la publication des propositions en septembre de 2022 mais c'est vraiment un point fondamental pour la défense des libertés et des droits fondamentaux
00:34:14
enfin il s'agira de considérer que l'individu seul n'agira généralement que très rarement sauf en cas d'atteinte majeure et que pour garantir la défense
00:34:28
des droits fondamentaux il va être nécessaire de penser des actions collectives et donc de mettre en place un certain nombre de procédures pour organiser ses actions collectives qui existent déjà en matière de protection
00:34:40
des données à caractère personnel en matière de droit de la consommation mis à certains angles morts s'agissant de des décisions prises à partir de systèmes d'intelligence artificielle donc là on est nombreux à appeler nos
00:34:54
vœux la consécration de ces actions collectives en ce domaine et si vous le souhaitez je vous renvoie au document qui a publié le réseau équinate qui est le réseau européen
00:35:06
des organismes de promotion de l'égalité donc le réseau européen dont la partie le Défenseur des droits qui relève l'importance de consacrer dans les
00:35:19
textes lors cette organisation des actions collectives qui pourront être menées par les organismes de défense et associations de défense des droits fondamentaux enfin et pour finir on
00:35:32
pourrait faire un pas de plus pour mettre en pouvoir d'agir le sujet en plus de l'informer et en plus d'avoir un droit de contester la décision on pourrait lui permettre d'agir sur cette
00:35:46
décision de finalement être un acteur j'allais dire pour faire simple de ce calcul et c'est pour cela que l'une des propositions fortes de notre groupe c'est de prôner la consécration de ce qu'on appelle un droit aux paramétrage
00:35:59
Alberto si tu me laisses encore 5 minutes l'idée [Musique] ça serait ici de garantir la mise en
00:36:10
pouvoir d'agir du sujet dès lors que finalement il pourrait être conçu non plus que comme un simple rouage mobilisé par le système si on se plaît à reprendre
00:36:25
l'expression de Maurice dans son ouvrage mobilisation totale mais de lui permettre finalement d'agir comme un agent du système au sens informatique du terme en lui permettant d'agir sur son
00:36:38
architecture et de consacrer une forme d'agentilité une forme d'agentilité c'est-à-dire une capacité d'action sur le système une capacité à le transformer
00:36:50
une capacité à l'influencer et cela pourrait prolonger le concept qu'on a pu déjà retrouver dans les travaux d'amartiasent donc de capabilité
00:37:02
dans le contexte ici la mise en pouvoir d'agir de individus se fonde sur deux composantes principales d'une part la capacité pour l'individu d'endoser le rôle d'agent c'est-à-dire de décider
00:37:15
d'agir dans le sens de ces valeurs et d'autre part l'opportunité d'exercer de façon effective son agentivité c'est ça qui est déterminant c'est à dire d'être en mesure de contribuer à rendre ses propres décisions effectives alors si on
00:37:29
utilise cette idée portée par les travaux d'un martyacent et qu'on la transpose ici à notre concept l'idée ça serait de mettre en quelque sorte l'utilisateur en mouvement de consacrer
00:37:42
une vision plus humaniste de la régulation par la technique et là on rejoindrait notamment les propositions de timburnersly face aux dérives du web
00:37:52
donc c'est le sous-jacent qui nous conduit à prôner la consécration d'un nouveau droit un droit subjectif un nouveau droit pour l'utilisateur ce droit aux paramétrage alors
00:38:07
cette idée on l'a tout d'abord prôné s'agissant d'un contexte particulier qui est celui des algorithmes de recommandation des réseaux sociaux puisque l'utilisateur final est un
00:38:19
acteur ici puisque ces interactions sont à la base du fonctionnement des réseaux sociaux ce contexte il est particulier je tenais à le rappeler puisque l'objectif est ici serait ici de
00:38:33
d'imposer aux réseaux sociaux d'offrir à leurs utilisateurs la possibilité de paramétrer l'outil mis à la disposition des utilisateurs non pas en fonction des intérêts de la plateforme ou de ceux que
00:38:46
la plateforme pense être ceux de l'utilisateur mais bien en fonction des intérêts déterminés définis par l'utilisateur lui-même donc ça permettrait finalement de ne plus
00:38:58
voir nos interactions orientées dictées en quelque sorte par le seul intérêt économique de ces plateformes ça permettrait donc à l'utilisateur de maîtriser un ensemble
00:39:11
de paramètres qui détermine les métriques de son expérience utilisateur par exemple de choisir le niveau de personnalisation de ces rend dépités des notifications
00:39:23
qui lui sont adressées ou de choisir finalement les critères de l'affichage de sur son sur son sur son fil d'actualité il pourrait également choisir des modes
00:39:36
de curation de contenu qui lui sont proposés et la façon dont ils le sont l'objectif ici [Musique] il était porté notamment par notre groupe de travail au sein de la
00:39:48
Commission nationale consultative des droits de l'homme pour mieux lutter contre les discours de haine et pour mieux lutter contre des mécaniques majeures de désinformation sur les réseaux sociaux donc on en a pensé à un
00:39:59
certain nombre de modalités si cela vous intéresse je vous renvoie la vie de la sncdh donc on avait publié en juillet 2021 il semble et ses idées elles ont été ensuite reprises notamment par le
00:40:12
Conseil national du numérique pour penser toutes les mécaniques attentionnelles qui sont à l'oeuvre pour susciter plus d'engagement au soutien du modèle d'un certain nombre de grandes
00:40:25
plateformes mais au-delà de ce contexte particulier qui est celui des réseaux sociaux et des algorithmes de recommandations pour les services numériques aujourd'hui ce droit
00:40:36
paramétrage il semble également essentiel dans le contexte nouveau des interaction et ma machine particulièrement avec les assistants vocaux et les agents conversationnels pourquoi parce que dans la mesure où il
00:40:49
y a un système de réponse unique et que par exemple si on prend un assistant vocal comme une enceinte connectée c'est assistant vocaux qui reposent sur du
00:41:00
traitement naturel du langage vont induire une réponse unique par exemple pour fournir un contenu et l'utilisateur devrait être ainsi à
00:41:13
même de pré-paramétrer le le la réponse qui selon ses intérêts donc les critères pour produire la réponse selon les intérêts que lui-même a défini et non
00:41:26
pas ceux du fournisseur de service mais ce paramétrage devrait pouvoir être ajusté facilement utilement tout au long de l'utilisation par exemple de l'enceinte connectée parce qu'on sait que si vous prenez une
00:41:39
enceinte connectée partir qui fonctionne sur un système avec un logiciel d'assistant vocal il y a une personnalisation qui va s'opérer qui va conduire à modifier les réponses
00:41:53
apportées donc on a un certain nombre de travaux qui nous conduisent à penser comment consacrer ce droit paramétrage et comment le rendre cognitivement efficient donc comment pousser le design
00:42:06
comment éviter des interfaces de choix trompeuses comment non pas notre g mais finalement offrir ces possibilités à l'utilisateur de faire valoir ses intérêts et de réfléchir à ces intérêts
00:42:17
là on a des travaux en cours qui seront plus prochainement publiés sur sur ce sujet donc là on voit que dans la perspective du déploiement des interactions humains machines de demain qui vont être encore
00:42:30
plus ampleur avec la diffusion des agents conversationnels ce droit aux paramètres nous semble être véritablement de première importance donc voilà les quelques pistes que je
00:42:41
voulais vous livrer et pour ouvrir la discussion et donc je me tiens votre disposition pour échanger si vous avez des ventuelles remarques demande de précision ou question
00:42:56
[Applaudissements] je le fais passer je regarde s'il y a des questions déjà quelques questions sinon une petite question de clarification et
00:43:26
de développement sur cette idée de de forcer les plateformes à publier des statistiques des effets à l'échelle de leur système de recommandation pour les plateformes
00:43:39
de réseaux sociaux ça ça me semble particulièrement fascinant parce qu'on sait que le problème de l'action de l'individu par rapport aux la mobilisation de l'individu par rapport à ces
00:43:50
recommandations là non seulement pose des problèmes de difficultés intellectuelle de temps de moyens etc enfin c'est d'énormes institutions mais aussi que vous l'avez dit on se mobiliser rarement tant que le dommage n'est pas massif sur l'individu donc on
00:44:02
n'a pas un impact majeur donc des choses comme les des recommandations de traitement alternatifs du covid à la valeur douteuse comme on l'a pu le reprocher à Facebook ça a très peu d'impact sur une
00:44:15
personne quand ça passe à l'échelle ça devient un enjeu de santé publique en réalité donc ça permet de voir des choses chose qui qui sont parfois des angles morts des mobilisations individuelles même dans les cas des
00:44:27
classes actions dans les cas des classes actions négligeable ça un peu de chance de mobiliser beaucoup de monde est-ce qu'il y a des précisions sur le plan de ce genre d'emploi des statistiques et ce
00:44:40
que là vous avez donné un exemple ou quelqu'un avait fait une enquête et donc on voulait que facebook soit obligé de réagir avec transparence à cette enquête mais est-ce qu'il y aura une manière de de systématiser les exigences de
00:44:53
publication de caisse statistiques comment sur quoi quels sont les sanctions et les réactions de la part de qui que l'on s'exposerait autre la pression de l'opinion qui n'est pas rien enfin selon quelle méthodologie on
00:45:07
publierait c'est ces choses là et sur quelle base les gars aussi parce que pour certaines choses vont se très clair que s'il y a des choses qui sont discriminatoires on voit très bien sur quoi ce va tomber mais il y a beaucoup de choses où on sait qu'elles ont des
00:45:19
effets mais leur thématisation légale est plus problématiques est-ce que le fait que Netflix se bat contre le sommeil de nos contemporains par exemple est-ce que c'est quelque chose pour qu'il y a pas y avoir une réaction légale ou pas
00:45:32
et qui sont officiellement en guerre contre le sommeil il gagne pas mal Netflix ils souffrent d'un déficit de sommeil mais cela aussi ça demanderait vérifier par des chiffres et voir qu'est-ce qu'on en
00:45:43
fait une fois qu'on les a merci merci beaucoup et en effet c'est un des un des enjeux majeurs et pour cela le Règlement sur les services numériques donc qui a été
00:45:59
adopté à l'automne dernier consacre une nouvelle méthodologie qui vise à imposer pour ce qu'il nomme les très grandes plateformes donc plus de 45 millions d'utilisateurs sur le sol de
00:46:10
l'Union européenne des obligations de mener des analyses de risques mener des analyses de risques en identifiant ici un certain nombre de risques des risques s'agissant de notamment la vulnérabilité
00:46:24
accrue de public mineur puisqu'on sait que c'est un enjeu majeur pour les réseaux sociaux des risques tenants également à la santé publique au bien-être des utilisateurs cette notion de warbing est encore à définir et
00:46:37
finalement elle peut aussi être le réceptacle de de potentialité importante si on bascule pas complètement sur des enjeux de santé publique justement sur
00:46:48
le bien-être on peut avoir une notion à géométrie variable qui pourrait tout à fait utile des enjeux en termes des risques et également d'impact sur les libertés fondamentales donc des notions
00:47:01
assez englobantes ici on sait que si on reprend l'exemple des révélations de français Sogan que un certain nombre d'études avait été réalisées en interne que des décisions
00:47:14
ont été prises de privilégier l'intérêt de l'entreprise sur celui notamment de jeunes adolescentes qui du fait de certains fonctionnements du réseau social pouvait être victime de
00:47:28
d'augmentation de de taux de risque d'anorexie et donc il y a une décision commerciale qui a été prise au détriment de l'intérêt des utilisateurs qui avaient été identifiés donc l'analyse de risque qui
00:47:41
va être imposé aujourd'hui demain par le Règlement sur les services numériques typiquement à ce réseau social va les obliger à les contraindre à réaliser ces études en interne vous allez me dire ils
00:47:54
l'ont déjà fait puisque c'est ce que dit français Sogan l'intérêt du DSA c'est d'aller plus loin c'est de dire ils vont imposer à ces très grandes il sera imposé à cette très grande plateforme de prendre en compte force de ces analyses de risques des mesures de d'atténuation
00:48:07
des risques ces mesures d'atténuation des risques sera devront porter sur potentiellement les algorithmes le design des algorithmes de recommandation et leur fonctionnement le design des interfaces de choix puisqu'on sait qu'aujourd'hui
00:48:20
celle-ci sont déterminantes leur mécanique publicitaire etc tous les grands piliers du fonctionnement de ces services numériques ah vous allez me dire oui mais encore une fois
00:48:32
potentiellement ils pourront faire ou ne pas faire et les conséquences nous n'en verrons pas les effets bénéfiques d'où l'intérêt du DSA d'imposer à ce que l'ensemble les analyser risque et les
00:48:47
mesures de mitigation des risques de remédiation des risques soit figure dans des rapports de transparence et soumis à des audits sous contrôle de régulateur donc il y aura un contrôle de régulateur potentiel là la critique qui vient
00:49:00
généralement après se dire ce contrôle il sera confié au régulateur national et européen il y a toute une mécanique de gouvernance qui est portée mais ça sera pas suffisant les moyens seront pas
00:49:11
suffisants pour tout contrôler d'où l'intérêt d'en appeler grâce à la publication dans ses rapports de ces rapports de transparence aux organismes représentants de la société civile donc auxation aux associations de défense des
00:49:24
libertés et droit fondamentales par exemple et aux chercheurs pour s'appuyer sur ces informations pour mener des recherches qui pourront conduire à
00:49:35
pointer un certain nombre de d'éléments statistiques et si cela est insuffisant cela devrait être complété par une autre mesure qui est consacrée par le Règlement sur les services numériques
00:49:48
c'est l'accès aux chercheurs agréés à un certain nombre de données qui sont en train d'être identifiés pour aller mener ses enquêtes et ensuite demander des comptes aux plateformes et là on est
00:50:01
dans un changement de perspective de régulation puisque et c'est là que ce règlement sur les services numériques ouvre mais un pied dans la porte ou ouvre des perspectives c'est que là on
00:50:14
va véritablement potentiellement pouvoir demander aux plateformes de prendre en compte les intérêts de leurs utilisateurs par exemple dans le la définition de leurs
00:50:26
algorithmes de recommandation de leurs interfaces de choix c'est un changement de perspective parce que longtemps on pourrait on pouvait considérer que c'était des entreprises qui étaient mises par des objectifs qui n'étaient
00:50:39
pas nécessairement la défense de leurs utilisateurs et que là on est dans un modèle j'allais dire capitalistique classique qui ne leur imposait pas un obligation de loyauté au sens de prendre en compte l'intérêt de leurs utilitaires
00:50:53
outre le fait de d'offrir un service qui font qu'elles ont un public important donc là on aura une quasiment pour aller jusqu'à une obligation légale en ce sens pour le moment je peux pas vous dire grand chose de plus on a une
00:51:06
porte qui est ouverte des instruments qui pourraient être mis à la disposition de nos communautés après avoir comment nous allons nous en saisir comment le régulateur va s'en saisir quelles vont être le moyen de contrôle et donc l'investissement financier humain qui
00:51:19
serait ce celui de la Commission européenne et des États membres ça on va le voir dans les mois qui arrivent et ensuite l'implication de chercheurs sur ces sujets qui
00:51:30
pourraient être facilités grâce à ces accès à de nouvelles informations permises grâce aux à la consécration du DSA donc j'allais dire il faudra voir
00:51:43
d'ici quelques mois que cela produit en tout cas voici les les objectifs les les lignes d'horizon qui sont dessinées oui pour rebondir sur ce que vous ne venez de dire donner accès à des à
00:52:09
certains chercheurs agréés à des bases de données est-ce qu'on est-ce que il n'y a pas des pistes pour aller plus loin j'avais entendu une conférence en Italie ou en Italie réfléchissait à obliger les grandes plateformes à
00:52:23
rendre public une grande partie de leur base de données notamment dans des intérêts économiques pour que ils puissent y avoir plus de concurrence puisque en effet cette donnée devient critique économiquement donc étant donné qu'ils ont un pouvoir de monopole de les
00:52:36
obliger à rendre public une partie de ces informations et donc en même temps protéger les consommateurs de manière plus large que juste des chercheurs agréés merci ça me permet de vous parler du
00:52:52
jumeau du DSA qui est le Règlement sur les marchés numériques ou autrement appelé DMA qui a pour objectif de consacrer ce qu'on appelle un droit de la contestabilité c'est à dire de d'ouvrir
00:53:06
les marchés et de faire en sorte que de nouveaux entrants arrivent et que on puisse contester la position durable de ce qu'on appelle un contrôleur d'accès c'est-à-dire une plateforme qui vient
00:53:19
être au centre d'un marché d'un marché qu'elle a organisé dont elle détermine les règles du jeu et donc de permettre de l'inciter à continuer à innover en offrant à des tiers la possibilité de contester sa position qu'elle
00:53:33
renforcerait parce qu'elle s'est installée de longue date et surtout parce que elle maîtrise l'accès aux données donc c'est la position des grands infos médières qui sont ici
00:53:45
visées avec un effet de verrouillage du marché et pratique potentiellement déloyale qui sont problématiques pour les concurrents mais aussi et surtout pour les consommateurs
00:53:58
donc c'est pour viser votre situation et dans ce contexte là on a beaucoup réfléchi à quel était le statut de ces bases de données beaucoup avaient imaginé mais je veux pas trop vous perdre de les qualifier de ce qu'on
00:54:10
appelle infrastructure essentielle dès lors que ce sont des infrastructures essentielles c'est à dire que elles permettent par un opérateur qui contrôle un marché amont de verrouiller l'accès à un marché à balle
00:54:25
d'obliger l'accès à cette infrastructure essentielle à des tiers pour ouvrir le marché aval à des conditions loyales donc c'est faire reasons
00:54:37
donc ça c'était une première piste ça pose un certain nombre de difficultés on prend en discuter si vous voulez ensuite et donc le choix du DMA ça a été de dire pour contester pour rendre contestable la position centrale de ses
00:54:51
acteurs donc les grands réseaux sociaux les grands moteurs de recherche les navigateurs il y a comme ça une liste de 10 services essentiels pour les marchés
00:55:03
numériques les assistants vocaux d'ailleurs aussi dans ces cas là il faut un poser à ses acteurs qui contrôlent l'accès à ces marchés un
00:55:15
certain nombre d'obligations et parmi les Obligations Fondamentales c'est l'accès à leur base de données donc à certaines conditions si la Commission européenne identifie que l'accès aux bases de
00:55:27
données est bloquant et confère un avantage problématique à ici incontrôleur d'accès par exemple je vous donne un exemple concret une grande place de marché qui est en même temps a
00:55:41
le statut de revendeur sur sa propre place de marché qui analyse en temps réel l'ensemble des données de transactions sur son marché pour produire en tant quasi réel le produit
00:55:54
qui correspond aux besoins du consommateur c'est un problème de concurrence déloyale potentiel donc potentiellement cette place de marché devra donner accès à sa base de données ou revendeur tierce
00:56:06
donc c'est une façon détourner et de consacrer la théorie d'infrastructures essentielle dès lors qu'on a un acteur qui fort de sa position bloque un marché dont elle détermine dont il détermine les règles de façon préjudiciable ou
00:56:19
déséquilibrer par rapport aux autres acteurs du marché et au détriment de l'intérêt du consommateur s je me suis perdu sur les points qui étaient abordées vers la fin
00:56:41
sur les trois paramétrages les paramètres c'est qui qu'il est qu'il est décide c'est les fournisseurs de tout service c'est régulateur ou dessinateur c'est qui qui
00:56:55
décide quels sont les paramètres sur lesquels on peut intervenir au regard de la proposition qu'on formule alors on n'est pas encore allé dans la concrétisation d'identifier quels paramètres mais
00:57:12
notamment dans la dans la vie de la Commission nationale consultative des droits de l'homme on souhaitait finalement permettre à l'utilisateur d'identifier ce pourquoi tel contenu lui
00:57:27
apparaît en priorité lorsque on ouvre son compte Twitter ou son compte Instagram pour par exemple pouvoir écarter
00:57:38
certains contenus du fait que l'on n'aurait pas identifié comme cette exposition intéressante pour nous soit dans un contexte professionnel mais elle peut le devenir justement de se coucher pour des effets pour pour défendre
00:57:53
détente donc on peut définir certains contextes également donc voilà on a identifié plutôt des des instanciations possibles selon mon intérêt de l'utilisateur après
00:58:07
il faut en appeler à des études plus plus importantes pour savoir finalement quel serait les paramètres utiles à l'utilisateur quel serait les paramètres qui seraient déterminants du
00:58:18
fonctionnement intrinsèque de de la plateforme des problématiques de sécurité également donc il faudra bien sûr raffiner la proposition mais pour le moment j'ai pas de précision plus
00:58:32
importante à apporter si ce n'est de permettre à l'utilisateur ici dans ce contexte choisir à quel contenu il pourrait être exposé à quel compte tenu dont il est l'auteur il enfin quel
00:58:46
serait les potentiellement le groupe le public auquel ses propres contenus pourraient être exposés les possibilités de réponse via messagerie à certains contenus on sait que c'est important
00:58:59
pour les mineurs également donc ça ce sont des possibilités qui sont offertes déjà par un grand nombre de services numériques mais bien souvent et c'est pour ça que ça serait pas très problématique de le mettre en place
00:59:10
aussi mais bien souvent ça nécessite un effort très important de l'utilisateur pour aller actionner diverssements ces paramètres d'où l'importance du design et de
00:59:21
consacrer ces obligations et la forme la formalisation de ces obligations de paramétrage donc on avait notamment pensé à la scène cdH à ce qu'on sait très bien
00:59:36
le comment dire la le caractère ambivalent de chacun qui souhaite tout à la fois maîtriser le contrôle le partage de ces données maîtriser le temps d'attention et en
00:59:49
même temps on a très peu de temps et consacré à chaque fois donc ça on connaît cette problématique notamment en droit de la consommation ou pour certains actes importants de la vie un prêt immobilier une acquisition immobilière ou des biens de consommation
01:00:01
très onéreux ou très engageant on va avoir un temps de réflexion important et notamment sur une temporalité type week-end où ça vous permet de vous poser d'avoir un temps de réflexivité donc
01:00:13
l'idée ça serait d'avoir des instruments de réflexivité et donc d'agir sur des temporalités différentes pour permettre tout de même à l'utilisateur au moment où il sera en capacité de déployer ces espèces de réflexivité de pouvoir
01:00:25
modifier ces paramètres et pas juste au moment où on veut lire un article je veux passer une commande pressante où là évidemment on n'acceptera tous les cookies sauf si on a pris l'habitude de refuser tous les cookies que ça bloque pas l'accès au contenu mais on sait très
01:00:37
bien que l'utilisateur va avoir a tendance à accepter les cookies dans certains contextes parce qu'il y a une pression urgente d'un besoin de consommation d'information que dans d'autres contextes il va potentiellement
01:00:49
prendre le soin de les paramétrer mais pour reprendre l'exemple des cookies si à chaque fois on a une action refuser tous les cookies ou paramétrer les cookies ou accepter tous les cookies
01:01:01
normalement il y a une obligation légale maintenant d'afficher ça de façon à peu près équivalente si on veut ici partir du principe que on
01:01:12
voudrait par exemple accepter certains cookies on a une espèce de fatigue à le faire à cette consultation de site personne ne le fait donc on pourrait imaginer des protocoles qui permettraient de prédéterminer quels
01:01:25
sont pour chacun des sites les cookies que j'accepte et donc il y aurait ici une espèce de préfiguration de mes choix qu'on pourrait aussi imaginer dans ce paramétrage le champ des possibles il est ouvert mais c'était pour impulser
01:01:38
cette direction pour faire que le choix d'utilisateur il soit pas juste un effet case à cocher une instrumentalisation ou finalement dès lors que j'ai eu une pression forte pour accéder à un site et
01:01:52
je ne peux y accéder que en dans les cookies on sait très bien que le consommateur va accepter les cookies donc de l'âme sortent pour le paramètre il faut pas qu'il y ait une fatigue qui s'installe une fatigue
01:02:04
du consentement qui s'installe et donc il faut penser le design ici et la façon de modifier ses paramètres de telle façon à encourager l'utilisateur à le faire donc par exemple pour
01:02:18
un assistant vocal on pourrait imaginer d'avoir aucun paramètre d'installer et donc il y a une action nécessaire de l'utilisateur pour définir chacun des paramètres
01:02:31
beaucoup vont dire oui mais ce qu'attendent les utilisateurs lorsqu'ils font l'acquisition par exemple d'une enceinte connectée c'est qu'elle fonctionne tout de suite donc il y a quand même un certain nombre de préinstallation qui doivent être
01:02:42
réalisés pré-installation oui mais lesquelles il réfléchir de voir à quel moment c'est essentiel pour le fonctionnement basique du device à quel moment c'est fait pour
01:02:55
d'autres intérêts qui sont pas uniquement le fonctionnement basique et la sécurité du design donc c'est mesurer tout ça donc c'est à cela ça c'est cette réflexion là qu'on appelle aujourd'hui et d'ailleurs le DMA qu'on évoquait à
01:03:07
l'instant impose désormais des obligations enfin de il impose de ne pas procéder à certains paramétrages par défaut qui ne seraient pas nécessaire pour le
01:03:20
fonctionnement basique si je puis dire c'est comme ça du produit enfin du device ou à des fins de sécurité et le DMA va imposer aussi à ces contrôleurs d'accès d'offrir la possibilité de
01:03:32
désinstaller facilement et de réinstaller par exemple un magasin d'applications tierce sur un téléphone portable donc il y a quand même des avancées importantes en ce sens un tout petit peu de temps
01:03:55
la première c'est aussi sur le droit paramétrage je crois que j'ai pas bien compris vous avez parlé de la possibilité de pouvoir gérer les paramètres de curation de contenu et le terme de curation de
01:04:08
contenu sur ses proches du terme de modération et donc des questions de aussi ne pas afficher des choses illégales vous entendiez pas par là la possibilité pour l'utilisateur de pouvoir afficher des contenus illégaux c'était un peu voilà et du coup comme j'imagine que c'est pas ça ça
01:04:21
m'intéresse de savoir ce que vous entendez par curation de contenu et c'était la première question et la seconde c'est vous avez cité de nombreux textes donc des ça avec à chaque fois différents
01:04:34
critères d'application entre les très grandes plateformes et contrôleur d'accès et les systèmes intelligence artificielle à différents niveaux de risque est-ce que cette accumulation différents textes et différentes qualifications rend pas un
01:04:47
peu compliqué le fait de mettre le sujet en pouvoir d'assure et de pouvoir contester sur ces différents fondements merci beaucoup je vais répondre à la deuxième question et après j'en viendrai la première
01:05:06
c'est toute la difficulté du droit de l'Union européenne généralement qui a multiplié les initiatives pour réglementer réguler l'ensemble de ces
01:05:21
outils et usages numériques initialement le DSA et le démon ne faisait qu'un texte ils ont été séparés en deux parce qu'il poursuivaient des objectifs différents parce que aussi des contextes
01:05:34
sont apparues avec le besoin de lutter activement contre des mécaniques de désinformation contre des mécaniques majeurs de n en ligne on l'a vu à l'issue de la période de
01:05:47
pandémie qui se sont accrues en même temps vous avez tout le développement des systèmes d'intelligence artificielle pour lesquelles l'Union européenne a souhaité être proactive en matière de réglementation puisque c'était une façon
01:06:01
finalement d'organiser le marché j'insiste sur ce terme parce que c'est vraiment l'approche européenne d'organiser ce marché conformément à nos valeurs européennes de défense et libertés fondamentales c'était dans cette même esprit qu'on avait adopté le
01:06:14
rgpd donc rgpd en 2016 pour les donner un caractère personnel on a en discussion également un texte pour l'accès aux données par généré par l'Internet des Objets donc le datac
01:06:28
avant on avait le Data governon sac pour permettre d'accéder à des données issues de de pour penser des mécaniques de partage de données par exemple
01:06:45
comme le comme le lzae ou des éléments de cette sorte à des fins altruiste comme disent le texte donc on a une myriade de texte et il est vrai qu'aujourd'hui on peine à s'y retrouver
01:06:59
l'idée c'est d'aller aujourd'hui avoir un cadre légal le plus vaste possible pour appréhender les différentes mécaniques à l'oeuvre elles sont nombreuses il y a des innovations majeures fourmillantes donc vous allez
01:07:12
dire c'est toute la difficulté de d'avoir des textes suffisamment précis pour que les acteurs et garantie de sécurité juridique et
01:07:24
donc d'investissement économiques pérennes suffisante parce que les textes sont pas trop mous susceptibles d'interprétation donc ça suppose d'avoir des textes précis où ils comprennent leurs obligations et puis de l'autre une espèce de mille-feuille incroyable qui
01:07:37
font que déjà les très grands opérateurs du numérique ont du mal à s'en sortir donc on imagine difficilement pour une PME la possibilité de supporter ces semis l'application de ce millefeuille
01:07:51
réglementaire d'où l'idée qui a été promu par ses textes d'imposer plus d'obligations au très grands acteurs parce que l'idée c'est de faire
01:08:03
en sorte que la réglementation ne soit pas une barrière à l'entrée au marché c'est à dire qu'elle ne vienne défavoriser les petits structures au détriment des grosses qui ont un gros service juridique et une capacité de
01:08:15
répondre et de de devenir un peu leader sur le sujet donc faire en sorte ça c'est la théorie économique classique généralement qui nous l'apprend que la réglementation ne soit pas une barrière à l'entrée et donc on a ce qu'on appelle
01:08:29
une approche asymétrique qui est mise en place qu'on connaît très bien en droit des télécoms qu'on avait mis en place on demande l'ouverture des marchands en matière de télécom on imposait des obligations supplémentaires aux opérateurs historiques pour permettre à des nouveaux acteurs d'entrer sur le
01:08:42
marché donc c'est vraiment sur cette logique qu'on a promu sur le modèle de droit des Télécom depuis la loi pour une république numérique en France gros acteur plus obligations parce aussi les gros acteurs influencent majoritairement
01:08:55
les pratiques jusqu'aux patterns etc etc donc c'est aussi un une façon de d'orienter le déploiement des innovations
01:09:08
sur mais mais il est vrai que aujourd'hui on est dans un foisonnement de texte incroyable et qu'il y aura un besoin de lissage pour un moment permettre de une
01:09:23
bonne compréhension de d'une même situation qui va pouvoir être saisie par une diversité de textes de mon côté j'y vois un enjeu important en termes de défense des intérêts des utilisateurs des consommateurs et des
01:09:37
libertés fondamentales puisque ça permet d'appréhender les différentes facettes mais il va y avoir un problème de concrétisation très rapidement parce que c'est le temps a passé sur la curation évidemment il s'agit en aucun cas de
01:09:48
permettre à l'utilisateur d'avoir accès à des contenus illicites qui auraient été retirés par la plateforme en amont comme étant des contenus manifestement illicites donc tombons sous le coup de son obligation de retrait à bref délai
01:10:05
j'ai accepté trop de questions je posais aussi la mienne donc merci à nouveau Célia pour
End of transcript