Introduction : Les enjeux de la transposition des instruments relatifs à l’IA

Emmanuelle Legrand, magistrate détachée à la direction générale des entreprises au ministère de l’économie, des finances et de l’industrie

Mesdames et Messieurs,

C’est avec un très grand plaisir que je prends la parole aujourd’hui devant vous pour introduire ce colloque consacré à une thématique qui a donné ces dernières années un sens tout aussi inattendu que passionnant à ma mission de magistrat, à savoir l’encadrement juridique de l’intelligence artificielle, et en particulier celui qui s’élabore au niveau européen, tant les enjeux de ces nouvelles règles qui s’annoncent dans notre corpus législatif sont nombreux.

Je veux commencer par vous dire que l’Europe avance, mais que la technologie elle aussi, avance vite, très vite, trop vite, et c’est d’ailleurs l’une des difficultés majeures, à vrai dire, pour le droit, tandis que les connaissances et la maîtrise de l’IA n’en sont qu’à leurs débuts. C’est, au niveau européen, toute la difficulté, il me semble, des premières tentatives d’encadrement juridique d’une réalité nouvelle qui vient bouleverser certains de nos repères bien ancrés de juristes.

Lorsque je parle d’Europe, je parle bien sûr en premier lieu de l’Union européenne, et notamment de son règlement sur l’intelligence artificielle, en bon français (AI Act), qui est entré en vigueur en août 2024 et qui entrera en application progressivement entre 2025 et 2027 en France et dans tous les Etats membres. Mais je parle aussi du Conseil de l’Europe, au sein duquel s’est négociée, entre 2022 et 2024, une convention-cadre internationale sur l’intelligence artificielle et les droits humains, la démocratie et l’Etat de droit.

Pour tout vous dire, et puisque j’ai eu la chance et le privilège de participer pour la France aux négociations de ces deux textes, l’articulation de ces négociations n’a pas été chose aisée, tant il apparaissait difficile, au départ, de délimiter précisément, de part et d’autre, le champ d’action de ces textes. Aujourd’hui, ces deux textes existent, et co-existent, et il y en a d’autres que l’on pourrait citer, comme par exemple la proposition de directive en matière de responsabilité civile extracontractuelle de l’IA, toujours en cours de discussion à Bruxelles, ou bien encore la nouvelle directive sur la responsabilité du fait des produits défectueux de 1985, révisée en 2024 pour intégrer l’ère du numérique et de l’IA en particulier ; quoi qu’on en pense sur le fond et dans le détail de leurs dispositions, ces textes placent l’Europe au rang de pionnière dans ce qui, certes, est une 1ère tentative, et donc perfectible, d’encadrer juridiquement l’IA destinée à être déployée dans notre vie de tous les jours.

Pour autant, l’Europe n’est toutefois pas la seule à avoir compris que nous vivons actuellement une époque où les progrès technologiques transforment profondément nos sociétés, et avec eux, le cadre juridique qui les régit. Les évolutions rapides des technologies de l’intelligence artificielle, telle qu’on l’appelle – à tort selon moi - depuis les années 1950, font naître à ce titre autant de doutes et d’espoirs, et autant de certitudes idéologiques que d’incertitudes scientifiques.

J’entends, ici ou là, des critiques, des opinions, des points de vue qui s’expriment sans nuance sur ces textes pionniers, et les questionnements juridiques sont parfaitement légitimes, tant l’entreprise rédactionnelle est délicate sur ce sujet nouveau. Ce qui l’est moins, en revanche, c’est une critique parfois trop facile qui méconnaît tant les réalités scientifiques qu’économiques et sociétales.

Ainsi, laissez-moi rapidement vous rappeler ce dont on parle.

L’Europe, et en particulier l’Union européenne, est en retard sur le reste du monde sur le plan technologique et économique. Elle est aussi encore très dépendante des technologies développées dans d’autres parties du monde avec parfois des intentions et des visions qui ne sont pas les nôtres. Ce n’est pas moi qui le dit, ce n’est pas une opinion, ce sont des faits, étayés dans tous les rapports que vous trouverez aisément en source ouverte, à commencer par le récent rapport Draghi qui a confirmé une réalité perçue depuis longtemps par un certain nombre d’acteurs de divers secteurs professionnels. Nier cette réalité de départ avant de parler de la manière dont le droit devrait l’encadrer est certes possible, mais cela ne me semble pas souhaitable.

Cela n’est souhaitable ni pour les États, ni pour l’économie européenne, ni pour les citoyens. Cela n’est pas souhaitable car se réfugier dans une vision déconnectée et purement théorique du droit nous conduirait immanquablement à de fortes désillusions collectives, car l’IA n’est pas à venir, elle est déjà partout. Et c’est à nous d’en prendre conscience pour trouver la meilleure manière de l’appréhender juridiquement, en ayant conscience des limites du droit face à des technologies en constante évolution.

Ainsi, encadrer juridiquement l’IA est une idée parfaitement légitime. Elle découle logiquement d’un certain nombre de constats, y compris scientifiques, mais aussi sociétaux, et du souhait tout aussi légitime de protéger par les textes de lois nos sociétés démocratiques et les citoyens contre des usages abusifs qui ont déjà pu être constatés dans d’autres parties du monde.

Encore faut-il pour cela trouver le meilleur angle permettant de réglementer avec rigueur mais souplesse une matière mouvante et polymorphe et croyez-moi, c’est tout sauf chose aisée.

Or, la première chose à rappeler lorsqu’on parle d’IA, est que l’on ne parle pas d’une réalité technologique unique et uniforme, mais de diverses technologies qui continuent d’évoluer au moment-même où nous nous arrêtons sur sa définition juridique. Le règlement européen sur l’IA définit en son article 3 non pas la technologie de l’IA mais un système d’IA comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». Cette définition nouvelle est en réalité proche, sinon identique, à celle déjà connue développée par l’OCDE.

D’ailleurs, on notera que le Conseil de l’Europe, dans sa convention-cadre, semble s’être lui aussi fortement inspiré de cette définition (ce souci de cohérence sur le plan international n’étant, en soi, pas une si mauvaise chose, reconnaissons-le). Pour autant, cette définition a d’ores-et-déjà suscité moultes critiques, mais encore fallait-il pouvoir trouver mieux pour permettre aux juristes de mobiliser ces règles juridiques nouvelles.

Ainsi, des algorithmes qui recommandent nos séries préférées aux systèmes d’IA capables de diagnostiquer des maladies ou de conduire un véhicule en autonomie, en passant par la maintenance prédictive des trains, la commande d’un véhicule Uber, le filtrage de nos courriels ou les moyens techniques destinés à éviter qu’un pilote d’avion ne s’endorme en vol, ou encore de l’IA permettant à des personnes de retrouver une mobilité perdue, l’IA s’insinue déjà, parfois sans que l’on s’en aperçoive, dans tous les aspects de notre vie.

L’un des points communs, en revanche, à toutes ces technologies d’IA est que contrairement à la petite musique distillée par certains experts autoproclamés ou au nom de certains intérêts économiques bien identifiés, l’IA est encore assurément artificielle mais toujours pas intelligente au sens où si elle peut, certes, mémoriser, calculer, reproduire ou établir des probabilités statistiques (ex : ChatGPT, qui repose sur des probabilités en matière de langage) bien plus vite que le cerveau humain, elle n’a pour autant toujours pas ravi à l’Homme sa capacité de penser. Soyons clairs, l’IA est une machine, un outil, elle ne pense pas, elle ne ressent pas, elle ne vit pas, elle ne rêve pas. C’est un outil incroyable à mettre au service de l’humain, mais j’ose avancer à ce stade que le droit devrait faire en sorte que cela reste ainsi. La machine doit rester au service de l’humain, et non l’inverse. La machine ne se crée pas toute seule, et il serait également trop facile de lui faire porter le poids de tous les maux, y compris en termes de responsabilité juridique.

Et c’est bien cela l’enjeu essentiel des textes européens que j’évoquais, à savoir la place de l’humain vis-à-vis de l’IA. Vous avez peut-être entendu parler du test de Turing, aujourd’hui clairement dépassé, mais les débats juridiques sur l’IA demeurent aujourd’hui souvent concentrés sur quelques thématiques, comme la protection des données personnelles (pour mémoire, beaucoup d’IA, notamment dans le domaine industriel, n’utilisent pas ou peu de données personnelles), ou la prévention des biais (pour mémoire également, le cerveau humain possède lui aussi ses biais naturels, qui ne sont au demeurant pas forcément négatifs).

Ces débats juridiques, inscrits le plus souvent dans une logique assez binaire et dépourvue de nuance (pour ou contre l’IA), éludent selon moi souvent la question primordiale que nos sociétés démocratiques devraient d’abord se poser : quelles limites sociétales, éthiques et morales souhaitons-nous poser, collectivement, par le droit mais aussi par la pratique, dans une société déterminée, au développement de l’IA sans pour autant la réduire systématiquement de manière simpliste au rang de danger pour l’humanité ? sans pour autant priver l’Europe et ses citoyens des bienfaits qu’elle pourrait leur apporter ? sans méconnaître la nécessité pour l’Europe de prendre ce tournant technologique majeur pour mieux protéger, aussi, ses citoyens ?

Qu’il s’agisse du règlement européen sur l’IA, qui sera, rappelons-le d’application directe dans les Etats membres, moyennant quelques dispositions d’adaptation du droit national, ou de la Convention-cadre du Conseil de l’Europe (dont la question de transposition nationale reste incertaine, car l’Union européenne a, en l’état, seule signé cette Convention au nom des Etats membres), ces deux textes tentent, avec plus ou moins de réussite sans doute, de placer l’humain au cœur du dispositif réglementaire : l’Union européenne avec la Charte des droits fondamentaux, et le Conseil de l’Europe avec la Convention européenne des droits de l’Homme.

Dans les deux textes, le choix d’encadrer juridiquement l’IA repose sur la notion d’usage de l’IA, c’est-à-dire qu’ils s’intéressent à l’IA qui sort ou qui a vocation à sortir des laboratoires de recherche pour être mise sur le marché, mise en service, utilisée, déployée par un humain, pour reprendre les termes du programme de ce colloque, et destinée à impacter les humains. Ces textes régulent l’IA non pas comme une technologie ou une science, mais bien comme un système - matériel ou logiciel- destiné à interagir avec l’environnement dans lequel il a vocation à être déployé, qu’il s’agisse du secteur public ou du secteur privé.

Par ailleurs, la place de l’humain se manifeste à toutes les étapes de la régulation du développement de ces systèmes, depuis la conception, le choix des données pertinentes, l’élaboration des algorithmes, le contrôle gardé sur la machine, même lorsqu’elle est capable d’apprendre seule (apprentissage machine ou machine learning), l’analyse et l’anticipation des risques à prévoir, y compris en terme de protection des données personnelles et des droits fondamentaux, la capacité de l’humain à rectifier un fonctionnement défaillant, la vérification dans certains cas des résultats proposés par l’outil, jusqu’à, parfois, la responsabilité de l’humain pour les dommages causés aux personnes par l’IA.

Toutes ces notions, vous les retrouverez tant dans le règlement européen sur l’IA que dans la Convention du Conseil de l’Europe, parfois en des termes identiques, parfois en des termes sensiblement différents, mais toutes ces idées y figurent et portent le souci du développement en Europe de technologies d’IA « responsables », « de confiance », respectueuses des valeurs européennes et des droits des personnes, et pour autant innovantes pour le progrès et au service des citoyens.

Alors bien sûr, cela implique aussi un autre défi juridique, qui est d’articuler ces nouvelles règles, notamment pour le règlement européen sur l’IA, avec les textes existants, qu’il ne remplace aucunement, et les défis sont réels. Je pense notamment au RGPD, bien sûr, qui repose notamment sur un principe de minimisation des données personnelles tandis que le principe-même du fonctionnement de l’IA repose sur une grande qualité de données, personnelles ou non. Sans données, pas d’IA, et une IA ne peut devenir performante et fiable que si elle est entraînée sur un nombre suffisant de données pertinentes. Au passage, on pourra noter aussi le problème de la langue, car nombre de données disponibles utilisées par les entreprises qui développent des logiciels d’IA le sont en langue anglaise et sont le reflet de sociétés ou d’environnements qui sont parfois très différents de notre réalité en France. Je pense encore à l’articulation avec les règles de responsabilité civile existantes au niveau national ou à venir au niveau européen, ou bien à la capacité de démontrer une faute, face aux défis techniques de transparence et d’explicabilité des décisions d’une IA. Car derrière ces prouesses technologiques et les injonctions de transparence se cachent encore des défis techniques et sociétaux considérables, tant pour les entreprises, que pour les individus, nos institutions et nos démocraties.

Le temps me manque, malheureusement, pour revenir sur les aspects plus techniques mais tout aussi utiles à la compréhension de ces textes, et pour n’en citer que quelques-uns, je vous citerai simplement:

  • l’approche par le niveau de risque (classification des systèmes d’IA en fonction du niveau de risque lié à leur usage)
  • le fait que le règlement IA n’ait jamais eu pour ambition de régler tous les problèmes créés par l’IA (et repose sur une logique propre à la législation européenne sur les produits issue du nouveau cadre législatif dit NLF de 2008)
  • la notion de neutralité technologique (parfois contestée) dans l’approche régulatoire, ou encore
  • l’approche dite « horizontale », qui vise à établir les mêmes principes juridiques pour l’ensemble des secteurs, publics comme privés (à quelques exceptions près), y compris en matière de justice et de sécurité.

Certes, au terme de cette journée, chacun aura un avis sur l’opportunité de ces textes européens et sur l’approche qu’ils ont choisie ou auraient dû privilégier. Certes, nous aurons des points de convergence et des points de désaccord sur les règles juridiques que nous estimons devoir s’appliquer ou s’adapter à ce domaine aussi étonnant qu’effrayant de l’intelligence artificielle.

Mais au moins, débattons-en, car c’est dans cette confrontation d’idées que nous pourrons, je le crois, avancer collectivement et de manière rationnelle vers une vision du droit de l’intelligence artificielle plus pragmatique et au fait des réalités technologiques et sociétales.

Au cours de cette journée, nous aurons ainsi la chance d’entendre des experts scientifiques et praticiens du droit de divers horizons pour vous aider, je l’espère, à vous forger votre propre opinion sur ces sujets sur lesquels l’unique vérité n’existe pas. Avant de leur céder la parole, je terminerai en vous partageant cette citation d’Albert Camus que m’a donnée ChatGPT :

Le progrès n’a de sens que s’il sert à accroître la liberté humaine, pas à la restreindre.

Albert Camus, extrait de L’Homme Révolté (1951)

Sauf qu’en réalité, Albert Camus n’a jamais prononcé cette phrase. Lorsque j’ai demandé à ChatGPT, faute de trouver confirmation sur internet, s’il était sûr de sa source, il m’a répondu ainsi : « Tu as raison de poser la question. La citation attribuée à Albert Camus n’est pas une citation textuelle tirée de L’Homme Révolté mais une reformulation inspirée de ses idées générales sur la liberté et la responsabilité humaine face au progrès. ».

Je vous laisse méditer sur cette réponse de ChatGPT et passe la parole sans plus tarder à Sabine Van Haecke-Lepic pour entrer dans le vif du sujet.

Je vous remercie pour votre attention.

Institut PRESAJE - 30 rue Claude Lorrain 75016 Paris
E-mail : contact@institut-presaje.com
Association loi de 1901