Autres regards civilisationnels sur la responsabilité
En ouverture du colloque du 9 janvier 2026 sur le thème de « Fait(s) de l’IA: Quels droits de la responsabilité ? », Anaëlle Martin, docteur en droit et rédactrice au Comité national pilote d'éthique du numérique, a présenté le système culturel, philosophique et méthodologique très circonstancié sur lequel repose le droit de la responsabilité tel que nous l'envisageons.

Anaëlle Martin, est docteur en droit et rédactrice au Comité national pilote d'éthique du numérique(CCNE-CNPEN).

Je vous propose aujourd’hui plutôt un regard philosophique, donc éthique, sur la responsabilité.

Comme Thomas Cassuto l'a indiqué dans ses propos introductifs du colloque, la notion de responsabilité est plurielle. Et en effet, l'éthique n'envisage pas la responsabilité de la même façon que le droit. D'ailleurs, l'éthique se situe en amont du processus législatif. Le Comité national pilote d'éthique du numérique dans lequel je travaille a notamment pour fonction, non pas d'influencer le législateur, mais de lui donner des éléments pour qu'il puisse ensuite légiférer en connaissance de cause ; en ayant des éléments sur ce qui est désirable ou ce qui ne l'est pas.

Il faut le préciser, mon propos n'a absolument rien de dogmatique. Ce sont des éléments de pensée qui sont le fruit du travail qui est le mien au comité puisque, selon une définition classique, l'éthique est une réflexion. Donc c'est une approche très réflexive et pas du tout normative. Le cadre n'est pas contraignant ; il est au contraire très large ce qui permet d'avoir une approche plus philosophique, comme je le disais en ouverture.

Les fils d’Ariane de la réflexion éthique

La distinction entre être humain et machine

Je veux insister sur le principe du maintien des distinctions entre l'intelligence artificielle d'une part et l'être humain d'autre part. C’est qui est un principe éthique, donc encore une fois pas un principe contraignant, normatif, strict, mais un principe qui doit simplement nous guider dans la réflexion.

Cette distinction est très souvent implicite, même s’il y a en ce moment, et depuis quelques années, des propositions pour conférer une forme de responsabilité à l'intelligence artificielle, pour mettre en place des régimes de responsabilité de la personnalité électronique, entre autres.

Le CCNE-CNPEN, dans son approche éthique, considère que ce ne serait pas une bonne chose. Je reviendrai sur les raisons morales, philosophiques, qui permettent d'étayer cette position de refus de conférer une responsabilité à l'IA et de rester plus sur les conditions de responsabilité de l'être humain.

Comment maintenir des conditions pour que les êtres humains demeurent responsables dans un monde de plus en plus automatisé, avec des systèmes techniques, sociotechniques, des algorithmes de prédiction, des réseaux sociaux, bientôt des interfaces cerveaux-machines?

L’intelligence artificielle est intégrative, elle va s'intégrer à toutes sortes de dispositifs dans notre environnement. Dans ce contexte, il faudra s’efforcer de maintenir la distinction entre l'humain et la machine, y compris en termes de responsabilité.

Le libre arbitre

Le deuxième fil conducteur de ma réflexion est celui du libre arbitre, qui m'a toujours énormément intéressé. On peut l’envisager d’un point de vue un peu civilisationnel : on sait que l'éthique, le droit, la démocratie, enfin notre système politique postule le libre arbitre. D'ailleurs, c'est pour ça que la responsabilité a un sens, même si on peut avoir des régimes de responsabilité sans faute et des constructions juridiques qui s'en écartent.

Sur le plan pénal, par exemple, on sait que si quelqu'un n'est pas libre, si son discernement a été aboli, c’est-à-dire qu’il n’a plus la capacité à discerner le bien du mal, alors il ne va pas être considéré comme responsable. On postule donc qu'en état normal, dans des conditions normales, on répond de nos actes, nous sommes responsables. Comme le disait Thomas Cassuto, c'est la contrepartie de notre liberté. Et quelque part, c'est un postulat : le libre-arbitre existe. Et c'est pour ça qu'on peut répondre de nos actes.

D'ailleurs, ça remonte à la théologie. Là encore le terme de théologie peut sembler très vague puisque on peut regarder la Bible, le judaïsme, le christianisme, l'islam, mais également le bouddhisme, l'hindouisme, qui ont toutes des façons un petit peu différentes d'envisager le libre-arbitre. En théologie, le postulat du libre-arbitre existe puisque si un homme était comme un golem ou un robot, il n'y aurait pas de sens à ce que Dieu le punisse en termes de châtiment. Pourquoi irait-on en enfer si, de toute manière, lorsqu'on a mal agi, on n'avait pas d'autre choix que de mal agir? Ça reviendrait à dire que Dieu avait programmé tel individu pour agir mal. Ça n'a aucun sens.

Donc le libre-arbitre, en Occident en tout cas, est un concept important. Pourtant c'est un concept qui est mis à mal aujourd'hui. Je dirais qu'il est mis à mal sur un double plan, à la fois scientifique et technologique. Vous le savez peut-être si vous vous êtes intéressé à la littérature en science, et plus précisément en neuroscience, on a tendance à nier le libre arbitre. A présenter ça comme une forme d'illusion, un mythe, en quelque sorte, une fiction juridique, malgré elle.

Il y a eu pas mal d’études, notamment la fameuse expérience de Benjamin Libet(1), qui montre que des événements cérébraux inconscients précèdent en pratique de quelques centaines de millisecondes la sensation consciente d’avoir pris une décision volontaire en préparation d’une action motrice. Ça a été fortement contesté et le débat reste ouvert mais l’expérience montre en quelque sorte que notre cerveau, avant même que nous ayons conscience de faire un choix, par exemple aller à gauche ou à droite, a déjà décidé de quel chemin nous allions prendre. C'est contre-intuitif parce qu'on a l'impression qu'on a le libre-arbitre, mais les neurosciences nous disent que non : si on s'en tient aux signaux électriques, il y existe des intervalles entre le moment où on a conscience de faire un choix et d'exercer ce qu'on pense être le libre-arbitre, et le moment où tout a été décidé, en amont, dans le cerveau.

Quel est le lien avec l'IA ? Le lien, c’est que l'IA aujourd’hui est interdisciplinaire, et qu’elle peut s'intégrer dans les neurotechnologies. Par exemple, vous connaissez peut-être les interfaces cerveaux-machines (ou brain-computer-interfaces en anglais) ; les plus médiatisées sont produitent par Elon Musk(2). Il s’agit là de dispositifs contraignants, puisqu'ils impliquent d'ouvrir le cerveau et d’y placer des électrodes. Mais il existe également tout un tas d'interfaces cerveaux-machines qui ne sont pas invasives. Elles peuvent prendre la forme de casques contenant des capteurs que vous pouvez mettre sur la tête. Et grâce à des algorithmes d'intelligence artificielle, les signaux captés par le casque peuvent être décryptés. C’est du moins ce qu’ils prétendent faire : décrypter vos intentions, vos pensées.

Pourquoi le libre arbitre est mis à mal ici? Sans entrer tout de suite dans les détails techniques - on y reviendra plus tard - on pourrait très bien, sur le plan juridique, s'interroger sur ces dispositifs qui prétendent non seulement lire dans les intentions, potentiellement les intentions des criminels, mais qui pourraient aussi permettre d’orienter nos pensées.

Pas seulement monitorer, pas seulement décrypter, ce qui déjà pose problème en soi, mais également les orienter. Ceci porterait directement atteinte à notre libre-arbitre, à notre insu, et de façon inadmissible. Que ce soit sur le plan éthique ou juridique, on ne peut pas admettre que des interfaces orientent nos comportements en court-circuitant la pensée. Mais ce sont des technologies qui existent déjà. Le droit, notre système juridique, devra se positionner là-dessus dans les années à venir.

La liberté de penser

La liberté de penser est un droit fondamental, sans doute le premier de tous, duquel vont découler tous les autres droits fondamentaux. C’est un droit absolu, puisque le principe du forum internum, depuis l'époque des Lumières, implique que le droit n'est pas concerné par ce qui se passe dans notre tête. Le droit vise seulement à réprimer des comportements illégaux lorsqu'ils sont extériorisés.

Au 18e siècle, ce principe visait à rejeter les crimes d'opinion. Il correspondrait aussi à un rejet de toute forme d’inquisition à des époques précédentes. C’est philosophiquement aussi très lié, par exemple, à la pensée des Descartes, Cogito Ergo Sum(3), le sujet qui pense, l'autonomie. A l'époque des Lumières, avec Kant, on postule que le forum internum est inaccessible, si ce n'est peut-être à Dieu. Dieu peut pénétrer nos pensées, comme le disait Saint-Augustin, mais c'est le seul a priori.

Or aujourd'hui, ce n'est plus le cas. Aujourd'hui, nous avons des machines, et notamment l'intelligence artificielle, qui permettent de lire dans nos pensées - prétendument, c'est un petit peu plus compliqué que ça en réalité - mais aussi d'orienter nos pensées, nos comportements. Pas besoin d’attendre les interfaces cerveaux-machines qui vont arriver dans quelques mois ou dans quelques années sur le marché. Vous avez tous des exemples de comportements aujourd'hui qui sont orientés par l'intelligence artificielle, qu'il s'agisse des algorithmes de recommandations, des réseaux sociaux, et de tout cet environnement technologique qui contraint énormément. Est-ce que nous sommes libres lorsque nous sommes en train de scroller sur Instagram, tout en sachant que le système exploite nos biais et qu'il a compris ce qu'on aimait, ce qu'on désirait.

Donc la question de la liberté de penser se pose. Si vous avez un petit peu suivi les débats sur les neurodroits, ou neuro-rights en anglais, certains mettent en avant la nécessité de compléter le corpus existant des droits humains. C'est très à la mode d'ajouter “neuro” partout et certains contestent, je pense à juste titre, la nécessité, ou même l'opportunité de consacrer de nouveaux droits, puisque nous avons un corpus existant. On parle d'inflation législative donc peut-être que ce n'est pas forcément la bonne chose à faire. Mais il faut, en tout cas, se pencher sur la façon dont on a consacré un principe comme la liberté de penser car le droit, aujourd'hui, ne permet pas de protéger n'importe quelle pensée.

Si on regarde la jurisprudence de la Cour européenne, c'est très intéressant. La liberté de penser n'a pas une jurisprudence très développée par rapport à d'autres droits. Et surtout, toutes les pensées ne sont pas protégées. Il faut qu'elles aient un certain niveau de pertinence, d'importance. Par exemple, des pensées qui sont liées à des croyances religieuses ou philosophiques. Il faut qu'elles aient une certaine consistance. Or, la question des neurotechnologies, des interfaces cerveaux-machines, pose la question de la limite.

Finalement, toutes les pensées ne devraient-elles pas être protégées aujourd’hui, même celles qui paraissent insignifiantes. Parce que, juridiquement parlant, le droit actuel ne protège pas toutes les pensées. En tout cas, le droit n'a pas été pensé comme ça, puisque c'est un droit qui remonte au 18e siècle, à une époque où on n'avait pas toutes ces machines.

Le rôle de l’humain

Le lien avec la responsabilité est assez évident dès lors que notre pensée est menacée, qu'elle est potentiellement non seulement monitorée, mais qu'elle est commandée par des algorithmes d'intelligence artificielle. Cela soulève de nombreuses questions.

Par exemple, certains patients atteints de la maladie de Parkinson ont aujourd’hui dans leur cerveau des électrodes, des implants, et ils ont une télécommande à leur disposition, qui leur permet d’influencer un peu la motricité ou la parole. Avec mon comité, nous avons pu auditionner certains de ces patients, et ils nous disent : "on n'est pas forcément la même personne". Donc cette technologie-là pose des vraies questions liées à notre identité et aussi à la responsabilité. Puisque ces personnes nous disent : "j'ai des comportements qu'avant je n'avais pas. Je suis devenu très créatif". On peut très bien imaginer que ça puisse changer un comportement, est-ce qu’une personne peut devenir plus agressive? C'est aussi ça, la question de la responsabilité, quand il est question d'intelligence artificielle. Pas simplement la question piège "il faut une responsabilité de l'IA". C'est beaucoup plus complexe que ça.

La réflexion éthique a aussi pour enjeu de recadrer sur l'être humain. Il y a toujours des êtres humains, que ce soit dans la conception, dans l'utilisation, dans la décision d'utiliser ou non un système d'intelligence artificielle. Et la question de la responsabilité doit se poser à chaque étape. Je ne parle pas ici en termes de responsabilité juridique, mais de cette capacité à discerner, à tenter de se poser des questions.

Pour en revenir au premier principe que j'évoquais, celui du maintien des distinctions entre l'intelligence artificielle et les être humains, on a beaucoup d'éléments qui justifient le maintien de cette distinction.

Un des membres de mon comité, Alexei Grinbaum a notamment écrit des ouvrages consacrés à cette question et, dans mon comité, on s'est penché sur ce sujet à plusieurs reprises lors d'avis que nous avons rendu, notamment sur la question du métavers, sur la question des systèmes d'IA générative, et sur la question des chatbots(4), puisque les chatbots, c'est une forme particulière de système d'IA générative.

L’exemple du Métavers

Dans un métavers, vous avez la possibilité d'évoluer dans un univers immersif, virtuel, par le biais d'avatars. Ces avatars sont censés vous représenter. Il y a en fait deux types d'avatars:

  • des avatars derrière lesquels on a des utilisateurs humains
  • des avatars derrière lesquels on a l'intelligence artificielle. Des NPC(5) pour les geeks, des avatars sans âme. C'est l'IA qui les génère.

Parfois il est impossible de discerner l’avatar contrôlé par un humain ou d’un chatbot toxique qui a d'autres buts.

Une des questions qui se pose, c'est celle des crimes dans les métavers. Comme vous pouvez l’imaginer, il y a eu beaucoup de débats, beaucoup de scandales sur des questions de pédopornographie. Des avatars enfants qui étaient abusés sexuellement, qui avaient des rapports sexuels, soi-disant consentants. Le droit ne s'est pas tellement penché sur cette question; c'est surtout une réflexion éthique qui a été suscitée à la suite de ces différents scandales.

Je crois que l'un des premiers, c'était il y a quelques années dans un univers virtuel créé par Meta: une utilisatrice s'était plainte d'agression sexuelle fait par des avatars masculins sur son personnage. Et la question s’est posée d’une équivalence stricte entre le monde matériel physique, le nôtre actuellement, et le monde virtuel. Certains l'envisagent. Doit-on interdit de la même façon ? En réalité, ce n'est pas tout à fait la même chose.

La réflexion éthique, c'est de se demander s’il faut maintenir la distinction entre ce que fait un humain dans le monde réel et ce que fait une machine ou ce que fait un avatar, même si derrière il y a un être humain. Ou pas forcément d'ailleurs. Ça va susciter sans doute des réactions diverses et variées de votre part.

Certains pensent qu'il faut aujourd'hui faudrait faire évoluer la définition du viol pour intégrer également ces questions de crime dans le métavers, si des avatars subissent de la part d'autres avatars des attouchements ou une forme d'agression dite sexuelle. Même si, là encore, l'espace tridimensionnel du monde virtuel est une illusion, une construction. Il n'y a pas vraiment de toucher, sauf si on envisage des retours haptiques. Le retour haptique, c’est le retour de force qui est simulé et qui conduit par exemple une manette de jeux vidéo à vibrer. C'est une forme d'interaction avec la machine, avec un retour physique ; vous le sentez sur votre corps. Vous pouvez imaginer avoir une combinaison et ressentir sur votre corps certaines interactions qui sont faites par votre avatar dans le monde virtuel. Au Japon, par exemple, c'est beaucoup plus répandu qu'ici. Donc est-ce qu'il faut faire évoluer le droit pour prendre en compte ces crimes et donc aussi ces châtiments, pour reprendre l'expression de Dostoïevski, dans le métavers ? Est-ce qu'il faudrait une stricte équivalence et donc faire évoluer aujourd'hui le corpus juridique en ce sens?

Les membres de notre comité qui ont été les rapporteurs de l’avis sur le metavers considèrent que non, puisqu'il y a une distinction à maintenir. Ce n'est pas la même chose. L'utilisatrice en question, qui disait avoir été violée, ne l'a pas été en tant que telle. Néanmoins, elle l'a dit parce qu'elle a fait des projections.

On s'est beaucoup penché sur la question des transferts et des projections parce qu'en tant qu'êtres humains, nous avons des biais qui sont exploités par l'intelligence artificielle, magistralement puisque c’est ce qui permet d'exploiter nos vulnérabilités. Nos biais incluent une tendance à projeter, à anthropomorphiser. Et effectivement, il y a eu ici un transfert. Pas un transfert cognitif, parce qu'elle savait bien que c'était des avatars, elle n'était pas folle. Néanmoins, il y avait un transfert émotionnel, affectif, et également moral, puisqu'elle voulait tenir pour responsable Meta, le concepteur. Est-ce qu'un concepteur de métavers, de réalité virtuelle, immersive ou non, peu importe, doit être tenu responsable pour un environnement qui a permis ce genre d'actes? Ils sont sans doute scandaleux, mais est-ce que ça mérite une sanction du concepteur?

Meta a pris ses responsabilités dans cette histoire, et a imposé un périmètre autour de chaque avatar pour que les avatars ne puissent pas se toucher. Ça a été d'ailleurs très mal accueilli par la communauté des jeux vidéo, puisque c'est apparu comme une aberration par rapport aux usages de l’industrie. Ça pose aussi des questions sur le plan philosophique et sur le plan juridique : est-ce que Meta ne s'érige pas en législateur, c.f. code is law(6), en empêchant des infractions, by design, c'est-à-dire dès la conception.

Si les avatars se comportent de façon vertueuse dans ces circonstances-là, avec le périmètre de sécurité autour de chaque avatar, ce n'est pas parce qu'ils exercent leur libre arbitre, mais simplement parce qu'ils sont techniquement empêchés de le faire. Code is law: dès la conception d'un univers virtuel, on peut faire en sorte d'empêcher des actes qui seraient donc humainement considérés comme répréhensibles. Alexei Grinbaum, par exemple, qui est un expert du numérique, est totalement contre cette approche. Il nous dit que ça crée des univers aseptisés. Et c'est très contestable de la part de Meta de s'ériger lui-même quelque part en législateur numérique de son propre monde.

La réglementation de l’IA

Je n'aurais pas le temps d'évoquer tout ce que ce sujet m’inspire mais je voudrais faire un lien plus direct avec le droit, et notamment la question du règlement sur l'intelligence artificielle. Je voulais attirer votre attention sur le paragraphe 29 du préambule du règlement:

Des techniques de manipulation fondées sur l'IA peuvent être utilisées pour persuader des personnes d'adopter des comportements indésirables ou pour les tromper en les poussant à prendre des décisions d'une manière qui met à mal et compromet leur autonomie, leur libre arbitre et leur liberté de choix. La mise sur le marché, au service ou l'utilisation de certains systèmes d'IA ayant pour objectif ou pour effet d'altérer substantiellement les comportements humains avec le risque de causer des dommages importants. Donc par exemple, avoir des incidences importantes sur la santé physique ou psychologique ou sur les intérêts financiers sont particulièrement dangereuses et devraient dès lors être interdites. Paragraphe 29 du préambule du RIA

Il est formellement interdit de manipuler nos comportements. Tous les exemples que je vous citais précédemment sont interdits en principe par le règlement sur l'IA. Ces systèmes d'IA font intervenir des composants subliminaux(7).

On s'est beaucoup penché sur la question de ces composants subliminaux. Il y a un débat scientifique pour savoir si la notion de stimuli sonores, visuels ou vidéos, que l'individu ne peut percevoir, est vraiment fondée scientifiquement. Ces stimuli échappent à la perception humaine. Il y a d'autres techniques manipulatrices ou trompeuses qui mettent à mal ou altèrent l'autonomie de la personne, son libre arbitre, ou sa liberté de choix, de telle sorte que l'individu n'est pas conscient de ces techniques.

Tous ces dispositifs-là sont liés à l'intelligence artificielle et nous court-circuitent. On peut lire nos intentions avant même qu'on en ait conscience. C'est assez inquiétant et ça soulève la question de la responsabilité individuelle et de notre liberté de choix et du libre-arbitre: l'individu n'est pas conscient de ces techniques ou à supposer qu'il le soit, ne peut échapper à la duperie, ni opposer une résistance ou un contrôle aux dites techniques.

Cela pourrait être facilité, par exemple, par des interfaces cerveaux-machines. Notre comité va justement rendre un avis dans quelques mois sur les interfaces cerveaux-machines. Ou ça pourrait être facilité par la réalité virtuelle. Ça, c'est l'avis que nous avons rendu sur le métavers, avec tous ces comportements répréhensibles qui peuvent exister dans des univers virtuels. Quid de la responsabilité de ceux qui les commettent?

Ces technologies permettent d'avoir plus de contrôle sur les stimuli qui sont présentés aux personnes et elles peuvent en altérer sensiblement le comportement d'une manière très nocive.

Échanges avec l’auditoire

  • Participante (1)

Par rapport aux pratiques interdites par le règlement sur l’IA, pourrait-on considérer que les algorithmes de recommandation d’Instagram, Facebook ou Tik Tok rentrent dans le champ d'application puisqu’ils utilisent les mêmes techniques subliminales?

  • Anaëlle Martin

Ce serait avoir une interprétation très large, mais en effet, la question se pose. C'est d'ailleurs la question que je posais moi-même. On le voit notamment avec les personnes vulnérables. Je ne veux pas trop catégoriser les personnes en fonction de leur vulnérabilité car on est tous à un moment de sa vie plus ou moins vulnérable. Et c'est vrai qu'on peut très vite, avec des algorithmes de recommandations, en scrollant des heures sur les réseaux sociaux, adopter des comportements assez mauvais.

  • Participante (1)

Il y a eu des études, par exemple, qui ont démontré que le fait de voir des informations qui peuvent être fausses sur les réseaux sociaux, peut influencer nos votes. Ça, ça rentre parfaitement dans la catégorie de la manipulation. C’est lié à l'algorithme de recommandation, mais aussi le côté “machine à sous”, le fait de se scroller, le fait d'avoir des vidéos, ça interfère sur le cerveau. Donc ça, en fait, avec cet article de règlement, on pourrait directement aller devant un juge et faire interdire cet accord.

  • Anaëlle Martin

Alors, c'est un peu ambitieux. Ce sont des pistes. Et à vous, ensuite, de trouver les leviers qui pourraient être actionnés dans le cadre du règlement sur l'IA. Il faut savoir qu'il y a aussi des gros débats, et bien entendu, il y a des enjeux économiques immenses derrière. Mais je vous suis sur le fait que c’est envisageable. A ma connaissance, il n’y a pas eu de cas, Mais peut-être que je me trompe."

  • Participante (2)

J'avais une question par rapport aux avatars. Pour moi un avatar constitue une donnée personnelle dans le sens où ça peut avoir une ressemblance physique, un pseudo, ou quelque chose qui rapproche directement une personne. A partir du moment où il est porté atteinte à cet avatar, on porte atteinte à l'intégrité de données personnelles. Est-ce qu'on ne pourrait pas aller sur ce terrain-là ? Et alors la loi existante ne suffit-elle pas déjà ?

  • Anaëlle Martin

Oui, effectivement, un avatar peut être très “identifiant”. Et donc ça tombe sous le coup de la définition des données personnelles, enfin des données à caractère personnel du RGPD. C'était aussi une de nos réflexions. Néanmoins, je parlais de viol et on ne viole pas des données personnelles. Ma réflexion interrogeait sur une possible équivalence entre l'intégrité de notre corps physique et l'avatar. Et j'entends bien qu'on a transféré nos données. Et d'ailleurs, à l'avenir, les avatars seront quasiment des jumeaux numériques. Et alors sans doute la question va être encore posée avec une acuité encore plus forte.



(1) Benjamin Libet, 1916-2007, fut l’un des premiers à démontrer dans les années 1970 que des processus neurologiques inconscients précèdent et provoquent potentiellement à la fois la sensation d'avoir pris une décision de sa propre volonté et le même acte moteur

(2) Neuralink est une start-up américaine contrôlée et largement financée par Elon Musk

(3) “Je pense donc je suis”, Discours de la Méthode, René Descartes, 1637

(4) Agent conversationnel en français

(5) Acronyme anglais de Non Playing Character

(6) Le code c’est la loi, Code and Other Laws of Cyberspace, Lawrence Lessig, 1999

(7) c.f. Article 5.1.a) du règlement sur l’IA