Ce billet est tiré du 8ème colloque international France-Chine sur la responsabilité numérique. Il était organisé par Bénédicte Bever-Boyer, maître de conférences HDR en droit privé. Il se tenait à la Chambre des Notaires de Paris et a rassemblé de nombreux universitaires français et chinois ainsi que des spécialistes du domaine dont Shi Jiayou, Professeur à l’Université du Peuple de Chine (Pékin).
De nombreuses questions juridiques mais aussi éthiques, philosophiques et économiques se sont posées pour définir au mieux la notion de responsabilité numérique, ses fondements juridiques, ses domaines d’application.
Notre code civil est napoléonien, le code civil chinois sera conçu pour le numérique
Il a été intéressant de confronter les visions françaises et chinoises car les deux pays sont, chacun, à la croisée des chemins sur le sujet.
La Chine est en train d’élaborer son code civil. Le numérique est vécu au quotidien par ses citoyens. Elle est plus en avance que la France dans de nombreux domaines technologiques. Elle a à gérer la révolution digitale d’un point de vue juridique. Son nouveau code civil se veut évolutif et prenant en compte les problématiques de protection des données, responsabilité des IA, protection des citoyens face à l’émergence des conflits liés au digital. Les intervenants chinois ont souligné que les atteintes aux droits des populations sur Internet se multiplient.
Dès juin 2017, la Chine avait pris des mesures pour protéger les données de ses citoyens : traitement des données personnelles soumises à l’accord des internautes, stockage des data sur le territoire chinois , notamment, les données sensibles…
Le futur code civil chinois ira plus loin sur la cybersécurité ou les sanctions concernant les Fake News.
Les différences avec la France sont importantes. Outre, cette volonté de « réfléchir le droit » à la lumière des avancées technologiques, la justice est rendue par des juges connus. Cela permet aux avocats chinois de faire des statistiques sur leurs décisions passées et de prévoir leurs jugements futurs. En France, la justice est rendue au nom du Peuple Français et les juges sont anonymes.
Mais le questionnement est plus large que l’anonymat des juges ou le traitement local des données. La question centrale est de savoir si l’on adapte a minima le droit existant ou si l’on crée de nouvelles règles.
De la responsabilité éthique à la responsabilité numérique
Bénédicte Bever-Boyer pose le sujet. La responsabilité civile est un « ensemble de règles qui obligent l’auteur d’un dommage causé à autrui à le réparer en offrant à une victime une compensation (G. Viney). La responsabilité juridique numérique intervient à l’occasion de l’ensemble des activités numériques.
Faut-il se contenter des règles de responsabilité classiques ou convient-il de prévoir des dispositions spécifiques ?
La notion de confiance est essentielle car les systèmes nous rendent service mais on ne sait pas tout d’eux (fonctionnement, boîte noire, algorithmes…). L’adaptation du droit à l’IA est un chantier extraordinairement complexe et important. D’une façon générale, on assiste à un grand mélange des concepts qui sont, pourtant, essentiels dans une IA respectueuse du droit. Elle doit reposer sur trois piliers :
- Elle doit être conforme à la loi (notamment concernant la protection des données)
- Elle doit être éthique. La loi ne prend pas forcément toutes les considérations éthiques car ces dernières évoluent. L’IA doit pouvoir le faire.
- Elle doit s’assurer de son bon fonctionnement. Une IA défaillante peut causer de nombreux morts. Elle a une obligation de sûreté. L’aérien en est un bon exemple.
De la responsabilité éthique à la responsabilité numérique par Raja Chatila, Professeur en robotique, IA et éthique à Sorbonne Université
Raja Chatila est président de l’Initiative mondiale IEEE sur l’éthique des systèmes autonomes et intelligents, membre du groupe d’experts de haut niveau sur l’Intelligence Artificielle de la Commission européenne et membre de la Commission de Réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene (CERNA) en France.
Il travaille sur les liens entre l’éthique et l’IA et comment rendre l’IA digne de confiance. Le modèle présenté repose sur les principes suivants :
Une IA digne de confiance devrait respecter toutes les lois et tous les règlements applicables, ainsi qu’une série d’exigences ; des listes d’évaluation spécifiques visent à aider à vérifier l’application de chacune des exigences clés :
Agence humaine et surveillance : Les systèmes d’IA devraient permettre des sociétés équitables en soutenant l’action humaine et les droits fondamentaux, et non pas diminuer, limiter ou mal orienter l’autonomie humaine.
Robustesse et sécurité : Une IA digne de confiance exige que les algorithmes soient suffisamment sûrs, fiables et robustes pour traiter les erreurs ou les incohérences pendant toutes les phases du cycle de vie des systèmes d’IA.
Protection de la vie privée et gouvernance des données : Les citoyens devraient avoir un contrôle total sur leurs propres données, tandis que les données les concernant ne seront pas utilisées pour leur nuire ou pour exercer une discrimination à leur encontre.
Transparence : La traçabilité des systèmes d’IA devrait être assurée.
Diversité, non-discrimination et équité : Les systèmes d’IA devraient tenir compte de l’ensemble des capacités, des compétences et des exigences humaines et assurer l’accessibilité.
Bien-être de la société et de l’environnement : Les systèmes d’IA devraient être utilisés pour améliorer les changements sociaux positifs et renforcer la durabilité et la responsabilité écologique.
Responsabilisation : Des mécanismes devraient être mis en place pour assurer la responsabilité et l’obligation de rendre compte des systèmes d’IA et de leurs résultats.
A consulter sur : http://europa.eu/rapid/press-release_IP-19-1893_en.htm
Ainsi, il est indispensable de s’assurer d’un code de conduite dès la conception d’un produit numérique. Cette règle rejoint le privacy by design imposé par le RGPD. C’est d’autant plus important que le cycle de vie des produits et services numériques évolue avec le temps. Il faut également régler les problèmes imprévus qui naissent des usages. Dans le cas des voitures autonomes, les usages iront vers des véhicules sans aucun passager ou avec des passagers aux droits d’intervention limités. Comment légiférer dans ce cadre sur la responsabilité civile ?
De nombreuses pistes sont à l’étude. Il serait possible de raisonner sur un droit qui ne fait aucune distinction entre le on et le off-line. Il serait intéressant de réfléchir à une nouvelle forme de responsabilité : la responsabilité corporate digitale.
La question d’une régulation juridique spécifique aux plateformes se pose comme celle d’avoir une vision unifiée de la responsabilité. Ce point est particulièrement délicat et touche à de nombreux domaines dont l’assurance.
La loi Badinter stipule que lors d’un accident automobile, l’implication d’un véhicule permet à la victime de bénéficier d’un droit d’indemnisation d’où l’obligation de souscrire à une assurance. Il suffirait d’appliquer cette loi pour les véhicules autonomes car il est possible via l’accès à leurs données de retracer la chaîne de recours de la responsabilité.
Le problème est qu’il faut assurer de bien pouvoir accéder à ces données et que ces données soient fiables. Par ailleurs, il faudra à terme créer un observatoire de la sinistralité centré sur les accidents causés par les robots.
Des compagnies d’assurance comme Lemonade vont faire rentrer l’IA et le Machine Learning sur le secteur. Ce n’est qu’une question de temps mais les fraudes liées à la cybercriminalité et au cyber-risque vont accélérer la mutation digitale du secteur de l’assurance.
Le premier mort causé par une voiture autonome est chinois et personne ne sait ou ne veut savoir qui est responsable Un père mène un combat judiciaire acharné contre Tesla. Il a perdu son fils Gao Yaning, 23 ans, qui a percuté un camion en janvier dernier au volant d’une Tesla. Il est impossible de récupérer les données car le véhicule est trop endommagé. Par ailleurs, Tesla reconnaît que son mode Autopilot était actif mais que c’est un mode d’assistance qui ne dispense pas le conducteur de reprendre le volant en cas de danger.
Conférer à l’IA une personnalité juridique, un non-sens ?
Pour certains juristes chinois, l’IA est une personne. On cite souvent le cas du robot Sophia, premier humanoïde à avoir obtenu une nationalité, la nationalité saoudienne. Sophia est destinée à combattre les violences faites aux femmes. Pour que son combat soit crédible, les autorités ont décidé de lui conférer une personnalité juridique. Pour eux, il est tout à fait possible de considérer que l’IA a le statut de personne.
Le robot imite l’humain, a une capacité d’apprentissage forte. Il se rapproche de l’humain dans le cas d’une IA forte. L’entreprise a une personnalité juridique. Pourquoi pas un robot ? Par ailleurs, les personnes physiques ne sont pas sujets de droit automatiquement. On peut citer le cas des esclaves qui étaient représentés au tribunal par leurs maîtres. Ce droit romain pourrait s’appliquer aux robots et à leurs fabricants.
Les questions liées sont :
- La distribution des responsabilités ou la concentration des responsabilités et son corollaire, l’indemnisation des victimes.
- La notion d’agent. L’agent est celui qui agit, qui s’occupe d’une tâche. Il est autonome. Il existe des agents humains. On peut également imaginer des agents IA. Il faut pouvoir réfléchir sur un droit liant les deux autonomies.
- La multiplicité des signaux. Comment décrypter les responsabilités sous une masse de données ?
Nathalie Nevejans, maître de conférences HDR de l’Université d’Artois se bat contre le fait de conférer une personnalité juridique aux robots. Elle rappelle que les premiers robots autonomes sont les aspirateurs. La directive de 1985 sur les produits défectueux est capable de prendre à 80% des litiges. On ne peut pas refaire le droit pour quelques cas. Par ailleurs, rien ne peut être imprévisible. Parler de l’imprévisibilité des robots est un non-sens car :
Les dommages ne peuvent être liés qu’à leur tâche. Ils sont programmés pour effectuer une tâche particulière. S’il y a imprévisibilité c’est du fait de caractéristiques défectueuses.
Donner une personnalité juridique à un robot reviendrait à lui accorder des droits humains c’est-à-dire le droit à la dignité, la rémunération ou la nationalité !
Pourtant, cette éventualité est du domaine du possible.
Or, si le robot est déclaré responsable, le fabricant va être exonéré de responsabilité !
Selon la résolution européenne de février 2017, l’émergence des systèmes autonomes et auto-apprenants pose la question de savoir s’il faut repenser la responsabilité civile. Les robots autonomes les plus sophistiqués pourraient être considérés comme des personnes électroniques responsables tenus de réparer tout dommage causé à un tiers. Il faudrait donc créer une nouvelle catégorie juridique dotée de ses propres caractéristiques et effets spécifiques. Ainsi la résolution de 2017 semble encourager implicitement l’instauration d’une personnalité juridique pour le robot.
Le combat de Nathalie Nevejans Nathalie se bat contre cette éventualité. Elle a lancé l’Open Letter to the European Commission “Artificial Intelligence and Robotics” qui refuse la personnalité juridique des robots. Les signataires sont des chercheurs en IA, robotique, universitaires, juristes, fabricants de robots, médecins… Pour aller plus loin : http://www.robotics-openletter.eu/
La stérilisation des fonctions de la responsabilité civile
Mustapha Mekki, professeur à l’Université Paris 13 donne une vision éclairante du problème.
Dans la question, l’IA est-elle une chose ou une personne, la plus rassurante est de considérer que l’IA est une chose, la plus percutante qu’elle est une personne.
Ce sont deux approches différentes.
Selon l’approche classique, si l’IA est une chose, elle tombe sous le droit commun de la responsabilité du fait des choses (Article 1242 du code civil). Le responsable désigné sera le gardien de l’IA (fabricant, fournisseur) et son régime s’apparentera à celui des produits défectueux. La loi Badinter pourra servir de modèle.
On peut également doter le robot d’une personnalité juridique. Le rapport Delvaux du Parlement Européen envisage de créer une personnalité juridique nouvelle, une personnalité numérique.
http://www.europarl.europa.eu/doceo/document/A-8-2017-0005_FR.html?redirect
Dans ce cas, le robot autonome a-t-il les mêmes droits que l’humain ? Comment caractériser la faute d’un robot ? N’est-on pas en train de faire un détour inutile ?
Si l’on revient aux fonctions de la responsabilité civile, on peut distinguer la fonction indemnitaire (réparer les dommages causés) ou la fonction dissuasive ou préventive. Avec les logiciels prédictifs, ces fonctions peuvent-être perturbées. L’essence et la fonction de la responsabilité civile sont de sélectionner les arguments les plus pertinents et prendre en compte l’ensemble du passé. Il va être possible de calculer au plus juste voire d’automatiser les dommages. Les décisions vont être donc plus prévisibles. Ainsi, une faute médicale analysée par les logiciels prédictifs pourra prendre en compte le lien entre la faute et le dommage, le contour de la faute etc…Le droit va se figer. Compter c’est limiter le futur et gêner l’émergence d’une jurisprudence évolutive.
Le risque est une démoralisation et une désindividualisation des décisions. L’individu devient un profil. Par ailleurs, le prédictif reproduit l’avenir à partir du passé. Est-ce que c’est ce que l’on attend d’une responsabilité civile ? Si l’on quantifie toute décision de justice, on met en place des plafonds, des forfaits. On budgétise la faute et on déresponsabilise.
L’IA peut aboutir à une stérilisation des fonctions de la responsabilité civile. Des citoyens qui n’auraient que 40% de gagner un procès, pourraient renoncer à porter leur affaire devant la justice. Or, un procès, c’est aussi une tribune.
La loi sur l’e-commerce en Chine, une préfiguration du nouveau code civil et d’une responsabilité numérique éthique
Le 31 août dernier, la première loi chinoise relative à l’e-commerce a été adoptée par le comité permanent du NPC (National People’s Congress). Cheng Xiao, Professeur à l’Université de Tsinghua a commenté les principes de la loi. Cette dernière est entrée en vigueur le 1er janvier 2019. Elle pourrait servir de base à une législation plus large sur la responsabilité numérique. Les plateformes voient leurs obligations juridiques s’alourdir. Elles ont l’obligation de protéger le droit et la santé des consommateurs. Leur responsabilité est engagée en cas de manquement de leurs vendeurs. La responsabilité est dite solidaire. Une attention particulière est portée à la sécurité alimentaire. Les vendeurs d’aliments doivent s’inscrire sur les plateformes avec leur vraie identité. Les règles environnementales sont renforcées. La cyber-sécurité et les données personnelles sont de nouveaux champs législatifs. Le cyberespace est défini comme un endroit public.
La dangerosité des produits doit être vérifiée. Le principe est simple : s’il y a profit, il y a responsabilité.
L’affaire Wu Yongning, la responsabilité de Weibo
A 26 ans, Wu Yongning est décédé après une chute du 62e étage d’un immeuble. Le grimpeur urbain chinois était l’un des plus célèbres “rooftopper” internationaux. Pour gagner sa vie, il partageait ses exploits sur le réseau social Weibo, le “Twitter chinois”. Il avait 60000 followers sur ce réseau et gagnait sa vie ainsi. Il subvenait aux frais médicaux de sa mère malade. Les parents ont porté plainte contre la plateforme. Son histoire a mis en évidence la responsabilité des réseaux sociaux. S’il y a profit, il y a responsabilité.
La richesse de cette journée ne peut être résumée en un billet de blog. Ce que j’ai aimé est de voir à quel point la Chine et la France étaient proches sur des sujets essentiels. Cette fertilisation croisée devrait permettre de penser le droit de demain entre la prudente Europe et la jeune et innovante Chine. J’en ai également retenu une règle : le robot ne peut être assimilé à un humain en termes de responsabilité car, sinon, la fin de l’homme se lira également dans les textes de lois.
Je remercie la Chambre des Notaires de Paris d’avoir ouvert ses portes à ce colloque et à Bénédicte Beviere-Noyer pour l’organisation de ce si précieux temps d’échanges et de réflexions.
Vous pouvez également lire sur le même sujet un autre billet tiré de ce blog : IA et droit : une affaire d’éthique
Laisser un commentaire