Les dossiers Beabilis font le point sur des sujets d’actualité digitaux.

L’association Acsel  (le Hub de la transformation digitale) organisait le 28 juin une conférence sur IA et droit. Beabilis était invitée par Isabelle Galy, membre fondateur Hub France Intelligence Artificielle et juriste aux trois tables rondes de la conférence.

IMG_20180628_112254

Cette dernière a dressé un panorama exhaustif du paysage complexe qui se dessine, celui de la judiciarisation de l’IA. Au-delà des faits et des rappels réglementaires, chaque intervention a permis de soulever des points plus juridiques qu’éthiques sur le sujet. Retour sur quelques moments…

IA et droit : beaucoup d’éthique, un soupçon de responsabilité

L’IA en Europe

Alexandra Bensamoun, Professeur à l’Université de Rennes, a détaillé les grands principes de régulation de l’IA. Pour elle, il existe une cacophonie autour du sujet. Il ressort de cette surabondance d’outils législatifs quelques grandes idées importantes.

En 2017, le Parlement Européen a pris une résolution qui oblige la Commission Européenne à réguler l’IA. Cette régulation ne peut fonctionner sans une réflexion profonde sur l’éthique de l’intelligence artificielle. De nombreuses interrogations portent sur la notion de personnalité électronique.

Ethique et droit de l’IA semblent intimement liés dans l’esprit de la Communauté Européenne. L’humain doit rester aux commandes. La gestion de l’IA ce n’est pas du Asimov. Ce n’est pas de la science fiction, c’est du quotidien.

BEABILIS INSIGHT, les lois de la robotique d’Asimov

Isaac Asimov a créé les trois lois de la robotique. Leur simplicité en fait aujourd’hui un véritable cadre de réflexion.

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger.
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi.

Le document cadre ou déclaration de coopération signée par 24 Etats Membres détaille les ambitions de la Commission Européenne sur l’IA. Il est à consulter ici : http://europa.eu/rapid/press-release_IP-18-3362_fr.htm

Les dernières publications portent sur les conséquences éthiques et sociales de l’IA avec des organisations philosophiques et non confessionnelles.

Plusieurs problèmes se posent que l’on pourrait résumer en une phrase : « beaucoup d’éthique, un soupçon de responsabilité ».

Premièrement, il semble très difficile de revenir sur ce qu’est l’éthique. Ce sont des règles de conduite qui touchent la vie privée, la dignité de la personne humaine, l’égalité hommes-femmes.

Un guide éthique en matière d’IA doit être publié en avril 2019. Le fait de lier régulation de l’IA et éthique n’est pas sans conséquence. On est dans le cadre du droit souple, du « soft law ». Le risque est que l’on assiste à un désengagement de l’Etat sur ces sujets. Le manquement aux règles éthiques ne serait pas sanctionné en cas de transgression. L’IA a besoin d’un droit complémentaire pas d’un droit mou. Le droit complémentaire doit englober l’immatériel, vaste sujet concernant l’IA.

Par ailleurs, le droit de l’IA doit s’appuyer sur des droits complémentaires amont. Il faut pouvoir s’appuyer sur le droit de la santé ou celui de la propriété intellectuelle. Des règles de droit intéressantes peuvent également émerger si l’on travaille au niveau sectoriel pour ensuite être étendu au général.

IA et responsabilités

Pour Olivier Guilhem de Softbank Robotics , les régimes de responsabilité doivent prendre en compte les spécificités de l’IA. L’IA est apprenante et autonome. Le droit doit tenir compte de ces deux caractéristiques. Il faut également sortir des deux pôles surreprésentés du droit sur l’IA définis dans la loi sur la République Numérique :

  1. Le régime de la donnée et la notion de portabilité
  2. Le concept de loyauté et de transparence

Entre ces deux pôles, tout est à construire.

Olivier met l’accent sur les chaînes de responsabilité. Ainsi, dans le cadre de la production de robot, qui est responsable en cas de problème ? A priori le fabricant (Article 1245 du code civil). Pourtant de multiples acteurs participent à leur conception. Si l’on réfléchit au véhicule autonome, ce dernier est devenu une plate-forme de gestion de données avec une multitude fournisseurs. Pourquoi ne pas considérer l’IA comme un produit actif qui nécessiterait la mise en place d’une boîte noire. Cette boîte noire logique permettrait de tracer les interactions utilisateurs, robots, concepteurs…

Des concepts périphériques : explicabilité, auteur, tech for good, blockchains

Le rôle central des algorithmes

Pierre Breese d’IP Trust travaille sur le droit des marques. Il s’interroge sur la direction à prendre. Il existe une asymétrie d’information entre le soft et le hard, quelle législation ? Quand il y a interruption d’un service, quelle législation ? Quelle législation pour les différents secteurs de l’IA ? Quant à l’éthique, il faut la voir comme un pacte social reposant sur la loyauté et l’explicabilité.

Une partie de la table ronde a été consacrée à l’IA distribuée voire collaborative. L’IA distribuée peut se définir comme une IA issue de la collaboration de plusieurs réseaux neuronaux.

L’IA distribuée pose selon les experts interrogés le problème des droits d’auteur. Pour Noza Boujemaa, directrice de la recherche INRIA, il faut également renforcer l’empowerment du consommateur. Elle cite deux cas problématiques :

Cas 1, comment vérifier l’applicabilité de la loi ? Il paraît, par exemple, très difficile d’échapper à la géolocalisation même en cas de non-consentement. Seuls les algorithmes peuvent vérifier que la loi est bien respectée.

Cas 2, le crédit scoring. L’algorithme apprend ce qu’est un client solvable ou non solvable. Il y a des choix forts qui sont faits au niveau des données d’apprentissage. On décide ce que l’IA doit apprendre ou non. C’est donc un choix stratégique ou politique plus que scientifique.

Certains Etats s’arrangent avec la législation de l’IA en la contournant. On peut citer le Cloud Act voté par le Sénat Américain. Le Cloud Act est encapsulé dans la loi commerce et permet à l’Etat Américain d’accéder à toute forme de données sans aucune décision de justice.

Il faut que les algorithmes soient partie intégrante de la construction de la législation sur l’IA. Les algorithmes peuvent à terme permettre l’émergence d’une technologie de la confiance au service des juristes.

Le député Sylvain Maillard (LREM Paris) insiste sur le rapport difficile au temps qu’entretient la loi et la technologie. La loi aura toujours un temps de retard. Il faut se sortir de la lourdeur législative pour ne pas freiner l’innovation. Une seule ligne de conduite doit être conservée : la technologie doit être au service du bien commun. Le concept « Tech for good » est défendu par la Présidence.

La problématique des droits d’auteur

Guillaume Champeau, directeur des relations publiques et éthiques chez Qwant revient sur le fondement éthique de Qwant qui se définit comme « le moteur de recherche qui respecte votre vie privée ». Pour Guillaume, le juge va prendre une place de plus en plus importante dans les relations utilisateurs- fournisseurs de technologie.

Guillaume est revenu sur la directive très contestée portant sur le droit d’auteur (article 13) qui prévoit une meilleure protection des ayants-droit. Photos, articles, vidéos sont largement repris dans diverses publications notamment sur les réseaux sociaux. Les memes ou les gifs sont très représentatifs de contenus surexploités qui ne rapportent absolument rien à leurs auteurs mais beaucoup aux plateformes qui les diffusent. La directive obligera toutes les plateformes en ligne (réseau social, service de vidéo en ligne…) à nouer des accords avec les ayants droit. Si les utilisateurs postent des contenus sans accord, les plateformes devront supprimer ces contenus. Ils devront se doter d’une technologie (peut-être l’IA) permettant de bloquer automatiquement les contenus sans accord. Pour Qwant, cette directive est dangereuse car le risque est que les plateformes bloquent l’ensemble d’un contenu et pas uniquement l’image ou la vidéo illustrative. Sur Twitter, il n’est pas rare de tweeter sur un sujet en l’illustrant d’une image. Il faudra élaborer des IA qui détectent automatiquement que l’image n’est pas sous accord et que ces dernières la suppriment mais ne suppriment pas le Tweet lié. L’internet libre craint qu’à terme, cette loi tue les petits acteurs et privilégie les GAFA. A l’heure où nous écrivons ce billet, la directive fortement contestée a été rejetée par le Parlement Européen.

Au-delà des aspects juridiques de l’IA, Qwant s’interroge sur les possibles manipulations des individus difficiles à combattre par des lois. Il revient sur l’anthropomorphisme présente dans l’IA. Les assistants personnels demandent aux enfants de dire « s’il te plaît » avant toute commande en ligne. Dans ce cas, l’IA a un rôle éducatif. Ce dernier doit être contrôlé car des dérives sont possibles.

IA et Blockchains

Florence G’Sell, professeur à l’Université de Lorraine et chercheur associée à l’Institut des Hautes Études sur la Justice, est spécialisée dans les Blockchains. Pour elle, des machines vont prendre des décisions autonomes et conclure des contrats à notre place. Elle souligne l’importance future du développement des «smart-contracts » qui sont des contrats auto-exécutables. Certaines transactions financières sont déjà soumises à ce type de contrat. Des machines gèrent des fonds, elles ont donc une personnalité juridique propre. Il faudra surtout faire attention aux algorithmes amont qui vont servir à la constitution de ces contrats. Certaines faiblesses algorithmiques aboutissent à de la discrimination involontaire.

Beabilis Insight, exemple d’un smart contract

La SACEM, société de gestion collective, a signé un partenariat avec IBM pour utiliser un mécanisme de smart contract permettant à l’auteur d’enregistrer son œuvre sur une blockchain et d’activer une licence dès qu’un éditeur ou producteur veut la diffuser.

Sur ce point, Sylvain Maillard souligne que tous les algorithmes d’Etat doivent être transparents afin d’alerter sur de possibles dérives.

La fin du général

Pour conclure, les différents intervenants ont réagi à la fin du droit romain. Notre droit en est l’héritier. Le droit romain s’illustre par sa simplicité. Il a édicté quelques règles qui peuvent être transposées à de multiples cas spécifiques. L’IA pourrait mettre fin aux règles générales et perdre le droit dans une inflation législative sur des cas spécifiques. L’IA multiplie la puissance législative mais pour quel résultat ? L’exemple du code de la route est frappant. On pourrait, par exemple, prédire la meilleure vitesse compte tenu des conditions de circulation, de la météo, de l’état de la route…Appliquer des limitations uniformes disparaîtrait au profit d’une personnalisation très fine de la législation. Il faut, juste que le citoyen soit également en capacité de s’adapter en permanence à une loi changeante…

Comment faire accepter l’IA par l’éthique

Les démarches d’IBM et Société Générale

Si la législation de l’IA repose sur le respect de l’éthique, il ne faut pas assimiler éthique et morale. L’éthique est un équilibre instable entre la morale et un ensemble de contraintes. C’est un construit social et démocratique. L’éthique n’est pas figée.

Deux initiatives (IBM et Société Générale) permettent de comprendre en quoi une IA éthique pourra être mieux acceptée. Chez IBM, l’éthique se traduit par l’anglais « societal concerns ». IBM travaille sur l’auditabilité des algorithmes. En quoi ces derniers prennent-ils en compte, par exemple, l’égalité hommes-femmes quand on les nourrit avec des phrases stéréotypées comme : « she’s a nurse, he’s a doctor ». L’IA n’est qu’un miroir de l’homme. Watson d’IBM doit obéir au principe de transparence (explicabilité, transparence des données, sélection des données qui vont entraîner l’IA, avec quels spécialistes, sur la base de quelles sources…). Le deuxième principe important de Watson est la compétence avec un engagement réel sur la création de valeur plutôt que sur la simple extraction de valeur. IBM pense que « seule l’IA qui n’est pas biaisée survivra ».

La Société Générale a, quant à elle, créé une communauté ouverte autour de l’IA. Collaborateurs mais aussi philosophes ou historiens ont travaillé ensemble pour mieux comprendre les différents niveaux de connaissance permettant l’IA. Le Directeur de la Prospective de la SG a retracé ces différents niveaux :

1/ La donnée (représentation conventionnelle d’un objet)

2/ L’information (donnée signifiante, capacité à modéliser et à prévoir)

3/ La connaissance de premier niveau (corrélation d’information, extrapolation, capacité à prédire -machine learning-)

4/ L’intelligence (capacité d’abstraction, capacité à se poser les bonnes questions par rapport à son système de valeur – Intelligence faible algorithmique ET exploratoire –deep learning)

5/ Conscience (faculté de penser et de subjectiver c’est-à-dire de se penser comme un « Je », une entité ayant la possibilité de ressentir des émotions et sentiments)

Ce travail a permis aux collaborateurs de la S.G. de surmonter un certain nombre de peurs liées à l’IA à savoir le transhumanisme, l’influence de l’IA sur le travail, la concurrence avec les robots…

L’éthique, une éclaireuse du droit

La CNIL a résumé les liens complexes unissant éthique et IA dans un document intitulé « comment permettre à l’homme de garder la main ». A consulter sur : https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf

Pour la CNIL, l’éthique apparaît comme une éclaireuse du droit, la norme éthique une préfiguration de la norme juridique. Plusieurs pistes de réflexion nous semblent particulièrement pertinentes dans ce document à savoir :

  1. Est-il possible de concevoir des machines éthiques ? Peut-on automatiser l’éthique ?
  2. La première règle éthique ne serait-elle pas de ne pas porter atteinte à l’identité humaine ? Dans ce cas, comment envisager l’hybridation homme – machine ? Quelle identité pourrait naître de cette hybridation ?

La CNIL rappelle qu’il existe déjà une législation pouvant s’appliquer à l’éthique. Premièrement, la loi encadre l’utilisation des données personnelles nécessaires au fonctionnement des algorithmes. Deuxièmement, la loi Informatique et Libertés interdit qu’une machine puisse prendre seule (sans intervention humaine) des décisions emportant des conséquences cruciales pour les personnes (décision judiciaire, décision d’octroi de crédit, par exemple). Troisièmement, la loi prévoit le droit pour les personnes d’obtenir, auprès de celui qui en responsable, des informations sur la logique de fonctionnement de l’algorithme.

Recommandation 1 : former à l’éthique tous les maillons de la chaîne algorithmique

Recommandation 2 : rendre les systèmes algorithmiques compréhensibles

Recommandation 3 : Travailler le design des systèmes algorithmiques au service de la liberté humaine

Recommandation 4 : Constituer une plateforme nationale d’audit des algorithmes

Recommandation 5 : Encourager la recherche de solutions techniques pour faire de la France le leader de l’IA éthique (à ce titre consulter le projet Transalgo de l’Inria via https://inria.fr/actualite/actualites-inria/transalgo)

Et maintenant, place aux choix impossibles. Jouez à cet horrible jeu et réfléchissez sur votre éthique personnelle : http://moralmachine.mit.edu/

mitcar

Webographie

Pour aller plus loin sur ces tables rondes : http://www.acsel.asso.fr/intelligence-artificielle-droit-confiance/

La loi sur la République Numérique est à consulter ici : https://www.legifrance.gouv.fr/affichLoiPubliee.do?idDocument=JORFDOLE000031589829&type=general&legislature=14

Pour aller plus loin dans le lien IA et boîtes noires, lire : https://www.lesechos.fr/15/05/2017/lesechos.fr/0212088042490_le-talon-d-achille-de-l-intelligence-artificielle.htm

Pour mieux comprendre le concept juridique d’explicabilité des décisions algorithmiques, lire : https://perso.math.univ-toulouse.fr/mllaw/home/statisticien/explicabilite-des-decisions-algorithmiques/

Pour aller plus loin sur le concept de « Tech for Good », lire : https://www.latribune.fr/technos-medias/innovation-et-start-up/tech-for-good-ethique-et-business-sont-ils-compatibles-784929.html

Pour aller plus loin sur Qwant, lire http://www.lepoint.fr/high-tech-internet/vive-la-france-qwant-le-petit-moteur-de-recherche-qui-voit-grand-03-08-2018-2241137_47.php

Pour aller plus loin sur la directive droit d’auteur, lire : https://www.lemonde.fr/pixels/article/2018/07/05/qu-est-ce-que-la-directive-sur-le-droit-d-auteur-et-pourquoi-fait-elle-si-peur_5326080_4408996.html