Le RGPD face aux défis de l'intelligence artificielle - Yves Poullet - E-Book

Le RGPD face aux défis de l'intelligence artificielle E-Book

Yves Poullet

0,0

Beschreibung

L’intelligence artificielle est sans doute l’innovation la plus radicale de transformation de nos sociétés : elle envahit nos vies et modèle nos décisions tant d’entreprises, de citoyens, que d’autorités publiques. Cette innovation est largement positive mais représente également un risque pour chacun de nous d’être épié, manipulé et réduit à nos données. Face à l’enjeu que représente l’IA pour notre futur, l’UE a récemment (19 février 2020) affirmé la nécessité d’une troisième voie, entre celles chinoise et américaine, en souhaitant que les outils d’IA soient dignes de confiance. Dans cette optique, la réaffirmation des libertés individuelles et en particulier la mise en valeur du RGPD au service de ces valeurs est au coeur de la politique européenne. Notre propos s’inscrit dans ce contexte. Le RGPD est-il l’outil adéquat pour répondre aux défis de l’IA ? La Commission européenne s’interroge. Notre propos est d’analyser les défis que l’IA pose au règlement européen et de montrer les diverses lacunes mais également les mérites de cet outil. La dimension collective des risques engendrés par l’IA, l’absence de transparence des systèmes de machine learning, les difficultés de leur évaluation, … autant de questions soulevées si notre société et chacun de nous souhaitons retrouver la maîtrise de ce qui en définitive constitue un artifice de notre intelligence humaine.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 255

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Pour toute information sur nos fonds et nos nouveautés dans votre domaine de spécialisation, consultez nos site web www.larcier.com.

© Lefebvre Sarrut Belgium SA, 2020

Éditions Larcier

Rue Haute, 139/6 – 1000 Bruxelles

Tous droits réservés pour tous pays.

Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent ouvrage, de le stocker dans une banque de données ou de le communiquer au public, sous quelque forme et de quelque manière que ce soit.

ISBN : 9782807924536

La Collection du CRIDS (anciennement « Cahiers du CRID ») a pour objectif de diffuser des études et travaux scientifiques dans le domaine du droit des technologies de l’information (contrats de l’informatique, commerce électronique, propriété intellectuelle, protection des données à caractère personnel et des libertés fondamentales, réglementation des communications électroniques…).

Chaque ouvrage traite un thème de recherche dont les aspects théoriques et pratiques sont développés par un ou plusieurs spécialistes de la matière. Le CRIDS espère ainsi mettre à la disposition tant des chercheurs que des praticiens en quête de réflexions et d’informations un ouvrage de synthèse, clair et complet, dans le domaine du droit et du numérique.

Comité scientifique :

Herbert Burkert (Professeur, Université de Saint-Gallen, Suisse) – Santiago Cavanillas (Professeur, Université des Baléares) – Jos Dumortier (Professeur, K.U. Leuven) – Yves Poullet (Professeur, UNamur) – André Prüm (Professeur, Université de Luxembourg) – Pierre Trudel (Professeur, Université de Montréal) – Michel Vivant (Professeur, Institut d’Etudes Politiques de Paris).

Comité de rédaction :

Alexandre de Streel (Professeur à l’UNamur, directeur du CRIDS) – Cécile de Terwangne (Professeure à l’UNamur, CRIDS) – Florence George (Chargée de cours à l’UNamur, CRIDS, avocate) – Benoît Michaux (Chargé de cours à l’UNamur, CRIDS, avocat) – Robert Queck (Maître de conférences à l’UNamur, CRIDS).

Directeur de la collection :

Hervé Jacquemin

Chargé de cours à l’UNamur (CRIDS)

Avocat au barreau de Bruxelles

Directeur adjoint :

Jean-Marc Van Gyseghem

Directeur de recherches au CRIDS

Avocat au barreau de Bruxelles

Secrétariat :

Stéphanie Henry

Faculté de Droit – UNamur

Rempart de la Vierge, 5 – 5000 Namur

Tél. : (32) 81 72 47 93 - Fax : (32) 81 72 52 02

Sommaire

Le RGPD face aux défis de l’intelligence artificielle

Yves Poullet

TITRE 1. – Le phénomène de l’IA, son intérêt et ses acteurs

TITRE 2. – Application des dispositions du RGPD aux traitements fondés sur du machine learning : mérites et lacunes du cadre légal

Quelques réflexions à propos de la « Proposition de résolution du Parlement européen contenant des recommandations à la Commission concernant un cadre d’aspects éthiques en matière d’intelligence artificielle, de robotique et de technologies connexes (2020/2012(INL)) »

Éléments bibliographiques

Table des matières

Le RGPD face aux défis de l’intelligence artificielle

Yves Poullet1

« Artificial Intelligence is developing fast. It will change our lives by improving healthcare (e.g. making diagnosis more precise, enabling better prevention of diseases), increasing the efficiency of farming, contributing to climate change mitigation and adaptation, improving the efficiency of production systems through predictive maintenance, increasing the security of Europeans, and in many other ways that we can only begin to imagine. At the same time, Artificial Intelligence (AI) entails a number of potential risks, such as opaque decision-making, gender-based or other kinds of discrimination, intrusion in our private lives or being used for criminal purposes »2.

1. Introduction – De l’objet même du propos. L’intelligence artificielle (en abrégé : l’IA) est un « buzzword », objet de nombreux fantasmes évoquant une société tant de transhumanisme que de totale transparence des personnes et de « gouvernementalité purement algorithmique » de nos sociétés et de nos vies individuelles, selon l’expression d’A. Rouvroy3. Villani4 la décrit comme « une des clés du pouvoir de demain dans un monde numérique ». Sans doute, ces prophéties sont-elles exagérées. Il n’empêche, des scandales récents comme celui du Cambridge Analytica5, du profilage ou celui du calcul des performances scolaires passées et futures des enfants des écoles communales de Bristol à des fins de sélection scolaire mais également commerciales nous obligent à nous interroger. On sait que l’IA aide les dirigeants d’entreprise voire se substitue à eux dans la sélection des candidats employés6 ; permet à des agences immobilières de sélectionner les personnes intéressées par un logement en fonction des préférences exprimées par les propriétaires. Le contrôle des migrants aux frontières européennes recourra sous peu à des systèmes d’intelligence artificielle alliant l’analyse graphologique, la reconnaissance faciale, l’utilisation de mégadonnées pouvant calculer le risque de terrorisme présenté par un candidat à l’immigration7. Bref, les capacités offertes dès maintenant par l’IA justifient l’interrogation de nos sociétés sur les limites à imposer aux concepteurs et exploitants publics et privés de systèmes d’intelligence artificielle au nom des valeurs éthiques essentielles et universelles que sont la dignité, l’autonomie et la justice sociale8.

Au regard de ces préoccupations, les dispositions du RGPD sont-elles adéquates ? Notre propos est de montrer que l’application du RGPD conduit certes à un encadrement des systèmes d’IA, bénéfique à nos libertés. Nous sommes cependant convaincus que la réglementation actuelle souffre de lacunes, ce que l’analyse de quelques dispositions montrera ; nous sommes persuadés que, plus essentiellement et globalement, le RGPD n’offre pas toujours le bon angle d’attaque aux problèmes que soulève l’intelligence artificielle.

La réflexion proposée s’inscrit dans les préoccupations récentes de l’Union européenne9. En particulier, la stratégie européenne en matière d’intelligence artificielle s’est exprimée le 19 février de cette année par différents documents de la Commission européenne et un agenda de réalisation10. L’Union européenne entend suivre en la matière ce qu’elle appelle la « troisième voie », placée entre celle néo-libérale américaine et celle chinoise, marquée par la puissance d’un État fort et totalitaire. Il s’agit pour l’Europe de développer une économie de l’IA fondée sur l’excellence et la confiance nécessaire aux citoyens et à la société (Trust and Excellence). Dès avril 2018, la Commission publiait sa stratégie en la matière11 et, en particulier, confiait à un groupe indépendant de haut niveau sur l’intelligence artificielle (HLGE on artificial intelligence), le soin de définir des Lignes directrices éthiques pour le développement d’une IA éthique et digne de confiance (Ethics Guidelines on a Trustworthy AI)12. Lors de leur récente communication du 19 février 2020 sur la stratégie qu’elle comptait suivre en matière de données et d’IA, la Commission a approuvé les Lignes directrices proposées par les experts et publié un Livre blanc sur l’intelligence artificielle intitulé : Une approche européenne axée sur l’excellence et la confiance13. Ce texte insiste sur l’importance de générer auprès de l’ensemble des citoyens la confiance dans le fonctionnement d’une société et d’une économie de plus en plus basée sur l’utilisation des technologies de l’IA14. Dans ce contexte, la Commission souligne l’importance de la législation de protection des données, tout en soulignant les incertitudes de son adéquation au phénomène de l’IA. « Les développeurs et les déployeurs d’IA sont déjà soumis à la législation européenne sur les droits fondamentaux (c’est-à-dire la protection des données, le respect de la vie privée, la non-discrimination), sur la protection des consommateurs, et sur la sécurité des produits et la responsabilité du fait des produits. Les consommateurs entendent jouir du même niveau de sécurité et bénéficier des mêmes droits, qu’un produit ou un système soit fondé sur l’IA ou non. Or certaines spécificités de l’IA (telle que l’opacité) peuvent compliquer l’application et le contrôle de l’application de cette législation. Il faut, dès lors, examiner si la législation actuelle est en mesure de faire face aux risques liés à l’IA et si son respect peut être assuré efficacement, si elle doit être adaptée, ou si une nouvelle législation s’impose ». Dans le même esprit et de manière plus appuyée encore en ce qui concerne du moins les préoccupations éthiques et les enjeux collectifs15, on se référera aux travaux du Conseil de l’Europe16 et, en particulier, du Comité consultatif de la Convention n° 10817 sur l’interprétation à donner à la Convention n° 108 sur la protection des données face aux phénomènes de l’intelligence artificielle.

C’est à cette question de l’adéquation de la réponse donnée par le RGPD ou la Convention n° 108+ aux enjeux de l’IA, que nous tentons d’apporter un peu de lumières. Auparavant, il importe en quelques mots de décrire le phénomène de l’IA vu de différents angles : ses applications, son intérêt et les risques collectifs et individuels liés à son déploiement.

1 L’auteur tient à remercier Michaël Lognoul, assistant à la faculté de droit de Namur et chercheur au CRIDS/NADI pour ses commentaires et sa lecture critique d’une première version de l’article, dont nous avons tiré plein profit.

2 Commission européenne, White Paper on Artificial Intelligence: a European approach to excellence and trust, Bruxelles, 19 février 2020, COM(2020) 65 final.

3 A. Rouvroy, « L’homo juridicus est-il soluble dans les données ? », in Droits, normes et libertés dans le cybermonde. Liber Amicorum Yves Poullet (E. Degraveet al. eds), Collection du Crids, n° 43, Bruxelles, Larcier, 2018, pp. 417-443.

4 C. Villani, Rapport au premier ministre de la République française, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, mars 2018, p. 11.

5 Le scandale Facebook-Cambridge Analytica créé par la fuite de données des communications échangées sur le réseau social de Facebook et transmises à Cambridge Analytica depuis 2014 concerne les données à caractère personnel de 87 millions d’utilisateurs Facebook. Ces données ont permis à la société anglaise de profiler ces clients de Facebook, notamment sur leurs préférences politiques. Certains hommes politiques ont utilisé ces profils pour influencer les intentions de votes de leurs citoyens. Sur ce scandale, parmi de nombreux articles de journaux, lire « Cambridge Analytica : 87 millions de comptes Facebook concernés », Le Monde, 4 avril 2018.

6R. Ducato, M. Kullmann et M. Rocca, « Customer ratings as a vector for discrimination in employment relations ? Pathways and pitfalls for legal remedies », in Marco Biagi Conference « Assessing Worker performance in a Changing Technological and Societal Environment », Modena, 19-21 March 2018.

7 Ainsi, par exemple, le système « I-Border Ctrl » actuellement développé par l’Europe pour le contrôle des frontières, dont les modules sont décrits comme suit par le rapport d’Algorithmwatch et de la fondation Bertelsman (Automating Society Taking Stock of Automated Decision-Making in the EU. A report by AlgorithmWatch in cooperation with Bertelsmann Stiftung, supported by the Open Society Foundations, janvier 2019) : « An Automatic Deception Detection System (ADDS)that performs, controls and assesses the pre-registration interview that is personalised to suit the gender and language of the traveller. ADDS quantifies the probability of deceit in interviews by analysing interviewees’ non-verbal micro expressions ; a Biometrics Module for the biometric identity validation, comparing data stored in databases (legacy systems in the case of fingerprints and creation of a baseline database for palm vein images) ; a Face Matching Tool (FMT), including video and photo to create a biometric signature in order to provide a matching score ; a Document Authenticity Analytics Tool (DAAT) for the verification procedure of travel documents, which are examined by DAAT against fraud characteristics in an automated way. À matching score concerning the authenticity of documents is then derived ; an External Legacy and Social interfaces system (ELSI), crosschecking the traveller’s information from social media or legacy systems, such as SIS II ; a Risk Based Assessment Tool (RBAT), utilising risk based approaches to intelligently aggregate and correlate all the data collected and the estimated risk. It then classifies travellers to support the decision of the border guard. This includes a systematic process to stimulate compliance by compressing all the data into meaningful actionable risk scores ; an Integrated Border Control Analytics Tool (BCAT) for advanced post-hoc analytics ; a Hidden Human Detection Tool (HHD) to detect people inside various vehicles. iBorderCtrl states that “regarding the expected accuracy it would be wrong to expect 100 % accuracy from any AI-based deception detection technology, no matter how mature”. iBorderCtrl therefore relies “on many components that address various aspects of the border control procedures, and each provides its own risk estimation for the traveller”. The system then “synthesises a single risk score from a weighted combination of components”. Emphasising the “human-in-the-loop principle”, the makers conclude that “it is highly unlikely that an overall system of which ADDS is a part will lead to ‘an implementation of a pseudoscientific border control” ».

8 À ce propos, notre ouvrage, Éthique et droits de l’homme à l’heure du numérique, Académie royale de Belgique, coll. Mémorial, Bruxelles, 2020.

9 L’Union européenne a produit, ces deux dernières années, de nombreux documents en matière d’IA. On relève : Résolution du 12 février 2019 du Parlement européen sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique, P8_TA-PROV(2019)0081, http://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.pdf ; Communication de la Commission européenne, « Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain », COM(2019) 168 final, 8 avril 2019, disponible à l’adresse : https://ec.europa.eu/transparency/regdoc/rep/1/2019/FR/COM-2019-168-F1-FR-MAIN-PART-1.PDF ; Groupe d’experts de haut niveau sur l’intelligence artificielle, Lignes directrices en matière d’éthique pour une IA digne de confiance, mai 2019, https://ec.europa.eu/digital-single-market/en/news/ethicsguidelinestrustworthy-ai.

10 Voilà comment la Communication de la Commission sur l’European strategy for data (COM(2020)66 final p. 3) s’exprime à ce propos : « The EU has the potential to be successful in the data-agile economy. It has the technology, the know-how and a highly skilled workforce. However, competitors such as China and the US are already innovating quickly and projecting their concepts of data access and use across the globe. In the US, the organisation of the data space is left to the private sector, with considerable concentration effects. China has a combination of government surveillance with a strong control of Big Tech companies over massive amounts of data without sufficient safeguards for individuals. In order to release Europe’s potential we have to find our European way, balancing the flow and wide use of data, while preserving high privacy, security, safety and ethical standards » (document disponible à l’adresse : https://ec.europa.eu/info/sites/info/files/communication-european-strategy-data-19feb2020_en.pdf).

11 COM(2018) 237.

12 Texte du 8 avril 2019 disponible à l’adresse : https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.

13 Bruxelles, le 19 février 2020, COM(2020) 65 final disponible à l’adresse : https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf.

14 « À l’instar de toute technologie nouvelle, l’utilisation de l’IA crée à la fois des possibilités et des risques. Les citoyens craignent d’être impuissants à défendre leurs droits et leur sécurité lorsqu’ils sont confrontés à l’asymétrie de l’information en matière de prise de décision algorithmique, et les entreprises sont préoccupées par l’insécurité juridique. Si l’IA peut contribuer à renforcer la sécurité des citoyens et à leur permettre de jouir de leurs droits fondamentaux, elle suscite également chez eux une certaine méfiance quant à ses effets indésirables potentiels, voire à son utilisation à des fins malveillantes. Ces préoccupations doivent être prises en compte. Outre le manque d’investissement et de compétences, le déficit de confiance constitue aussi un frein considérable à un recours plus généralisé à l’IA »(Livre blanc. Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance, p. 10).

15 Dans ce sens, on citera les travaux qui ont mené le Royaume-Uni à se doter d’une Data Ethics Authority qui puisse déborder les seules questions de protection des données : « The government also recognises that protecting personal data in this way will not always be enough, on its own, to prevent social harm. Information gathered through legal means could still be used for unethical practices, for example where there is risk of algorithmic profiling or discrimination. This is just one of the reasons why the government has created the Centre for Data Ethics and Innovation, which will have a role in ensuring that innovation in the use of personal and non-personal data remains safe and ethical »(HM Treasury, The economic value of data. Discussion paper, 30 juillet 2018 accessible à l’adresse suivante : https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/731349/20180730_HMT_Discussion_Paper_-_The_Economic_Value_of_Data.pdf.On ajoutera les travaux de la Datenethikkommission mise sur pied en 2018 et auteur d’un rapport remarquable on Data ethics covering both data and algorithmic systems, document disponible à l’adresse :https://datenethikkommission.de/wp-content/uploads/191023_DEK_Kurzfassung_en_bf.pdf.

16 Conseil de l’Europe (CoE), Algorithms and Human Rights. Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, 2017, disponible à l’adresse suivante : https://rm.coe.int/study-hr-dimension-of-automated-dataprocessing-incl-algorithms/168075b94a.

17 Conseil de l’Europe, Lignes directrices sur les mégadonnées, disponibles à l’adresse : https://rm.coe.int/CoERMPublicCommnSearchServices/DisplayDCTMContent?documentId=09000016806ebe7a ; Conseil de l’Europe, Rapport sur l’intelligence artificielle, rapport établi par A. Mantelero, T-PD(2018)09Rev., Strasbourg, le 25 janvier 2019, https://rm.coe.int/intelligence-artificielle-et-protection-des-donnees-enjeux-et-solution/168091f8a5 ; Conseil de l’Europe, Lignes directrices sur l’intelligence artificielle et la protection des données, T-PD(2019)01, https://rm.coe.int/lignes-directrices-sur-l-intelligence-artificielle-et-la-protection-de/168091ff40. On ajoute que le Comité consultatif de la Convention n° 108 prépare également une recommandation sur le profilage. C’est dans le cadre de cette recommandation que s’inscrit notre rapport (B. Frenay et Y. Poullet, Rapport et propositions de recommandations sur le « Profilage et la Convention 108+ du Conseil de l’Europe », Rapport présenté au Comité consultatif de la Convention n° 108, Strasbourg, 21 septembre 2019, rapport disponible sur le site du Conseil de l’Europe).

Titre 1Le phénomène de l’IA, son intérêt et ses acteurs

2. Une mise en garde. « L’IA n’existe pas, affirme avec raison l’INRIA1, mais la puissance combinée des données disponibles, d’algorithmes et de ressources de calcul ouvre de formidables perspectives dans de nombreux domaines ». Cette affirmation est forte venant d’un organisme reconnu pour avoir développé tant d’applications et d’algorithmes – l’INRIA préfère en effet parler de machine learning ou d’« apprentissage machine »2 – ellea de quoi surprendre. Le choix de l’appellation met l’accent sur le fait qu’il faut s’interdire de voir dans la technologie du machine learning une quelconque intelligence au sens humain et français3 du terme, c’est-à-dire une capacité de compréhension semblable à celle humaine. Les algorithmes exécutent, ils ne pensent pas. Par ailleurs, ce choix terminologique écarte des théories comme celle de la « singularité technologique », chère à Vinge4. Ce dernier auteur considère que l’évolution exponentielle de la technologie informatique sera telle qu’elle dépassera l’entendement humain et, à une date qu’il situe aux alentours de 2035 au plus tard, l’homme aura créé une intelligence supérieure à la sienne. Ce rappel de l’INRIA, que nous reprenons à l’entrée d’un ouvrage sur l’intelligence artificielle, souligne que l’intelligence que nous imputons volontiers à nos machines reste une création humaine et trouve sa puissance dans le cerveau humain dont elle est le produit5. C’est avec cette philosophie, que nonobstant les ambiguïtés de l’appellation, nous continuerons dans la suite du propos à parler d’intelligence artificielle, pour la commodité et l’universalité de l’expression.

3. Les principes de fonctionnement de l’IA. Les systèmes dits d’IA fonctionnent de manière autonome, c’est-à-dire sans nécessiter d’intervention humaine. Cette affirmation n’est que partiellement vraie lorsqu’on sait que la conception des algorithmes, le choix et la structuration des données, l’évaluation du fonctionnement des outils reposent sur des activités proprement humaines. Ce que l’on veut dire c’est que le processus, mis en place au terme d’activités humaines, dispose d’une faculté d’auto-apprentissage (machine learning voire machine deep learning6) : les algorithmes mis en place permettent, sur la base des données reçues, non seulement d’établir de nouvelles corrélations mais également de prendre des décisions ou d’effectuer des prédictions. De ce fait, le système s’éloigne des instructions de départ données par le concepteur du système.

Cette autonomie caractérise l’IA : elle distingue fondamentalement les systèmes experts classiques du fonctionnement des systèmes de machine learning. Dans les systèmes traditionnels, les règles sont définies a priori et sont appliquées aux données7. Ainsi, pour savoir si tel client est digne de crédit, la banque, après avoir consulté tel et tel expert de la délivrance de crédit, décidera d’accorder tel poids à tel critère, tel poids à tel autre, et ainsi de suite. La règle est donc transparente au décideur, elle suit une logique causale du type : « Si…, alors… » et sera appliquée telle quelle face à une demande d’un client. Dans les systèmes d’IA, nous dit Lambert, « l’apprentissage se réalise en soumettant les entrées du réseau de neurones à une base de données d’exemples sur laquelle il va s’entraîner (à reconnaître par exemple telle forme géométrique ou adopter une bonne stratégie dans un jeu). Selon les réponses que le réseau va fournir à des exemples qui sont présentés à ses entrées, on va essayer de minimiser l’erreur de ses réponses en modifiant certains paramètres du réseau (les poids des connexions entre les neurones). Il s’agit ici d’un apprentissage supervisé, puisqu’un sujet humain dirige l’apprentissage en indiquant quelles sont les “bonnes” réponses. Mais, aujourd’hui, on pense de plus en plus à des réseaux capables d’apprentissages par renforcement ou encore d’apprentissages non supervisés, c’est-à-dire aptes à extraire, par eux-mêmes, des formes, patterns, ou régularités non prescrites d’avance. Il s’agit ici de l’émergence progressive, au cours de fonctionnement du réseau, de catégories ou classes nouvelles, auxquelles l’humain n’aurait pas pensé, ou pu découvrir, en raison des limites de ses capacités d’analyse ou de perception »8.

Les applications de l’IA reposent donc sur l’établissement et la découverte de corrélations quasiment à l’infini au sein d’une multitude de données, des mégadonnées (big data), pour y trouver des « lois » non point fondées sur la relation causale mais purement statistique ressortant des données collectées. Certes, on distinguera en la matière les « systèmes d’apprentissage supervisés » et ceux qui ne le sont point. Dans le premier cas, le modèle, c’est-à-dire l’algorithme, tourne dans un premier temps sur un set de données qui permet à celui qui souhaite exploiter le traitement d’IA de vérifier si les résultats du test correspondent à ce qui est attendu. Dans le second cas, on ne dispose pas de données de test et, dès lors, ce sont les algorithmes eux-mêmes qui découvrent les corrélations entre données9. Dans les deux cas, la machine est auto-apprenante. Sa capacité d’association et de calcul probabiliste échappe peu ou prou au contrôle total de l’humain qui en a conçu les prémisses et devient partiellement du moins une black box au fonctionnement non totalement compréhensible10.

En outre, des biais peuvent exister. Selon l’explication de Castets-Renard11, « dans le cadre des algorithmes informatiques, un biais renvoie à un défaut dans le raisonnement ou le résultat d’un algorithme. En ce sens, on peut y voir un parallèle avec le biais cognitif bien connu de l’Homme. Il s’agit d’un dysfonctionnement du schéma de pensée, du raisonnement, qui influence nos choix ou notre vision de la réalité ». Ainsi, ImageNet, célèbre big data, qui sert à de nombreux outils IA en matière de reconnaissance faciale, contient 1 200 000 images appartenant à 1 000 classes différentes. Toutefois, les conditions dans lesquelles les images sont collectées et associées à des catégories peuvent avoir un impact non négligeable sur les modèles qui seront développés et utilisés par les autres acteurs. La répartition de l’origine géographique des images atteste d’un clair biais de représentativité qui explique que certaines images soient mal reconnues par les réseaux de neurones entraînés sur ImageNet. Le même problème a été observé avec plusieurs systèmes commerciaux de reconnaissance faciale entraînés sur des collections comportant principalement des individus mâles de type caucasien12. Ces biais sont conscients ou inconscients. Ainsi, on a pu reprocher à nombre de systèmes d’IA utilisés en matière d’emploi une discrimination de genre introduite sans le vouloir par le personnel informaticien mâle des firmes concepteurs de ces algorithmes13. À ces biais s’ajoutent des erreurs possibles de programmation.

On conçoit dès lors l’exigence du droit de réduire cette part de non « explicabilité » et d’exiger le contrôle par l’humain de l’outil. Nous reviendrons amplement sur ce point (infra, nos 33 et s.).

4. Les applications de l’IA. Forte de la puissance de calcul et des informations sur lesquelles cette puissance travaille, l’IA a permis de développer des applications comme celles de la compréhension de la parole, la traduction instantanée, la reconnaissance faciale. Elle a permis la génération de robots : robots chirurgiens, aides-soignants, voiture connectée, … La constitution de ces mégadonnées et leur traitement par les systèmes d’IA résultent tant de l’augmentation de la puissance de calcul, ce qui permet de disposer de systèmes de plus en plus performants. À la capacité quasi infinie de nos ordinateurs tant dans la collecte que dans le traitement des données, s’ajoute l’existence de terminaux, à la fois, de plus en plus petits et de plus en plus nombreux. Leur présence, dans notre environnement (ubiquitous ou ambient computing) et, pour certains, dans nos corps (body implants ou « under the skin ») génère, collecte et traite des données, soit en local (edge computing14), tantôt de manière centralisée. Ces capteurs placés dans nos voitures connectées, nos poches, nos salons, nos murs, nos rues, notre cerveau, ces connexions multiples aux plateformes de communication (réseaux sociaux) ou d’informations (moteur de recherche) permettent de connaître nos goûts, de prédire nos préférences de destinations touristiques, notre état de santé, nos capacités financières, les risques que nous, individuellement, présentons pour une compagnie d’assurances. Les instruments sophistiqués de reconnaissance faciale construits à partir des systèmes d’IA autorisent la détection des sentiments, la reconnaissance automatique des personnes ayant commis tel ou tel fait ou autorisés à tel ou tel accès.

« Nous sommes maintenant capables, écrit B. Schroder15,de résoudre de toutes nouvelles classes de problèmes, telles que la reconnaissance d’image ou la transcription de la voix. Nous pouvons prédire des événements non modélisables. Par exemple, Cornell University détecte la survenance de l’état dépressif de patients bipolaires en analysant les changements dans la frappe de messages sur l’écran d’un smartphone (BOKAI Z. & alii. KDD ‘17 Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining Pages 747-755, ACM). Un algorithme de Microsoft prévoit un diagnostic futur de cancer du pancréas ou de poumon par l’analyse de l’historique des mots-clés entrés dans un moteur de recherche (PAPARRIZOS J. & alii, “Screening for Pancreatic Adenocarcinoma Using Signals From Web Search Logs: Feasibility Study and Results” Journal of Oncology Practice 12, no. 8 (August 01, 2016) 737-744.) ».

Ainsi, l’IA permet non seulement de mieux appréhender ce que nous avons fait, de nous reconnaître mais également de se tourner vers l’avenir et de prédire nos comportements futurs. Elle nous rend, jusqu’à un certain point du moins, transparents et prédictibles au moment même où la complexité du fonctionnement des algorithmes qui constituent le système, la richesse des données sur lesquelles ils travaillent (quelles corrélations ? entre quelles données ? avec quels poids ?) rendent le système non transparent certes pour la personne concernée mais également pour l’exploitant de cet instrument lorsqu’il s’agit de systèmes dits de deep learning ou d’apprentissage profond16. Certes, cette non-transparence reste relative et ne couvre pas tous les systèmes d’IA. Comme l’écrivent Begny et Bnouhsein17, « une régression avec des centaines de paramètres covariables pourra être très difficile à interpréter. La profondeur des arbres de décision, des règles lourdes et une haute dimensionnalité du modèle peuvent les rendre bien moins compréhensibles qu’un modèle de réseau de neurones compact, implémentant une porte logique par exemple. Un modèle d’apprentissage machine n’est donc pas systématiquement moins intelligible qu’un modèle d’une autre classe : il faut encore préciser de quels modèles on parle, quelles données sont utilisées, et ce que l’on cherche à rendre intelligible ».

5. La question particulière des robots. Parmi les applications les plus visibles et remarquées de l’intelligence artificielle figurent les robots, qu’il s’agisse de drones, de voitures connectées, d’aides-soignants ou à la chirurgie, d’enceintes connectées, etc. Au vu de cette extension des applications des robots, Richard et Smart18 proposent la définition suivante du terme : « A Robot is a constructed system that displays both physical and mental agency, but is not alive in the biological sense ». Calo19 souligne les qualités principales du robot autour de trois qualités bien humaines « sense, think, act » : « A robot can sense its environment, a robot has a capacity to process the information it senses, and a robot is organized to act directly upon its environment ».On ajoute que, pour ce faire, le robot utilise les ressources de l’intelligence artificielle, qu’elle soit supervisée ou non, profonde (deep) ou non20. Nombre de questions juridiques et éthiques posées par le robot sont donc communes à celles de l’intelligence artificielle21. En particulier, le robot, en tant que fonctionnant grâce à des systèmes d’IA, se caractérise par le fait que, même s’il se fonde sur un programme de base plus ou moins testé, supervisé et maîtrisé, le robot se nourrit et évolue en fonction des données, faits et événements, qu’il rencontre.

Les robots ou, plutôt, certains d’entre eux (voitures connectées, drones, aides-soignants, enceintes connectées) présentent des risques particuliers au regard de notre vie privée, vu leur dimension intrusive, leur activité permanente et en partie invisible, leur capacité accrue de collecte de données bien au-delà de la seule personne utilisatrice du robot et, enfin, la relation « émotionnelle » qui peut exister entre l’utilisateur et « son » robot créent des risques particuliers. Nous ne pourrons cependant nous étendre sur la spécificité de la réglementation qu’exigerait la particularité de tels risques22.

6. Les trois vertus de l’IA. Comment expliquer le succès de cet outil tant auprès des acteurs privés que publics ? Trois plus-values liées à leur utilisation le justifient. Le numérique est, pour l’État comme pour les entreprises, une réponse, appuyée bien souvent par le droit, aux risques que cette technologie dans le même temps contribue à créer mais son apport ne se limite pas à cela. Il est « gage » pour ces derniers, en particulier, de trois apports essentiels à la promotion de leurs intérêts : le premier, la sécurisationdes opérations ;le deuxième, l’optimisationdes processus et des décisions et le troisième, avec toutes les nuances que nous y mettons, l’objectivationdes décisions que ces systèmes d’IA peuvent ou doivent prendre. Si pour l’entreprise comme pour l’État et ses administrations, l’humain est le premier facteur de risques à contrôler et à apprécier, le numérique permet, nous l’avons dit, de mieux le connaître et de le prédire. Bref, le numérique offre aux décideurs privés et publics un outil extraordinaire de prévision et de stratégie contre les risques associés au comportement humain. Au sein des technologies du numérique, il importe de souligner que, en particulier, l’intelligence artificielle est perçue comme l’instrument le plus adéquat de réalisation par le numérique de trois objectifs recherchés par les États et les entreprises et en tout cas par le droit.

Le premier apport concerne la sécurisation. Ce terme vise tant la sécurité publique, que celle des investissements. Qu’il s’agisse d’une cyberattaque contre des infrastructures ou bases de données privées ou publiques, d’une cyberguerre menée par des drones ou autres robotkillers militaires, qu’il s’agisse de la détection de ces attaques, invasions ou armes de destruction (leurs « mises à mort »), autant de justificatifs qui expliquent que l’entreprise, l’administration voire l’individu recourent aux algorithmes puissants des systèmes de machine learning