L'intelligence artificielle en procès - Yannick Meneceur - E-Book

L'intelligence artificielle en procès E-Book

Yannick Meneceur

0,0

Beschreibung

« Tout ce qui est neuf n’est pas nécessairement nouveau ». Cette pensée, prêtée à Paul Ricoeur, semble parfaitement pouvoir tempérer les derniers développements de la transformation numérique que nous sommes en train de vivre, dont les tentatives de traiter des décisions de justice avec le formalisme mathématique à des fins prédictives. L’on connaît pourtant déjà bien les limites de la description de certains phénomènes, comme les phénomènes sociaux, par des équations : confusion entre corrélations et causalité, biais des données, data-dredging… De plus, enfermer les individus dans le déterminisme du  chiffre ne présente-t-il pas toutes les caractéristiques d’un projet de société totalitaire ?

Mais l’enchantement collectif opéré par le seul énoncé du terme, vague et marketing « d’intelligence artificielle » (IA) semble aujourd’hui avoir parfaitement occulté la réalité concrète de la mécanique sous-jacente de cette dernière mode. L’apprentissage automatique (machine learning) et ses dérivés ne sont en fait qu’une manière de créer de l’information en donnant du sens à des données par diverses méthodes statistiques et nombre de concepteurs semblent ne pas se soucier de ces limites. Les exemples européens et internationaux les plus divers nous parviennent sur des utilisations sans conscience de ces nouveaux systèmes computationnels : évaluation de la dangerosité aux États-Unis, « crédit social » en Chine, tentatives de manipulations avérées de l’opinion publique sur les réseaux sociaux à l’occasion du Brexit ou de l’élection de Donald Trump.

Il y aurait donc peut-être un nouvel impératif catégorique qui s’imposerait à tout citoyen : celui de comprendre les enjeux de cette société numérique, au prix d’une autopsie minutieuse, technique et politique, de ce que l’on appelle « l’IA ». Cela pour en déduire une réponse juridique forte, puisque en dressant un état en droit comparé des cadres existants en Europe et dans le monde, nous avons besoin d’instruments clarifiés pour défendre l’État de droit, la démocratie et les droits de l’homme.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 789

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Pour toute information sur nos fonds et nos nouveautés dans votre domaine de spécialisation, consultez nos site web www.larcier.com.

© Lefebvre Sarrut Belgium SA, 2020

Éditions Bruylant

Rue Haute, 139/6 – 1000 Bruxelles

Tous droits réservés pour tous pays.

Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent ouvrage, de le stocker dans une banque de données ou de le communiquer au public, sous quelque forme et de quelque manière que ce soit.

Imprimé en Belgique

Dépôt légal

Bibliothèque nationale, Paris : mai 2020

Bibliothèque royale de Belgique, Bruxelles : 2020/0023/041

ISBN : 978-2-8027-6624-7

La collection « Macro droit – Micro droit » propose une analyse thématique des normes de micro droit national face aux macros normes européennes et internationales. Elle a pour objectif d’apporter aux acteurs institutionnels et économiques des repères afin de leur permettre d’agir dans un environnement juridique et économique en mutation, et sujet à la confrontation des systèmes juridiques multiples. Elle a été créée en partenariat avec l’institut Presaje www.presaje.com.

Sous la direction de :

Thomas Cassuto, magistrat, docteur en droit, Vice-Président de l’Institut PRESAJE.

PRESAJE – Prospective, Recherche et Études Sociétales Appliquées à la Justice et à l’Économie – est un think tank indépendant, dédié à l’analyse des relations complexes entre l’économie, le droit et la justice. Son objet est de créer et d’entretenir un lien entre ces grandes fonctions sociétales. Fondé en 2002, l’Institut PRESAJE est présidé par Michel Rouger, Président honoraire du tribunal de commerce de Paris.

Dans la même collection

V. de Beaufort (dir.), Entreprises stratégiques nationales et modèles économiques européens, 2012.

Th. Cassuto (dir.), Une Europe, deux lois pénales, 2012.

J. Guitton, Quel gouvernement économique pour l’Union européenne ?, 2013.

P. Grandjean (dir.), Expertise de justice. Quel avenir en Europe ?, 2014.

Th. Cassuto (dir.), L’Europe du droit face aux entreprises planétaires, 2015.

J. Albert et J.-B. Merlin (dir.), L’avenir de la justice pénale internationale, 2018.

« Nous avons eu une histoire d’amour avec une technologie qui semblait magique. Ce qui a commencé par un phénomène de salon a fini par devenir un outil de manipulation de masse ».

Sherry Turkle

« Rien ne discrédite aujourd’hui plus promptement un homme que d’être soupçonné de critiquer les machines […]. La critique de la technique est devenue aujourd’hui une affaire de courage civique ».

Günther Anders

« La réalité, c’est quelque chose qui ne s’en va pas quand vous cessez de croire en elle ».

Philip K. Dick

À mes parents

Les opinions exprimées dans cet ouvrage, dont la postface, n’engagent que leurs auteurs et ne reflètent aucune position officielle du Conseil de l’Europe.

Sommaire

Préface

Avant-propos. L’enchantement

Introduction : définir, problématiser et réguler l’intelligence artificielle

Partie 1 – Les multiples définitions de l’intelligence artificielle

#1.01 | L’intelligence artificielle dans le langage courant

#1.02 | L’intelligence artificielle dans une perspective historique et technique

#1.03 | L’intelligence artificielle dans une perspective économique et sociale

#1.04 | L’intelligence artificielle dans une perspective philosophique et éthique

#1.05 | L’intelligence artificielle dans une perspective politique et juridique

Partie 2 – Le problème technique

#2.01 | Ce que nous enseignent les trois âges d’or de l’intelligence artificielle

#2.02 | Une révolution avant tout… informatique

#2.03 | Le grand emballement : les succès grisants de l’apprentissage profond

#2.04 | Un développement à mettre en perspective avec l’histoire et les ambitions de la statistique

#2.05 | Un formalisme mathématique performant pour des tâches très spécialisées dans des environnements fermés

#2.06 | Les dérives « prédictives » de la justice et de la police

#2.07 | Les promesses et les écueils de la « médecine prédictive »

#2.08 | L’immixtion des algorithmes dans l’éducation

#2.09 | Les défauts structurels de l’apprentissage automatique

Partie 3 – Le problème politique

#3.01 | La construction d’une pensée critique de l’intelligence artificielle dévitalisée et confisquée

#3.02 | L’informatique : un « fait social total »

#3.03 | L’éthique pour exorciser les mauvais usages et l’humain au centre… mais au centre de quoi ?

#3.04 | Une masse consentante à son emprise par les technologies : vers un « État des algorithmes »

#3.05 | L’hybridation des idéologies libertariennes et néolibérales

#3.06 | Le transhumanisme : l’humain augmenté ou diminué ?

Partie 4 – Une réponse juridique

#4.01 | La réponse juridique relative aux données traitées par l’intelligence artificielle

#4.02 | L’encadrement de l’intelligence artificielle en droit de l’Union européenne

#4.03 | L’impact de l’intelligence artificielle sur les normes, principes et valeurs protégés par le Conseil de l’Europe

#4.04 | Réfuter les détracteurs d’une réglementation de l’intelligence artificielle

#4.05 | Vers une organisation des professions appliquant l’intelligence artificielle ?

#4.06 | La certification : un mécanisme de confiance pour l’emploi de l’intelligence artificielle

#4.07 | Les droits de l’homme et les libertés fondamentales pour éclairer l’ère numérique

Conclusion : « l’IA », un moyen sacralisé qui s’est approprié les fins

Postface

Appendice : liste des cadres éthiques ou non contraignants applicables à l’intelligence artificielle et à la science des données

Index thématique alphabétique

Bibliographie sélective

Table des matières

Préface

Par Antoine GaraponMagistrat et secrétaire général de l’Institut des hautes études sur la justice (IHEJ)

Ce livre n’est pas le procès de l’intelligence artificielle, mais plutôt un dossier d’instruction en vue de se faire une opinion de ce qu’elle peut apporter. Chacun sera juge, mais l’on peut d’ores et déjà rendre grâce à Yannick Meneceur pour avoir si bien instruit le dossier en dressant un bilan complet des nouvelles technologies numériques, de leur histoire, de leurs performances et des défis qu’elles posent. Il l’a fait avec diligence, expertise et impartialité. On n’en attendait pas moins d’un magistrat. Mais notre auteur ajoute, à ces qualités de juge, celles d’un avocat comme l’indique le sous-titre : « plaidoyer pour un cadre juridique international et européen de l’intelligence artificielle ». Ces deux positions – de juge et d’avocat – qu’adopte notre auteur ne sont pas ici antagoniques, mais ont collaboré au contraire pour nous offrir ce livre à la fois complet et convaincant.

La dernière partie du livre pose la question de la régulation juridique de l’intelligence artificielle. La situation présente pourrait évoquer l’état de nature, mais, à la différence de celui de Hobbes ou de Rousseau, celui-ci n’est pas fictif. Ce sentiment sera atténué par la lecture des différents dispositifs juridiques ici recensés qui est plutôt rassurante. Le lecteur sera surpris d’apprendre que la réponse juridique est déjà abondante pour les données. Il sera également impressionné par le nombre de chartes éthiques déjà existantes répertoriées à la fin de l’ouvrage. Mais à quoi sert l’éthique, se demandera-t-il peut-être ? À rien, diront les pessimistes ; pas totalement, répond notre auteur. Il a bien conscience qu’une période de maturation est indispensable avant de parvenir à un juste encadrement des pratiques de l’intelligence artificielle. Le droit américain a thématisé cette nécessité sous le nom de ripeness : maturité. La Cour suprême doit attendre qu’une controverse juridique soit « mûre » avant de s’en emparer. Nous sommes dans une période transitoire de maturation juridique, synthétise Yannick Meneceur. Reste à savoir comment l’on en sortira.

Peut-être sera-t-elle suivie par une phase de justiciabilité. Les juges ne sont-ils pas mieux placés qu’un régulateur ex ante pour trancher ces questions ? Il faut en effet sublimer le conflit sur lequel insiste l’auteur entre deux formes de vérité : celle de l’intelligence artificielle – Yannick Meneceur insiste beaucoup sur cette fonction « alèthéique » en faisant référence à Éric Sadin – et celle, beaucoup plus traditionnelle, du droit et de la justice. Pour exercer un tel pouvoir, les juges doivent être en mesure d’être saisis tout d’abord, ce qui n’est pas évident tant l’intelligence artificielle est en dehors de tout territoire, voire de tout espace. Elle n’offre pas les mêmes prises au droit que des activités territorialisées. La déspatialisation risque d’empêcher toute juridiction sur le système. Quand bien même un jugement serait-il rendu, encore faut-il qu’il soit exécuté, ce qui n’a rien d’évident dans notre domaine, tant l’intelligence artificielle reste imprégnée d’idéologie libertaire. N’oublions pas qu’elle a été créée pour débarrasser l’action humaine de toute interférence avec la politique. Il n’empêche que ses réalisations seront rattrapées par la dure réalité du monde vécu. Il y a fort à parier que plus l’intelligence artificielle entrera dans nos vies, plus elle se heurtera à l’ingratitude du monde vécu et à la finitude de la condition humaine. Les hommes, leurs passions et leur « asociale socialité » ne tarderont pas à se rappeler à son bon souvenir. Obstinément. Et les conflits réintroduiront le juge dans le débat.

Le philosophe du droit américain Ronald Dworkin envisageait l’avenir du droit sous la forme d’une common law globale qui s’enrichirait d’un grand nombre de décisions rendues à travers le monde à propos chaque fois d’une affaire différente, d’un retour de la vie concrète. Elles formeraient comme des précédents que les juristes auraient en charge de rationaliser. Ainsi, une certaine cohérence pourrait se dégager de manière incrémentale à l’image de toute jurisprudence. C’est la voie qu’a commencé à emprunter la justice climatique. Espérons qu’elle sera suivie demain par une justice numérique. Ce qui obligerait notre auteur à enrichir la prochaine édition d’un chapitre supplémentaire sur l’office éminent des juges pour rapatrier l’intelligence artificielle dans l’État de droit.

Avant-propos. L’enchantement

Mes parents, comme beaucoup d’autres, sont attachés à des rituels familiaux. Parmi les nôtres, en ce tout début des années 1980, il y avait la déambulation dominicale dans les rues de Colomiers, ville voisine de Toulouse en France.

Urbanisé dans la fin des années 1960, ce territoire a connu une croissance remarquable sous l’impulsion du développement de l’industrie aéronautique et d’un ami intime de François Mitterrand, Alex Raymond, qui en avait fait une ville d’avenir. Son originalité ? Elle était dépourvue de feux tricolores et était irriguée de grandes artères reliées entre elles par des ronds-points avec priorité aux entrants (et non des carrefours à sens giratoire !). L’idée était alors de ne pas entraver la liberté des individus, de faire primer la fluidité sur toute expérience afin que rien ne puisse interrompre cette conquête individuelle du temps et de l’espace.

Aux alentours de ma huitième année, nous arpentions donc à pied les rues de cette petite ville-dortoir, qui mélangeait encore des friches et des arbres au béton imposé par l’extension des quartiers. Pour de multiples raisons, mes parents n’ont jamais été synchrones avec l’air de leur temps et, parmi leurs paradoxes, ils s’étaient maintenus dans cette ville alors même qu’ils ne possédaient pas de voiture et que la vie leur était devenue extrêmement malcommode. Mais ils étaient particulièrement heureux de reprendre toujours les mêmes chemins, du vieux village de Colomiers et de son parc Duroch vers des zones pavillonnaires, à l’ombre des pins parasols.

Parmi les moments les plus exaltants des promenades de cette époque, il y avait pour moi la rencontre avec les distributeurs automatiques de billets, flambant neufs, à l’écriture pixellisée verte sur fond noir. C’étaient les premiers matériels informatiques que je pouvais voir et toucher. Ressentir même. Je ramassais compulsivement les reçus imprimés, jetés au sol ou laissés à proximité, et je tentais d’imaginer le fonctionnement de cette machine fascinante, habile à communiquer en temps réel avec d’autres machines dans le monde entier.

Flottait également dans l’air de cette époque un vent fort de modernité, qui nous venait directement de la côte ouest-américaine. Sans que je ne parvienne alors à le distinguer aussi précisément, ce vent m’acheminait vers des films comme War Games, Tron, ou des séries comme « Les Petits Génies » (Whiz kids), qui mettaient en scène des adolescents au QI vraisemblablement extrêmement développé, à même de contrôler ces mystérieuses machines en frappant frénétiquement des lignes de codes cryptiques sur des écrans monochromes. Soulignons que ces films nous racontaient la manière dont de jeunes gens s’emparaient des technologies pour lutter contre un État centralisateur et oppresseur… l’informatique étant présentée comme un moyen de cette oppression, mais aussi un moyen pour s’en libérer. L’expression parfaite du soft power américain qui m’incitait à me réaliser en tant qu’individu et à ignorer les règles qui m’enserraient dans cette cité afin de pouvoir m’en évader.

Ce vent nous apportait également les objets concrets de cette influence : les ordinateurs eux-mêmes. Le grand boum de l’informatique personnelle avait investi tous les étals et je me rappelle, en 1983, avoir traîné mon père sur la place du Capitole à Toulouse, dans les étages de la librairie Privat qui commercialisait alors ces objets enchantés. Je tapais sur les touches mécaniques du Commodore 64, que j’avais essayé chez un ami, rêvant à mon tour de pénétrer dans les dédales informatiques de grands systèmes protégés. Mais le manque de fortune de mon père m’avait dirigé vers un choix plus raisonnable, l’Atari 800XL et sa vidéothèque de jeux bien fournie.

Je n’ai jamais quitté les claviers depuis. De manière quasiment mystique, une réalité – un monde même – s’était révélée à moi. Je me suis non seulement diverti, mais j’ai aussi appris les fondements de la programmation. Les prémices du plan « Informatique pour tous » n’avaient pas épargné ma génération, et mon instituteur de CM1 nous avait initiés sur le fleuron de la technologie française (un TO7) au logo, langage informatique mettant en scène une tortue exécutant les instructions enregistrées de manière séquentielle. Assez naturellement, sur mon Atari, puis Amstrad, puis Amiga, j’ai tenté, expérimenté, échoué et parfois réussi. Pas suffisamment doué en mathématiques pour en faire un métier, mais je suis ressorti de cette expérience avec les ordinateurs, irrémédiablement liée à mon histoire intime, avec la conviction que ces machines allaient être une part permanente de nos vies quotidiennes. Mais, jamais, je n’avais anticipé l’intrication actuelle.

Ne vous est-il jamais arrivé de vous interroger sur une odeur de brûlé, se manifestant à vous lentement… on s’interroge de savoir d’où cela peut bien venir ? De la cuisine ? De l’extérieur ? On comprend que quelque chose est en train d’arriver, sans parvenir à en saisir les contours exacts. En ce qui concerne le numérique, quelques signaux s’étaient déjà déclenchés…

Encore conscient des crimes et des horreurs de la Seconde Guerre mondiale, le législateur n’avait pas tardé en Suède (1) (1973), en Allemagne (2) (1976) et en France (3) (1978) à statuer sur le traitement des données personnelles avec, ce que l’on appelait alors simplement, l’informatique. Il aura fallu attendre 1995 (directive) et 2016 (règlement européen) pour imposer un cadre unifié de protection des individus afin de prévenir toute dérive par le traitement de leurs données personnelles. Mais ce que l’on qualifie abusivement aujourd’hui (et même hier !) « d’intelligence artificielle » (« IA (4) ») nous pose un défi dépassant de très loin la simple protection de nos intérêts individuels : la diffusion concomitante d’objets technologiques miniaturisés, remplis de divers capteurs, l’interconnexion des réseaux, la disponibilité de jeux de données de taille considérable, la rapidité de traitement des processeurs, tout concourt à la création d’un double numérique de notre monde… et de nous-mêmes. Double dont le comportement, pris dans une matrice logique, arriverait même à pouvoir être anticipé. Comment ne pas imaginer meilleur système de contrôle des individus qu’en leur offrant, pour tous les aspects de leur vie, des prophéties autoréalisatrices et en garantissant ainsi confort et sécurité. Même Orwell n’était pas allé aussi loin.

Alors on peut très bien ne pas prêter attention aux alarmes des détecteurs de fumée, se dire qu’ils sont détraqués ou qu’ils exagèrent et qu’il sera bien temps d’agir quand l’on verra les flammes. Comme Serge Abiteboul, on pourrait ne pas céder à l’anxiété des récits de Black Mirror et rester confiant en l’homme et en l’avenir (5). Épris d’informatique et confiant en l’humanité, je vous avoue qu’une partie de moi-même m’y encourage. Mais un ami érudit et bienveillant, à qui je confiais l’ambition de cet ouvrage, m’a fait un jour remarquer la singulière tension qui semble avoir pris l’habitude de peupler mes discours. Il trouvait paradoxal qu’un « geek » comme moi, connecté en permanence et fasciné par les technologies, se sente obligé de se singulariser en construisant une réflexion qu’il percevait comme bien trop à charge à l’égard de « l’IA ». Son conseil, avisé, était plutôt de me concentrer à définir avec simplicité un « bon usage ». Si l’on ne peut que souscrire à cette sagesse, je soutiens toutefois que le mouvement de société en cours, dont cet ouvrage prétend esquisser quelques contours, n’est pas en mesure d’assurer ce simple équilibre. Ce mouvement paraît en effet bien trop souvent amnésique de l’histoire des sciences et souhaite volontairement faire table rase d’un passé bien encombrant. « Rebâtir de zéro », « vite et salement », « bouger vite et casser les codes », « plantez-vous vite et souvent (6) » sont quelques-uns des mantras de la Silicon Valley, prônant la rapidité de développement et l’expérience individuelle au détriment de toute capitalisation de l’expérience venant de « l’Ancien Monde ». Un des rédacteurs en chef de la célèbre revue Wired avait même annoncé, avec beaucoup de provocation, la fin de toute théorie scientifique grâce à l’avènement de la société des données massives, données dans lesquelles nous allions pouvoir découvrir par corrélation toutes les règles pour traiter de nos affaires humaines.

Un impératif catégorique s’impose donc à nous, un impératif d’action et d’engagement. Même s’il est certainement déjà trop tard, même si l’intégration de politiques publiques technolibérales nous a déjà conduits à un certain point de non-retour, c’est dans le champ politique que nous devrons un jour vraisemblablement parvenir à dépasser l’emprise numérique. Ceci afin de tenter de concevoir un projet de société non pas exalté face aux promesses du numérique ou paralysé face à l’innovation, mais un projet qui parviendrait à se penser autrement qu’en termes de croissance économique. Tout cela fait évidemment écho à d’autres débats, comme pour les questions environnementales, où cette notion de croissance est de plus en plus régulièrement interrogée. Bien d’autres emplois des outils numériques pourraient être envisagés et la mise en réseau électronique des individus employée pour bien d’autres finalités que la création de profit. Et peut-être simplement ralentir ? La crise sanitaire que l’année 2020 a imposée à l’humanité devrait peut-être conduire à se réinterroger sur un certain nombre de priorités.

Investiguer, croiser les savoirs et tenter de mieux qualifier ce qu’il se passe, cela semble être donc un préalable à tout autre discours et sera la principale ambition de cet ouvrage. Ceci dans l’objectif de parvenir à fonder un cadre juridique de « l’IA » apte à tirer les meilleurs fruits de cette innovation.

(1) Loi du 11 mai 1973 définissant un statut protecteur en matière informatique.

(2) Loi du 10 novembre 1976 entrée en application le 1er janvier 1978.

(3) Loi du 6 janvier 1978.

(4) L’acronyme d’intelligence artificielle sera présenté entre guillemets par commodité éditoriale. L’ensemble des technologies recouvertes par ce terme ne constitue naturellement pas une personnalité autonome et, afin de se garder de tout anthropomorphisme, il a été choisi de résumer les termes plus appropriés « d’outils d’intelligence artificielle » ou « d’applications d’intelligence artificielle » par le seul terme « d’IA » entre guillemets.

(5) Lire, par exemple, le remarquable recueil de nouvelles de S. Abiteboul, Le bot qui murmurait à l’oreille de la vieille dame, Le Pommier, 2019, et écouter son entretien dans Soft Power, France Culture, émission du 30 juin 2019.

(6) Ou méthode dite « essai et erreur ».

Introduction : définir, problématiser et réguler l’intelligence artificielle

« Tout ce qui est neuf n’est pas nécessairement nouveau ». Cette pensée, prêtée à Paul Ricœur, semble parfaitement pouvoir tempérer les derniers développements de la transformation numérique que nous sommes en train de vivre, dont les tentatives de traiter des décisions de justice avec le formalisme mathématique à des fins prédictives. On connaît pourtant déjà bien les limites de la description de certains phénomènes, comme les phénomènes sociaux, par des équations : confusion entre corrélations et causalité, biais des données, data-dredging ou data-snooping. Mais l’enchantement collectif opéré par le seul énoncé du terme, vague et marketing « d’IA », semble avoir parfaitement occulté la réalité concrète de la mécanique sous-jacente de cette dernière mode : l’apprentissage automatique (ou machine learning) et ses dérivés ne sont, en effet, qu’une manière parmi d’autres de créer de l’information en donnant du sens à des données par diverses méthodes statistiques bien connues.

Dans ce contexte de confusion assez généralisée, les mathématiques seraient devenues pour Cathy O’Neil une nouvelle « arme de destruction massive », car, malgré leur apparente neutralité, elles serviraient à des calculs algorithmiques si denses qu’il serait difficile, voire impossible, de rendre transparents les choix parfois arbitraires de leurs concepteurs (1). Leur utilisation décomplexée serait même susceptible de renforcer de manière inédite les discriminations et les inégalités en « utilisant les peurs des personnes et leur confiance dans les mathématiques pour les empêcher de poser des questions (2) ».

Le constat ainsi posé est pertinent : ne devons-nous pas traiter prioritairement des questions portant sur la difficulté à utiliser ce formalisme pour décrire les phénomènes sociaux et sur les changements profonds de gouvernance induits au lieu de spéculer de manière stérile sur des risques relevant de la pure science-fiction, notamment en ce qui concerne « l’IA (3) » ?

Il y a donc un effort de définition à réaliser avant toute tentative d’analyse, car, sans vocabulaire clair, on ne peut construire de pensée claire. Et, une fois les objets définis, s’investir dans un effort approfondi d’analyse, déconnecté d’affect ou d’a priori, dépassant la sempiternelle balance bénéfices/risques ou les pétitions de principe, incapables d’objectiver les réels enjeux. En 1958, Pierre Ducassé, philosophe et historien des techniques, décrivait déjà trois attitudes inadéquates face à la technique (4) : l’antitechnicisme, la technophilie et l’indifférence. Pour lui, la première relèverait d’une « très vieille tradition de méfiance pour l’artifice » et de « confiance en l’ordre naturel ». La technophilie, quant à elle, serait « par définition hors de la philosophie », puisqu’elle postulerait de l’existence d’une solution technique à tout problème et adopterait ainsi une position philosophiquement suicidaire, malheureusement caractéristique d’un grand nombre d’auteurs qui abordent la technique d’une manière positive. Quant à l’indifférence, elle se fonderait sur l’illusion de la « prétendue neutralité de la technique » et de son insignifiance pour la philosophie, soucieuse de réflexion critique et de questionnement sur le monde.

En mettant l’intelligence artificielle « en procès », il ne sera pas question d’en faire « son procès », c’est-à-dire de la placer sur le banc des accusés pour l’accabler d’un réquisitoire anxiogène, uniquement à charge. D’autres s’en sont déjà chargés de manière beaucoup plus élégante que nous ne pourrions le faire. Il sera encore moins question de la « blanchir », sous forme de prolepse, en anticipant les très nombreuses critiques s’accumulant contre elle pour les réfuter et nous inciter à avoir confiance en un avenir radieux, où la machine nous libérerait de notre condition. D’autres s’en sont également chargés. L’idée de la mettre « en procès » ambitionne de penser « l’IA » au regard de son process (c’est-à-dire de la manière dont elle est en action), tant dans sa dimension structurante que déstructurante de la société, en juxtaposant, parfois de manière inédite, des éléments concrets et objectifs provenant de différents champs scientifiques. La mettre « en procès », c’est aussi adopter une démarche d’instruction, analytique, respectueuse du contradictoire en évoquant des concepts qui peinent souvent à dépasser les cercles académiques et à être vulgarisés par la presse généraliste.

La première partie de cet essai visera donc à élaborer non pas une définition de « l’IA », mais d’en explorer les multiples définitionspossibles sous différents angles : historique et technique, économique et social, philosophique et éthique, politique et juridique (5). Cette grille d’analyse, véritable vision à 360 degrés rarement opérée au profit d’un travail plus sectoriel, est indispensable, selon nous, pour appréhender « l’IA », mais aussi plus substantiellement le numérique, comme « un fait social total (6) ». Peut-être devrions-nous considérer que, « trop nombreuses, les clartés séparées aggravent l’obscurité générale (7) ». Il s’agit pourtant là d’un effort indispensable afin de pouvoir catégoriser en deux grands groupes les problèmes posés par la transition que nous sommes en train de vivre et qui feront chacun l’objet de développements spécifiques.

Le premier groupe de problèmes qui se posent relève d’une accumulation de difficultés d’ordre technique, qui en viennent à poser un problème technique global : tantôt l’on parle d’apprentissage machine (machine learning), tantôt d’algorithmes (basés sur des règles), tantôt de data science ou de big data analytics… Un grand malentendu règne donc en omettant le trait commun et pourtant essentiel : on parle en réalité d’informatique et – surtout – de son formalisme mathématique et logique afin de modéliser des environnements et d’automatiser des tâches. S’ajoute à cela l’usage avancé de statistiques dans certaines des hypothèses les plus contemporaines (apprentissage automatique ou machine learning notamment, qui, pour certains, pourrait d’ailleurs être plus justement baptisé du nom d’apprentissage statistique ou statistical learning).

La recherche et l’industrie numérique ont naturellement été promptes à baptiser leurs développements avec des terminologies marketing, parfois anthropomorphiques, en mesure de présenter sous un jour favorable leurs produits. Mais il convient de ne pas se laisser égarer par cet écran de terminologies et de revenir aux fondamentaux.

Pablo Jensen a relaté avec acuité, dans son ouvrage Pourquoi la société ne se laisse pas mettre en équation, comment le monde a pu commencer à être expliqué en le transformant en problème mathématique (8). Il relate notamment la manière dont Galilée a contribué à « construire ainsi un savoir absolu, aussi inattaquable que les résultats mathématiques (9) » par la mise en œuvre d’un plan incliné pour comprendre la chute des corps. Ce formalisme mathématique permettra donc des merveilles, tant sur Terre que dans l’espace. Le nouveau stade, tel que nous l’a manifesté AlphaGo zero, est maintenant de parvenir à élaborer par une heuristique essentiellement automatisée (et statistique) un mécanisme en capacité de s’adapter en temps réel. Mais cette approche de fonctionnement « en flux » pose de multiples difficultés, dont celle de pouvoir expliquer comment les décisions du système sont élaborées. On pourrait se dire que ce point poserait des difficultés pour des systèmes prenant des décisions affectant de manière significative les individus. Mais cela pose, en réalité, une question bien plus générale, pourtant fondatrice de toute démarche scientifique : la corrélation en serait venue à remplacer la causalité, au point de remettre en cause la notion de théorie (10). Cette confusion serait aggravée par les interrogations qui se posent dans les milieux scientifiques sur la viabilité même du moteur « d’apprentissage » dans certaines circonstances (11), alors même que l’on nous présente comme irrémédiablement pour acquis que cette technologie fonctionne.

Le second groupe de problèmes est d’un ordre politique : « l’IA » semble en effet avoir été confisquée par un étrange projet de société, qui est parvenu à mêler dans son extension mondiale une idéologie néolibérale, avec de très forts relents libertariens. Cette étrange combinaison s’explique en examinant de près l’idéologie prégnante des pères fondateurs de la Silicon Valley (12), dont les développements technologiques ont été l’outil idéal de leurs ambitions. Notons au passage que la Chine s’en est aussi emparée pour « augmenter » son propre projet totalitaire en dressant une véritable muraille numérique entre elle et l’Occident. Les Russes semblent également prendre la voie d’une autonomisation de leurs infrastructures et du contenu, même s’ils disposent de moins de champions pour asseoir leurs ambitions (13).

On le voit bien, il ne peut plus être construit de pensée critique de « l’IA » sans s’astreindre à cette lecture politique, qui explicite comment cet outil a pu prendre corps dans le monde et devenir la solution universelle aux maux de nos sociétés (14). La doxa technolibérale est aujourd’hui à ce point puissante que l’on retrouve ses éléments de langage dans la plupart des instances publiques, internationales ou locales, avec une injonction permanente : s’adapter. S’adapter aux changements imposés par les technologies, sans nécessairement prendre le temps de s’interroger sur le type de monde qu’elles induisent, s’adapter aux valeurs qu’elles nous imposent, s’adapter à leur rationalité plutôt que de tirer parti de notre fantaisie et notre irrationalité, aussi appelées créativité.

Arrivé à cet état du débat, les artifices rhétoriques des techno-évangélistes sont innombrables, comme celui qui consiste à comparer « l’IA » à d’autres innovations ayant suscité des inquiétudes en leur temps, comme l’électricité. Qui serait assez censé pour contester aujourd’hui les bénéfices de l’électrification ? En nous interrogeant sur le caractère invasif de ce mode de traitement des données, nous serions donc aussi stupides que les luddites qui cassaient les métiers à tisser, des conservateurs englués dans les schémas de l’Ancien Monde. Et, par certains égards, inadaptés à l’évolution. Nous n’aurions d’autre horizon que l’acceptation inconditionnelle de cet outil, dont la première promesse serait de parvenir à organiser nos vies de manière rationnelle. Or cette comparaison omet la révolution cognitive, voire graphique (15), induite par cette manière de modéliser et de restituer le monde.

La comparaison pertinente à réaliser serait donc bien plus celle de l’invention de l’imprimerie au XVe siècle (16). Cette avancée technologique est certainement celle qui a le plus changé le cours de l’histoire moderne en ce qu’elle a permis, par l’accumulation de connaissances empiriques, de supplanter la doctrine liturgique et à faire éclore l’âge de la Renaissance. Elle a conduit à l’autonomisation de l’individu, lequel, en aiguisant son esprit critique et en investissant les arts, les sciences, le droit, a remplacé la foi comme critère principal de la conscience humaine. Des bibliothèques, où a été stockée et systématisée la connaissance, sont nés un âge de raison et l’ère des Lumières, qui ont façonné l’ordre mondial contemporain. Mais cet ordre est aujourd’hui en pleine mutation sous l’influence de la révolution de l’informatique. Nous vivons notamment, depuis les années 1990, l’avènement d’une société connectée par internet, progressivement traduite en données traitées en temps réel par des algorithmes et dont on ne sait plus bien quel est le projet de société ni le cadre idéologique, politique ou philosophique. Au Moyen Âge, la religion était au cœur de la conception du monde. Les Lumières avaient cherché à lui substituer une raison humaine libérée et analytique. Le XIXe siècle a imposé la statistique et le XXe siècle, assurément, l’idéologie. Les algorithmes caractérisent déjà le XXIe siècle et font maintenant émerger une nouvelle « puissance alèthéique, destinée à révéler l’alètheia, à savoir la vérité, dans le sens défini par la philosophie grecque antique, entendue comme la manifestation de la réalité des phénomènes à l’opposé des apparences (17) ». Cette vérité, produite à partir de mécanismes statistiques, vient s’immiscer progressivement dans les actes les plus intimes de notre quotidien pour nous préconiser, par de multiples interactions (nudges ou coups de pouce (18)) des conduites à tenir, toujours plus rationnelles. Notre capacité à nous déterminer dans le réel est, sans que nous le percevions nécessairement, enfermée dans les cages logiques imposées à nos doubles statistiques. La commodité des services, leur aspect attrayant et ludique nous conduisent à concéder toujours plus de pans de nos personnalités : données personnelles dans tous les aspects de nos vies, bien sûr, mais aussi notre autonomie, dans un flux permanent d’actions « suggérées ». La vitesse ainsi imposée par le numérique inhibe notre réflexion et donne bien plus de poids à la masse statistique qu’à l’introspection.

C’est pourquoi « l’IA » va bien au-delà de l’automatisation, déjà connue lors de la révolution industrielle. L’automatisation est un moyen technique, qui a permis d’atteindre des objectifs prescrits en rationalisant ou en mécanisant les instruments pour les atteindre. « L’IA », elle, s’approprie les fins en définissant ses propres objectifs. Elle porte maintenant avec des capacités dites « prédictives » des jugements stratégiques sur l’avenir, détermine ses propres finalités et nous impose imperceptiblement son interprétation calculatoire du monde. Elle remet en cause, de manière de moins en moins virtuelle, notre autonomie d’organisation et de détermination des objectifs sociétaux. C’est l’expression démocratique même qui est progressivement confisquée par une nouvelle élite qui est déjà en train de se charger de nous dire ce qui est bien ou mal (19). Et c’est même potentiellement l’État de droit et la primauté de la loi qui se trouvent ainsi interrogés : dans l’esprit de certains, un processus mathématique, riche à la fois de données individuelles précises et de données générales, pourrait parfaitement se substituer au droit pour rétablir l’équilibre né d’un litige. La philosophie animant, de manière consciente ou non, nombre d’entrepreneurs du numérique n’est pas si éloignée de la célèbre « Déclaration sur l’indépendance du cyberespace », proclamée au Forum économique mondial à Davos, en Suisse, par John Perry Barlow : « Gouvernements du monde industriel, géants fatigués de chair et d’acier, je viens du cyberespace, le nouveau foyer de l’esprit. Au nom de l’avenir, je demande au passé de nous laisser tranquilles. Vous n’êtes pas le bienvenu parmi nous. Vous n’avez aucune souveraineté là où nous nous réunissons. […] Je déclare que l’espace social mondial que nous construisons est naturellement indépendant des tyrannies que vous cherchez à nous imposer. Vous n’avez pas le droit moral de nous gouverner et vous n’avez aucune raison de craindre les méthodes d’exécution ».

Bien que cette déclaration ait d’abord été destinée aux individus, son attitude cosmopolite et libertaire est typique du Nouveau Monde numérique et de ses hérauts de la tech. Jusqu’à récemment (l’appel de « Christchurch » en 2019 et, en 2018, la loi « NetzDG » en Allemagne semblent être des tournants importants), les ambitions de cette industrie n’ont pas été sérieusement contestées par les autorités nationales, qui n’en reconnaissaient pas ou refusaient d’en reconnaître les conséquences, les laissant libres d’investir ce « cyberespace » avec leurs valeurs et leurs principes d’action. Or, comme le mentionne à juste titre Paul Nemitz, « cette incapacité à attribuer et à assumer des responsabilités à l’ère d’internet, tant par les législateurs que par les sociétés technologiques […] a conduit aux fiascos de l’internet, sous la forme de la diffusion de la surveillance massive, du recrutement au terrorisme, de l’incitation à la haine raciale et religieuse et de multiples autres catastrophes pour la démocratie, dont la dernière est celle de Cambridge Analytica (20) et la montée des populistes, les plus sophistiqués des utilisateurs recevant souvent le support de Facebook, YouTube et Twitter, etc., en combinant leurs techniques classiques de publicité et de publicité ciblée sur les réseaux développés pour le profit avec la propagande politique (21) ». Difficile de réfuter ces propos à la vue du documentaire The Great Hack dans lequel on perçoit les objectifs clairs assignés à la société Cambridge Analytica par ses fondateurs : influencer les élections américaines de mi-mandat en 2014. Fondateurs parmi lesquels on compte Steve Bannon, militant conservateur américain proche de milieux d’extrême droite en Europe, et Alexander Nix qui dépeint ainsi ses ambitions : « From Mad Men of Old to Math Men today (22) », c’est-à-dire des publicitaires et manipulateurs d’opinion d’antan (en faisant référence à la série télévisée « Mad Men ») aux mathématiciens aujourd’hui.

Nous devons donc sortir de la sidération collective qui nous saisit et construire une réponse à la hauteur de ces enjeux. Il ne s’agira pas ici de prétendre ralentir la course dans laquelle se sont lancées à peu près toutes les nations, sous l’impulsion de l’industrie numérique. Il ne s’agira pas non plus de se limiter à démystifier soigneusement, méthodiquement, chirurgicalement les termes qui s’imposent à nous, comme « IA éthique », « IA responsable » afin de créer de la « confiance » chez les consommateurs. Il s’agira surtout de décrire les moyens permettant de forger une réponse sociétale globale et d’inciter, comme à Montréal avec son extraordinaire débat public (23), à la construction d’alternatives aux discours techno-libéraux (24).

Cette réponse devra se concrétiser en une réponse juridique, qui sera envisagée dans une dernière partie.

Le premier acte consistera à rappeler qu’à droit constant, des cadres, tant nationaux comme internationaux, sont déjà applicables. Une cartographie pourra donc être dressée en rappelant que ce n’est pas parce que nous traitons d’une modalité industrialisée de traitement des données que les concepteurs, bien humains, ne sont pas déjà soumis, notamment, à des mécanismes de responsabilité. Pour complexe que soit l’écheveau, il devra être passé en revue un certain nombre de textes, tels que les mécanismes de sécurité des produits, de responsabilité, de protection des consommateurs ou de protection des données. Ajoutons à cela la Convention européenne des droits de l’homme ou la Charte européenne des droits fondamentaux dont les principes, même généraux, trouvent naturellement à s’appliquer dans un monde numérique. Sans oublier une possible transposition du principe de précaution (25), bien connu des questions d’environnement.

À la suite de cela, il conviendra de réfuter les arguments s’opposant à une réglementation stricte. Les promoteurs du quick and dirty (que l’on pourrait traduire littéralement comme « vite et salement »), prompts à « disrupter le marché », ne se rendent notamment pas compte (ou ne veulent pas admettre) qu’il suffira d’une polémique majeure pour rompre durablement la confiance avec les citoyens. Le scandale Cambridge Analytica n’est sûrement que la partie visible d’un iceberg qui ne cesse de grossir. Un cadre est donc indispensable pour guider les développements et les moraliser. De tels cadres n’ont pas nui à la biomédecine, on ne voit pas bien pourquoi l’industrie numérique en souffrirait.

Enfin, de manière plus prospective, pourrait être posée la question de nouveaux droits humains à l’ère numérique. Droits à se déconnecter, à l’oubli, à accéder à des services publics ou même des commerces sans intermédiation numérique, propriété de ses données, les hypothèses sont nombreuses afin de pouvoir nous autoriser à réfuter l’emprise numérique et ce qu’elle est susceptible d’emporter de concession de nos droits. Mais n’est-ce peut-être qu’une expression nouvelle de l’exigence, bien connue, de protection de la dignité humaine ?

Le Siècle des lumières avait réussi à conduire l’entière société vers un cap humaniste en tirant parti d’une technologie, l’imprimerie. Notre époque dispose aussi de sa technologie de « disruption » massive avec l’informatique, mais semble, à bien des égards, perdre tout cap. Tentons de contribuer, par cet ouvrage, à cartographier le paysage actuel avec une boussole solidement ancrée vers la protection des droits de l’homme, de l’État de droit et de la démocratie.

Nous évoquerons donc successivement, après avoir défini « l’IA » (partie 1), ce qui constitue, selon nous, tant un problème technique (partie 2) qu’un problème politique (partie 3). Une réponse juridique (partie 4) se justifiera au regard de ces enjeux, afin de ne pas se laisser distraire par des discours éthiques qui, s’ils ont des éminents bénéfices en préfigurant des principes communs, n’en demeurent pas moins dépourvus de mécanisme de sanction en cas de manquement. Nous conclurons sur un simple constat : « l’IA » s’est à la fois sacralisée et s’est approprié, par la volonté de ses concepteurs, des finalités propres lors de son extension. Développer une action véritable au bénéfice des humains, au travers d’un cadre juridique fondé sur les droits de l’homme, l’État de droit et la démocratie, ainsi que sur la protection de l’environnement à cause d’une révolution numérique sans cesse plus consommatrice d’énergie, devrait être la finalité d’un moyen technologique tel que « l’IA ».

(1) C. O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown Books, 2016.

(2) M. Chalabi, « Weapons of Math Destruction: Cathy O’Neil adds up the damage of algorithms », The Guardian, 27 octobre 2016.

(3) À ce titre, les craintes de destructions de l’humanité par « l’IA » caractérisent assez bien cette forme d’alarmisme. Voy., par exemple, S. Hawking, S. Russel, M. Tegmark et F. Wilczek, « Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough? », The Independent, 1er mai 2014.

(4) P. Ducassé, Les techniques et le philosophe, Paris, PUF, 1958.

(5) Cette partie a déjà fait l’objet d’une première publication aux éditions Bruylant pour l’UIHJ (Union internationale des huissiers de justice) dans le cadre du 2e forum mondial de l’exécution (4 décembre 2019) : M. Schmitz (dir.) et P. Gielen (coord.), Avoirs dématérialisés et exécution forcée, coll. Pratique du droit européen, Bruxelles, Bruylant, décembre 2019. Le contenu a toutefois été revu et augmenté pour les besoins du présent ouvrage.

(6) Marcel Mauss cité par A. Garapon et J. Lassègue, Justice digitale. Révolution graphique et rupture anthropologique, Paris, PUF, 2019, p. 83.

(7) O. Rey, Quand le monde s’est fait nombre, Paris, Stock, p. 18.

(8) P. Jensen, Pourquoi la société ne se laisse pas mettre en équation, Paris, Seuil, 2018.

(9)Ibid., p. 40.

(10) C. Anderson, « The End of Theory. The data deluge makes the scientific method obsolete », Wired, 23 juin 2008.

(11) S. Ben-David, P. Hrubeš, S. Moran, A. Shpilka et A. Yehudayoff, « Learnability can be undecidable », Nature Machine Intelligence, 1, 2019, pp. 44-48.

(12) F. Benoit, The Valley, Une histoire politique de la Silicon Valley, Les Arènes, 2019, pp. 81 et s.

(13) « États-Unis – Chine – Russie. Qui régnera sur internet ? », Courrier international, n° 1484, 11-17 avril 2019.

(14) E. Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, Fyp éditions, 2014, p. 18.

(15) A. Garapon et J. Lassègue, Justice digitale, op. cit., p. 57.

(16) H.A. Kissinger, « How the enlightenment ends », The Atlantic, juin 2018.

(17) E. Sadin, « Intelligence artificielle : résistons à la “main invisible automatisée” », Le Monde, 22 février 2018.

(18) Concept des sciences du comportement, vulgarisé par l’économie comportementale, issu des pratiques de design industriel qui fait valoir que des suggestions indirectes peuvent, sans forcer, influencer les motivations et les prises de décision.

(19) « Don’t be evil » de Google.

(20) Voy., à ce titre, le site internet du journal The Guardian, « The Cambridge Analytica Files », accessible sur : https://www.theguardian.com/news/series/cambridge-analytica-files – Consulté le 27 décembre 2019.

(21) P. Nemitz, « Constitutional democracy and technology in the age of artificial intelligence », Phil. Trans. R. Soc., 18 août 2018.

(22) J. Noujaim et K. Amer, « The great hack, Netflix », 27 janvier 2019 – Propos d’Alexander Nix captés à 12mn07.

(23) Déclaration de Montréal pour un développement responsable de l’IA, accessible sur : https://www.declarationmontreal-iaresponsable.com – Consulté le 27 décembre 2019.

(24) Voy. la stratégie numérique de l’IA lancée par le gouvernement français en juillet 2019 : G. MarraudDes Grottes, « Stratégie nationale pour l’intelligence artificielle : le volet économique dévoilé », Actualités du droit, Wolters Kluwer, 4 juillet 2019.

(25) Au sens de l’article 15 de la Déclaration de Rio prise dans le cadre de la Conférence des Nations unies sur l’environnement et le développement de 1992 : « En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement ».

Partie 1Les multiples définitions de l’intelligence artificielle

Si l’on s’en tient aux travaux publiés au Journal officiel français le 9 décembre 2018 de la Commission d’enrichissement de la langue française (1), « l’IA » est très précisément définie comme un « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines ». Cette définition, volontairement large, reste toutefois le reflet des arbitrages conceptuels opérés par cette commission en classant assez classiquement « l’IA » comme une branche des sciences cognitives. D’autres auraient pu être tentés de se focaliser sur les moyens de l’imitation des mécanismes de cognition et de réflexion pour arrimer plus fermement « l’IA » à l’informatique et la décrire comme étant une suite finie et non ambiguë d’opérations ou d’instructions pour traiter une tâche (2). En se restreignant à l’apprentissage machine (machine learning), « l’IA » aurait pu également être qualifiée comme une représentation d’un environnement donné par des méthodes statistiques servant à bâtir un modèle mathématique en capacité d’exécuter une tâche souhaitée. Sans oublier une caractéristique fondamentale des systèmes dits « intelligents » : la rétroaction. Une fois « entraînés » par des processus d’apprentissage statistiques et des modèles bâtis, ceux-ci sont en capacité d’ajuster leur fonctionnement en temps réel, en fonction des nouvelles données captées et sans la présence constante d’un opérateur humain (3).

Le centre commun de recherche (Joint Research Center), qui est le service scientifique interne de la Commission européenne, a publié en février 2020 un rapport intitulé « Définir l’intelligence artificielle » dans lequel il en propose une définition opérationnelle. Cette définition a pour objet de servir de cadre à l’activité de veille du service de la Commission « AI Watch (4) ». Le centre a pris comme point de départ la définition adoptée par le groupe d’experts indépendants de haut niveau sur l’intelligence artificielle (AI HLEG) pour la considérer comme une définition de base opérationnelle. Il a ensuite employé deux méthodologies complémentaires : exploitation d’un large ensemble de documents par du traitement automatique du langage naturel (natural language processing) d’une part et analyse qualitative de 55 publications majeures, produites entre 1955 et 2019, comportant des définitions de l’« IA » d’autre part. Le document de près de 90 pages propose une classification selon trois perspectives complémentaires (politique et institutionnelle, recherche et industrie) qui compose, selon les chercheurs, une vue globale de ce qu’a été, est et sera l’« IA ».

Entreprendre de définir « l’IA » est donc une tâche qui ne peut être réalisée sans céder à une certaine part de subjectivité ou, en tout cas, d’arbitrages. Il n’existe pas de définition unique admise par l’ensemble de la communauté scientifique mondiale (5) et, malgré les efforts de leurs auteurs, nombre de tentatives ne sont en réalité que le miroir d’un domaine d’expertise, voire la projection d’espoirs encore bien spéculatifs. Il est donc aisé de comprendre la confusion régnant encore dans un grand nombre de débats, qui demeurent trop souvent stériles en opposant artificiellement des gains potentiels et des risques supposés. Pour complexifier le tout, l’industrie numérique s’est emparée de ce concept pour en faire une machine de guerre marketing et vendre des produits et services avec un certain nombre de promesses, qui emportent dans leurs ADN les valeurs et la vision du monde des multinationales globalisées qui ont forgé ce marché (6). Il est donc extrêmement difficile pour un profane de parvenir à faire la part des choses, de distinguer les effets d’annonce de potentielles révolutions. Le juriste, en tout cas, restera insatisfait puisque la plupart de ces efforts de définition échouent à isoler un objet concret et singulier. Sommes-nous face à un mécanisme dont l’autonomie le singularise suffisamment pour en créer une catégorie particulière de personnalité juridique ? Ne s’agit-il que d’un assemblage immatériel constituant un produit ? Faut-il considérer une responsabilité partagée entre le propriétaire et celui qui a le contrôle effectif, comme pour un animal (7) ?

Les présents développements n’ambitionneront donc pas d’ajouter aux très nombreux essais de définition, mais d’en dresser plutôt un état des lieux, selon plusieurs axes de lecture : dans le langage courant, puis successivement selon des perspectives historique et technique, économique et sociale, philosophique et éthique, politique et juridique.

(1) Référence : NOR CTNR1832601K.

(2) En d’autres termes, un programme informatique composé d’un ou plusieurs algorithmes.

(3)The Ethics and Law of AI, Fondazione Leornardo, novembre 2019, p. 17.

(4) S. Samoili, M. López Cobo, E. Gómez, G. De Prato, F. Martínez-Plumed, B. Delipetrev, AI Watch. Defining Artificial Intelligence. Towards an operational definition and taxonomy of artificial intelligence, Publications Office of the European Union, 2020. Le rapport est consultable sur le site du centre de recherche : http://publications.jrc.ec.europa.eu/repository/handle/JRC118163 (consulté le 28 mars 2020).

(5) Ce qui a d’ailleurs conduit L. Julia, cocréateur de l’assistant vocal d’Apple « Siri », à intituler son ouvrage L’intelligence artificielle n’existe pas (First Éditions, janvier 2019).

(6) « Don’t be evil » de Google ou le programme « Digital Peace » de Microsoft par exemple.

(7) L. Mazeau, « Intelligence artificielle et responsabilité civile : le cas des logiciels d’aide à la décision en matière médicale », Revue pratique de la prospective et de l’innovation, 2018, pp. 38-43.

#1.01 | L’intelligence artificielle dans le langage courant

Les médias généralistes ne cessent de vanter les mérites potentiels des différentes applications de « l’IA » en nous promettant des applications sans cesse plus sophistiquées, à même de transformer nos vies. « L’IA » est devenue un objet global et abstrait, regroupant différentes formes d’applications informatiques et technologiques (comme la robotique), qui ont pu être qualifiées en d’autres temps de programmes, de systèmes experts, d’algorithmes, voire confondues avec ce que l’on a eu l’habitude d’appeler « nouvelles technologies de l’information et de la communication », l’analyse de grands jeux de données (big data analytics), la science des données (data science) ou même… les blockchains (!).

Ainsi employé, en vaste fourre-tout technologique, le terme peine à restituer une forme précise d’objet d’étude et prête à de multiples malentendus. Il n’est donc pas rare de le trouver dans des titres de presse, mais aussi de conférences ou de livres, afin d’accrocher et de saisir l’attention du public. On le retrouve aussi en label d’offres logicielles qui n’ont strictement rien à voir avec les promesses formulées, dont le moteur est parfois humain (1). En véritable « Turc mécanique » du XXIe siècle, des « chatbots » ont ainsi pu se révéler être des stagiaires dans des start-up, reprenant des réponses types consignées dans un fichier Word.

La puissance du phénomène est telle qu’il semble courant de penser que nous avons affaire à une révolution en recherche fondamentale, comparable à la découverte de l’électricité. Or il n’en est rien. Nous y reviendrons, mais il s’agit en réalité de la résurgence d’ambitions relativement anciennes qui ont réactivé l’idée de créer des machines mimant l’intelligence humaine par divers moyens d’automation. La recherche, qui a besoin de financement, a bien dû « vendre » des promesses à l’industrie numérique, qui a elle-même orchestré et mis en scène ces résultats afin de les commercialiser. Le succès d’AlphaGo en 2016 a été une extraordinaire opération de communication de DeepMind (rachetée par Google dès 2014) afin de démontrer les potentialités de leur moteur d’apprentissage. Avant eux, en 2011, IBM avait orchestré une confrontation de leur propre moteur, Watson, au jeu Jeopardy ! « L’IA » est ainsi devenue crédible sans réellement expliquer qu’il fallait alors un bataillon d’ingénieurs et des investissements colossaux pour bâtir une cathédrale numérique, loin de fonctionner de manière triviale. Et d’autant plus que ces résultats, dans des environnements fermés, n’étaient absolument pas à interpréter comme les prémices de premiers pas vers le nouveau Saint-Graal des chercheurs : la « singularité », c’est-à-dire une intelligence artificielle « générale » s’adaptant seule à différents contextes d’emploi.

Pour favoriser les investissements et l’achat de solutions, il a bien fallu également promouvoir cette « marque », et les médias généralistes y ont grandement contribué de manière relativement involontaire. L’institut de journalisme de l’université d’Oxford, dans une publication en décembre 2018, a révélé la manière dont les journalistes peineraient à prendre de la distance avec les discours imposés par l’industrie numérique au sujet de « l’IA » (2). Leur étude s’appuie sur l’analyse de plus de sept cent soixante articles publiés dans les six journaux majeurs du Royaume-Uni durant les huit premiers mois de l’année 2018. D’après les chercheurs d’Oxford, cette couverture a été très largement dominée par les industriels eux-mêmes (nouveaux produits, annonces et initiatives prétendument liées à de « l’IA ») avec la complicité bien involontaire d’une certaine forme de « journalisme de masse », qui a de moins en moins de spécialistes et ne parvient pas à réaliser un travail documenté, critique et approfondi. Une couverture qui présente, bien entendu, très majoritairement « l’IA » comme une solution viable pour résoudre un grand nombre de problèmes.

Il pourrait même être avancé que le concept « d’intelligence artificielle » pourrait, dans le langage courant, être assimilé à une sorte « d’idée zombie », selon la définition donnée par Johan Faerber (3). Il affirme, dans un essai sur la post-littérature, que, « pour des raisons politiques ou de prestige social, de nombreux réactionnaires veulent faire perdurer le XXe siècle au cœur du XXIe siècle qui débute, en répliquant de vieilles formes de récit sur le mode du karaoké ». La résurgence du terme « intelligence artificielle » aux alentours des années 2010, après avoir été enterré dans les années 1990, procède d’une certaine manière de cette démarche, et l’on a tenté de réenchanter une réalité technique austère avec un concept né d’un coup de force sémantique de John McCarthy, datant de 1955-1956. Coup de force qui emportait déjà avec lui une certaine perception du monde.

(1) A. Casilli, En attendant les robots – Enquête sur le travail du clic, Paris, Seuil, 2019.

(2) J. Scott Brennen, An Industry-Led Debate: How UK Media Cover Artificial Intelligence, University of Oxford, Reuters Institute for Study of Journalism, 13 décembre 2018.

(3) J. Faerber, Après la littérature, écrire le contemporain, Paris, PUF, 2018.

#1.02 | L’intelligence artificielle dans une perspective historique et technique

On ne peut réduire complètement la compréhension possible d’un phénomène tel que « l’IA » à une simple restitution chronologique des événements. Nous y reviendrons plus précisément en deuxième partie de cet ouvrage, mais il nous semble opportun de devoir également nous intéresser aux personnes qui ont insufflé dans leurs créations une certaine part de génie et, surtout, leur compréhension du monde. C’est bien en août 1955 (1) que le terme « intelligence artificielle » est formalisé la première fois dans un projet universitaire de recherche lancé, notamment, par John McCarthy et Marvin Minsky.

Deux traits essentiels, qui structurent encore la matière, sont à retenir. Le premier, qui constitue le soubassement idéologique de « l’IA », nous vient de la cybernétique et réduit la compréhension du fonctionnement du cerveau humain aux mêmes principes qu’une machine, puisque la vie elle-même s’auto-organiserait selon des lois et des règles modélisables. Il y aurait donc une analogie entre l’homme et la machine, et le système cérébral humain ne serait qu’un système, comme un autre, assimilant des informations et les codant comme le ferait un ordinateur. Dès lors, il serait théoriquement possible de faire simuler par une machine un raisonnement. Pour y parvenir, et c’est le second trait structurant la matière, deux approches techniques s’opposent. La première dite « symbolique » (ou cognitiviste) consiste à créer des mécanismes automatisés signifiants par un enchaînement d’instructions logiques voulues par un programmeur. Ainsi, McCarthy et Minsky ont construit leurs travaux en ancrant tout traitement de l’information à des processus physiques. Ils n’ont cessé de mépriser une seconde approche, dite « connexionniste », qui pressentait qu’il était possible de modéliser les règles de fonctionnement d’un environnement donné par la recherche automatique de liens entre des informations collectées dans cet environnement (2). En d’autres termes, les machines connexionnistes, inspirées de la physique même du cerveau, induisent automatiquement des constantes (des règles) par l’examen d’une série de données avec une intervention radicalement différente du concepteur, qui guide la machine dans une forme de découverte (ce que l’on qualifie d’apprentissage) plutôt que de lui décrire par une suite d’instructions le comportement à réaliser.

Il doit être relevé les postulats propres à chacune de ces approches, qui témoignent toutes deux d’une conception très simplificatrice de l’intelligence. Si les symboliques l’imaginent comme pouvant être réduite à de la logique et les connexionnistes à de la physique, les uns comme les autres ne la conçoivent qu’en tant que caractéristique individuelle. Or l’intelligence naît également de l’interaction entre les individus et de ce qu’ils partagent au travers de la langue ou des expériences. Limiter l’intelligence à un présupposé individualiste, c’est ignorer que le sens naît du partage de concepts : à titre d’exemple, un système juridique n’existe pas de son propre fait, mais parce qu’il est partagé et reconnu comme tel par une entière communauté.

Pour en revenir aux approches symboliques et connexionnistes, elles disposent comme point commun d’un même support (l’informatique) et ont alterné leur domination dans la communauté scientifique.

Fig. 1 : 1970-1990 Les systèmes experts (approche symbolique ou cognitiviste)

Fig. 2 : 2010 - …L’apprentissage automatique (approche connexionniste)

Entre 1970 et 1990, le terme « IA » a été la quasi-exclusivité des travaux « symboliques » et, par un étrange revirement de l’histoire, s’est retrouvé confisqué depuis 2010 par leurs challengers « connexionnistes », qui ont réussi à démontrer l’efficacité de leurs algorithmes d’apprentissage statistique dans un grand nombre d’applications, comme la reconnaissance d’images ou de son. Nous y reviendrons, mais il peut d’ores et déjà être souligné que ce changement de paradigme ne trouve pas sa source dans une découverte en recherche fondamentale, mais a été rendu possible par l’augmentation exponentielle de données disponibles (big data) et l’amélioration des performances de calcul des processeurs graphiques (GPU), qui ont permis d’exprimer pour un coût d’exploitation extrêmement faible (1 000 euros par carte graphique) les pleines potentialités des différentes familles d’algorithmes dits d’apprentissage automatique (machine learning), dont ceux d’apprentissage profond (ou deep learning) avec leurs réseaux de neurones. Parmi tous, trois chercheurs, distingués par le prix Turing en mars 2019, ont joué un rôle déterminant dans cette résurgence du connexionnisme : Geoffrey Hinton, Yann LeCun et Yoshua Bengio (3).

Au sens large, « l’IA » recouvre donc formellement ces deux familles qui ont chacune connu leurs heures de gloire. Dans un sens plus étroit, il doit être gardé à l’esprit que « l’IA » qualifie plutôt aujourd’hui les algorithmes d’apprentissage automatique.

Sur un plan purement technique, nombre de systèmes s’avèrent en réalité hybrides, des « briques » d’apprentissage automatique venant compléter de la programmation procédurale. Pour en appréhender la réelle nature, nous pourrions donc simplement repartir d’un fait constant : nous assistons à une révolution rendue possible par une technologie précise, l’informatique, qui met en œuvre des systèmes computationnels (les ordinateurs) en capacité de traiter automatiquement de l’information par l’exécution de programmes avec des procédés algorithmiques (4). Le terme a eu beau être habillé (nous pourrions même dire maquillé) par le marketing tout au long des décennies, la réalité reste avant tout celle-ci. Il y aurait donc certainement un très grand bénéfice à qualifier les objets techniques par les termes précis les désignant, même s’ils semblent passés de mode, sans se laisser distraire par un attirail de terminologie anthropomorphique (intelligence, apprentissage, neurone) prêtant à confusion. Yann LeCun, que l’on ne peut soupçonner d’être défavorable à la logique « connexionniste », nous avertit bien que les neurones formels de l’apprentissage profond (deep learning) sont aussi comparables à des neurones biologiques que l’aile d’un avion est proche d’une aile d’oiseau (5).

C’est donc bien sur ces fameux algorithmes qu’il faudrait se concentrer pour appréhender de manière globale l’ensemble de la réalité de la transformation numérique. Ils sont au cœur du fonctionnement de tous les types d’automatisation (symbolique ou connexionniste) et présentent une limite commune, intrinsèque à leur formalisme logique et mathématique : d’extraordinaires performances dans des environnements fermés, où les différents éléments ont des relations stables entre eux (jeu d’échecs ou de go), et des résultats bien plus modestes dans des environnements ouverts où les relations sont difficiles à encapsuler dans des séries de paramètres non ambigus (comme des faits sociaux ou des routes ouvertes pour nos véhicules automobiles). Si ces deux approches, venant de la cybernétique, ambitionnent bien de reproduire l’entière cognition humaine en créant une « intelligence artificielle générale » auto-adaptative, elles restent bien incapables de modéliser la complexité du monde. Nous pouvons à nouveau citer Yann LeCun à cet effet, qui rappelle souvent que nos développements actuels n’ouvrent pas nécessairement les portes de cette « IA générale » et que les chercheurs continuent de se heurter à une bonne représentation du monde, qui est une question « fondamentale scientifique et mathématique, pas une question de technologie (6) ». Il ajoute que la complexité de la modélisation du cerveau humain pour reproduire son fonctionnement a toujours été sous-estimée, certains ayant cru pouvoir la réduire à « 10 millions de règles (7) », et que les progrès des recherches sont moins importants que ceux auxquels on s’attendait. Il estime qu’il faudrait délaisser la course à la performance technologique pour se recentrer sur les sujets fondamentaux que sont l’intelligence, le sens commun ou encore l’apprentissage.

On voit donc que l’approche quasi naturaliste du connexionnisme, actuellement en vogue, et qui prétend révéler les règles cachées régissant le monde par un traitement massif de données et d’information, emprunte en réalité les forces et faiblesses à son moteur mathématique et statistique. Loin de reproduire un raisonnement humain, elle tente de le mimer en espérant qu’en réunissant un nombre suffisant d’observations pour un environnement donné, on arrivera à en reproduire les caractéristiques avec une probabilité suffisante. Certains, comme Chris Anderson – fondateur du magazine Wired, ont même cru pouvoir prophétiser en 2008 la fin de théorie scientifique et déclarer obsolète toute méthode s’appuyant sur des observations objectives reproductibles et des raisonnements rigoureux (8)