Intelligence artificielle - Fondation Prospective et Innovation - E-Book

Intelligence artificielle E-Book

Fondation Prospective et Innovation

0,0

Beschreibung

Aujourd’hui, l’intelligence artificielle et les technologies qui lui sont liées – internet, les semi-conducteurs, les données, les réseaux mobiles 5G, l’informatique quantique – se développent à grande vitesse. Elles prennent chaque jour davantage d’importance dans notre vie quotidienne et dans nos calculs d’avenir. Elles font figure à bien des égards de « nouvelle frontière » de l’humanité et de champ de bataille privilégié de la compétition pour la prééminence internationale. La Fondation Prospective et Innovation a souhaité consacrer à ce sujet essentiel plusieurs réunions de réflexion avec divers spécialistes français et étrangers. C’est sur cette base que le présent ouvrage a été rédigé. Il s’efforce de décrire de manière simple et équilibrée les différents enjeux de l’intelligence artificielle, qui relèvent aussi bien de l’économie que du social, de la géopolitique que de la morale et, au bout du compte, de la politique tout court.

Stephen Hawking disait que l’intelligence artificielle serait la plus grande création de l’humanité mais que, si nous n’y prenions garde, elle pourrait être sa dernière. À nous d’être attentifs et vigilants pour que cette création de l’humanité ne bouche pas l’horizon mais en ouvre de nouveaux.

À PROPOS DE L'AUTEUR

La Fondation Prospective et Innovation - Créée en 1989 par René MONORY, ancien Président du Sénat et ancien ministre, et François DALLE, ancien Président de l’Oréal, reconnue d’utilité publique, la Fondation est aujourd’hui présidée par Jean-Pierre RAFFARIN, ancien Premier Ministre, Membre honoraire du Parlement.
Elle a pour objet de favoriser une prise de conscience et une réflexion prospective sur les transformations du monde contemporain, afin d’aider nos concitoyens à entrer activement dans l’avenir avec lucidité plutôt que d’y être entraînés, en repérant notamment les innovations et les émergences qui transforment notre monde en permanence.
Elle s’efforce d’apporter aux décideurs français un éclairage international sur des sujets stratégiques.
Elle réunit à cet effet spécialistes et responsables d’entreprises, intellectuels et décideurs politiques, dans des cadres de travail appropriés à une recherche sans préjugés menant à des propositions utiles.
Son action se concentre sur trois domaines prioritaires :
– comprendre et apprécier la réalité des émergences, et tout spécialement celle de la Chine,
– stimuler la compétitivité en éclairant notamment les chefs d’entreprises,
– participer à la conception d’une nouvelle gouvernance mondiale, nationale et locale, adaptée aux formes nouvelles d’expression populaire comme aux besoins d’un pilotage stratégique à long terme

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 119

Veröffentlichungsjahr: 2021

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Préface deJEAN-PIERRE RAFFARINAncien Premier Ministre

Intelligence artificielle

FONDATION PROSPECTIVE ET INNOVATION

GINKGOéditeur

 

Couverture : DR

Maquette : David Dumand

 

© Fondation Prospective et Innovation, janvier 2021

© Ginkgo Éditeur pour la présente édition

ISBN : 978 2 84679 475 6

 

Ginkgo Éditeur

33, boulevard Arago

75013 Paris

www.ginkgo-editeur.fr

 

La Fondation Prospective et Innovation

 

Créée en 1989 par René MONORY, ancien Président du Sénat et ancien ministre, et François DALLE, ancien Président de l’Oréal, reconnue d’utilité publique, la Fondation est aujourd’hui présidée par Jean-Pierre RAFFARIN, ancien Premier Ministre, Membre honoraire du Parlement.

Elle a pour objet de favoriser une prise de conscience et une réflexion prospective sur les transformations du monde contemporain, afin d’aider nos concitoyens à entrer activement dans l’avenir avec lucidité plutôt que d’y être entraînés, en repérant notamment les innovations et les émergences qui transforment notre monde en permanence.

Elle s’efforce d’apporter aux décideurs français un éclairage international sur des sujets stratégiques.

Elle réunit à cet effet spécialistes et responsables d’entreprises, intellectuels et décideurs politiques, dans des cadres de travail appropriés à une recherche sans préjugés menant à des propositions utiles.

Son action se concentre sur trois domaines prioritaires :

– comprendre et apprécier la réalité des émergences, et tout spécialement celle de la Chine,

– stimuler la compétitivité en éclairant notamment les chefs d’entreprises,

– participer à la conception d’une nouvelle gouvernance mondiale, nationale et locale, adaptée aux formes nouvelles d’expression populaire comme aux besoins d’un pilotage stratégique à long terme.

 

La Fondation rend publics ses travaux

à travers des publications et un site internet,

www.prospective-innovation.org

 

Fondation Prospective et Innovation

63 avenue de Suffren – 75007 Paris FRANCE

Téléphone : 01 53 85 84 01 – Fax : 01 53 85 84 09

 

Table des matières

Préface, par Jean-Pierre RAFFARIN

CHAPITRE I. De quoi parle-t-on ?

CHAPITRE II. Un monde enchanté

CHAPITRE III. L’autre versant de l’intelligence artificielle

CHAPITRE IV. La géopolitique de l’intelligence artificielle

CHAPITRE V. Forces et faiblesses de l’Europe

CHAPITRE VI. Que faire ?

En guise de conclusion

PRÉFACE

 

par Jean-Pierre RAFFARIN,

Ancien Premier ministre,

membre honoraire du Parlement

 

Dans l’histoire de la grande aventure humaine, la fin du XVIIIe siècle marque un tournant. Ce n’est pas seulement celui du mouvement des Lumières et de la Révolution Française mais c’est aussi celui de l’utilisation de la machine à vapeur qui a commencé à se généraliser à ce moment-là : mise au point par Denis Papin puis James Watt et leurs suiveurs, cette invention a modifié en profondeur le rapport de l’homme à la nature. Depuis la fin du XIXesiècle, plusieurs révolutions techniques se sont succédé : l’électricité, l’atome, l’ordinateur, l’internet... Nous sommes maintenant au début d’une nouvelle révolution de très grande ampleur : celle de l’intelligence artificielle qui pourrait bien, une nouvelle fois, bousculer l’organisation même de nos sociétés.

Cette nouvelle révolution se situe dans le prolongement du développement de l’informatique. Mais si nous sommes maintenant tout à fait familiarisés avec le maniement des i-phones et des ordis qui sont entrés dans notre vie quotidienne, nous le sommes en général beaucoup moins avec le hardware et plus encore le software sur lesquels repose leur fonctionnement et qui restent d’insondables mystères pour la plupart de nos contemporains. Que dire alors de l’intelligence artificielle ? Longtemps confinée à un tout petit cercle d’initiés de la Silicon Valley, elle a été propulsée inopinément sur la place publique dans les toutes dernières années et on la désigne déjà pour y jouer le premier rôle. En gros, elle est supposée faire faire un pas de géant à nos capacités, améliorer de mille manières le confort de nos existences, et même repousser, sans limite d’âge vraiment définie, notre espérance de vivre en bonne santé. Mais au-delà de ces perspectives en effet vraisemblables, charlatans et prophètes de malheur ou de bonheur s’en donnent à cœur joie pour nous promettre tantôt le paradis sur terre, tantôt les pires calamités.

Devant cette confusion, la Fondation Prospective et Innovation a souhaité consacrer à ce sujet essentiel plusieurs réunions de réflexion avec divers spécialistes français et étrangers. C’est sur cette base que le présent ouvrage a été rédigé. Il s’efforce de décrire de manière simple et équilibrée les différents enjeux de l’intelligence artificielle, qui relèvent aussi bien de l’économie que du social, de la géopolitique que de la morale et, au bout du compte, de la politique tout court.

Le génial astrophysicien Stephen Hawking aimait à dire que l’intelligence de l’homme, c’est sa capacité à s’adapter aux changements, à les connaître, les anticiper et à en tirer profit. L’intelligence numérique est un formidable facteur de changement, de bouleversement dans tous les domaines, des plus inoffensifs aux plus dangereux. L’adaptation et la mise au service d’une humanité désireuse de vivre dans le mieux-être et la paix, deviennent plus que jamais impératives. Stephen Hawking disait que l’intelligence artificielle serait la plus grande création de l’humanité mais que, si nous n’y prenions garde, elle pourrait être sa dernière.

À nous d’être attentifs et vigilants pour que cette création de l’humanité ne bouche pas l’horizon mais en ouvre de nouveaux.

 

JEAN-PIERRE RAFFARIN

Ancien Premier ministre

Président de la Fondation Prospective et Innovation

CHAPITRE I

 

De quoi parle-t-on ?

 

Woody Allen a naguère défini l’intelligence artificielle comme « le contraire de la bêtise naturelle ». C’est amusant mais peut-être insuffisamment éclairant pour se faire une idée de ce que recouvre ce concept. Si l’on veut une explication plus utile, force est de se tourner vers une source moins riante mais, à vrai dire, beaucoup plus riche : le rapport sur l’AI que la commission présidée par Cédric Villani a remis au Premier Ministre. Elle observe que l’expression « intelligence artificielle » désigne « moins un champ de recherche bien défini qu’un programme fondé autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain ». C’est dire qu’elle ne désigne pas une discipline constituée mais se réfère plutôt à un objectif auquel concourent diverses disciplines telles que la neurobiologie, la logique mathématique et l’informatique. C’est dire aussi que la notion d’intelligence artificielle ne recouvre rien de précis ; loin d’être fixe, son contenu évolue en fonction des progrès mêmes de la science. Les limites de ce que l’on croit ne pouvoir être fait que par des humains sont constamment repoussées. Elle caracole en éclaireur, au gré de nos imaginations et de nos aspirations. Il n’est donc pas étonnant qu’elle se situe aux marges de la science-fiction : elle participe des phantasmes qui accompagnent les plus vieux rêves de l’humanité. Mais en réalité, il faut garder à l’esprit que toute la « com » sur les performances de l’IA vient du besoin des start-up et des éditeurs de logiciels de vendre leurs produits. Dès qu’on lit la littérature scientifique, les choses sont grandement relativisées.

 

Les différentes catégories d’intelligence artificielle

 

Les spécialistes distinguent toutes sortes d’intelligence artificielle selon leurs propres critères. En prenant la matière dans son sens le plus large, on peut distinguer trois catégories : l’IA étroite, l’IA générale et la sur-intelligence artificielle. En fait, sur ces trois catégories, c’est seulement la première qui nous importe en pratique car tous les systèmes qui en relèvent ont pour caractéristique commune d’effectuer la tâche pour laquelle ils ont été programmés et rien de plus. Les deux autres catégories, quant à elles, en sont encore au stade de la science-fiction ou en tout cas de l’objectif à (très ?) long terme. L’IA dite générale désigne la capacité d’un système à apprendre, à percevoir, à comprendre, à improviser et à fonctionner complètement comme un être humain. À l’avenir, les systèmes de ce type devraient être capables de développer chacun plusieurs compétences et de créer des connexions et des généralisations dans tous les domaines. Cette capacité est supposée rendre, le moment venu, les systèmes d’intelligence artificielle aussi performants que les humains en reproduisant nos capacités multifonctionnelles. Quant à la troisième catégorie, la sur-intelligence artificielle, elle se veut l’aboutissement ultime de la recherche sur l’AI. On imagine qu’elle devrait pouvoir reproduire l’intelligence multiforme de l’être humain en la dotant, en plus, d’une mémoire considérablement accrue et de capacités d’analyses accélérées.

Pour en revenir à l’IA étroite, celle qui est opérationnelle actuellement et donc la seule à laquelle s’intéressera ce court essai, on peut encore distinguer deux stades. Le premier concerne les machines purement réactives, celles qui imitent la capacité de l’esprit humain à répondre à différents types de stimuli mais n’ont pas de fonctionnalité basée sur la mémoire. Elles n’ont donc pas la possibilité de tirer la leçon d’expériences acquises précédemment pour perfectionner leurs actions actuelles. Même ainsi limitées, elles sont capables de rendre des services non négligeables : c’est une machine à réactif de la classe I qui a battu aux échecs Garry Kasparov en 1997.

Le deuxième stade est celui des machines dites à mémoire. Ces machines ajoutent à leurs homologues du premier stade une capacité supplémentaire de première importance : celle de tirer des leçons des données historiques qu’elles ont mémorisées de façon à pouvoir prendre des décisions. Presque toutes les applications existantes que nous connaissons appartiennent à ce deuxième stade. Ces systèmes ont pour caractéristique de recourir à ce qu’on appelle l’apprentissage profond.

 

L’apprentissage profond

 

L’apprentissage profond est la technique qui a permis à l’intelligence artificielle de décoller véritablement. C’est dès le milieu des années cinquante que l’on a commencé à parler d’intelligence artificielle mais son développement s’est opéré en dents de scie, par embardées successives, en fonction des découvertes technologiques qui se révélaient utilement applicables à la matière. Il y a une petite dizaine d’années, plusieurs percées de ce type sont intervenues simultanément et lui ont donné un nouveau coup d’accélérateur. Ce sont en réalité trois innovations indépendantes qui sont arrivées à maturité à peu près en même temps et qui ont permis le développement de ce que l’on a appelé le deep learning, « l’apprentissage profond ».

L’apprentissage profond consiste, pour une machine équipée d’une série de neurones artificiels, à reconnaître un élément du monde extérieur à partir d’un très grand nombre de données qui lui sont fournies. En fonction du sujet qu’il s’agit d’étudier, les données sont sélectionnées et l’algorithme propre à les traiter est défini. La machine passe en revue les milliers voire les millions ou même les centaines de millions de données en question et, à mesure qu’elle les analyse, affine progressivement sa connaissance du sujet. À la fin du processus, elle devient capable de reconnaître ledit sujet avec une précision – un taux de réussite – qui croît en fonction du nombre de données qui lui sont fournies. Il faut donc disposer de données aussi nombreuses que possible sur le sujet à étudier et, qui plus est, de données « étiquetées », c’est-à-dire corrélées à un résultat spécifique.

On avait conçu la technique dès la fin du siècle dernier (le vingtième) mais il manquait les instruments capables de la mettre en œuvre. Car ces océans de données, il faut pouvoir les traiter dans des délais compatibles avec la décision à prendre. Cela n’a été possible qu’à partir du moment où des ordinateurs superpuissants sont apparus sur le marché, c’est-à-dire très récemment. D’autre part, il faut des machines disposant d’un réseau de neurones suffisamment étoffé pour interpréter aussi finement que nécessaire les données qui leur sont fournies : un équipement qui, ici encore, n’est disponible que depuis peu. En tout cas, lorsque ces deux conditions techniques ont été réunies, au début de la décennie 2010, l’intelligence artificielle a brusquement gagné en efficacité avec des taux d’échecs qui se sont significativement réduits. C’est cet ensemble de circonstances qui a créé une situation radicalement nouvelle : alors que l’intelligence artificielle passait jusque-là pour un objectif intéressant mais qui n’était décidément pas au point, pour tout dire un gadget pour crâne d’œuf, elle s’est subitement imposée, grâce à l’apprentissage profond, comme un instrument miracle, susceptible de rendre d’immenses services dans quantité de domaines.

 

Le big data, la machine et l’algorithme

 

Les données sont donc la matière première indispensable de l’intelligence artificielle. La collecte massive de données conditionne la qualité de l’observation, donc de la fiabilité de la solution proposée. Comme le dit un praticien de l’IA, « les meilleures données sont les données supplémentaires ». Mais si la donnée brute est nécessaire, elle ne prend toute sa valeur qu’une fois qu’elle a été « étiquetée » c’est-à-dire structurée, annotée et mise à jour de façon à véhiculer des informations valorisables par l’apprentissage profond. C’est déjà le cas pour d’innombrables dossiers de prêts bancaires, de compagnies d’assurance ou d’hôpitaux. Des corpus relevant du domaine public peuvent permettre d’en constituer : chaque fois qu’on clique sur Google, on enrichit le stock de données de l’entreprise. Le rapport Villani cite aussi les textes multilingues des organisations internationales qui sont utilisés pour améliorer les outils de traduction automatique. Dans le cas contraire, il faut enrichir et annoter les jeux de données brutes : opération ô combien fastidieuse et coûteuse, souvent externalisée à des entreprises spécialisées. Car les ordres de grandeur dont il s’agit sont monstrueux : au total, la production quotidienne des réseaux sociaux se mesure en dizaine de téra-octets (10 puissance 12) et on estime au chiffre astronomique de 40 zettaoctets (10 puissance 21) le nombre de données numériques qui seront créées dans le monde au cours de l’année 2020.

Cette matière première, une fois rendue utilisable (données étiquetées), est alors introduite dans une machine dotée d’un réseau neuronal artificiel, sorte de structure inspirée du cerveau humain : ce réseau neuronal consiste essentiellement en de nombreux composants qui traitent les données différemment et se les envoient les uns aux autres, avant de parvenir à une décision. Le réseau neuronal se souvient des connaissances qu’il a tirées de chaque processus décisionnel et les applique lors de ses évaluations suivantes. Il devient donc de plus en plus performant.

Le bon fonctionnement de la machine suppose qu’elle ait les instructions appropriées. Un algorithme d’apprentissage profond lui est appliqué pour lui apprendre automatiquement à extraire une représentation utile des entrées de façon à ce qu’elle en tire ses propres conclusions. Mais, comme le dit le Conseil National du Numérique (dans le rapport de France Stratégie sur l’IA), « la valeur créée par l’intelligence artificielle provient des données nécessaires à l’apprentissage bien plus que de l’algorithme, dont les développements se font de manière ouverte, en open source. C’est la raison pour laquelle les organisations doivent prendre conscience de l’importance stratégique des données qu’elles détiennent ».

 

De vastes domaines d’application