Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Une réflexion relative à la part de réalité dans les modèles scientifiques
Les rencontres « Physique et interrogations fondamentales » (PIF) sont l’occasion pour des scientifiques de formations très différentes de confronter leurs points de vue sur un thème lié aux grandes questions de la science contemporaine. Elles se situent à un niveau permettant à un public cultivé mais non spécialisé de suivre les exposés. Elles se tiennent tous les deux ans dans le grand amphithéâtre du site François Mitterrand de la Bibliothèque nationale de France qui les coorganise avec la Société française de physique. La onzième édition de PIF a été consacrée à une mise au point sur les modèles et les simulations, omniprésents dans la pratique des sciences et techniques contemporaines comme le démontre l’éventail des contributions ici rassemblées. Alors qu’idéalement la méthode scientifique confronte théories et expériences qui s’adressent directement à l’objet étudié, les modèles complètent souvent une théorie inachevée, voire remplacent une théorie inexistante et décrivent tout ce qui est considéré comme bien connu dans un dispositif expérimental donné, pour ne laisser indéterminé que ce qui se rapporte à la question posée. La question de la part de réalité que ces modèles englobent est donc fondamentale. La simulation, qui est la méthode de choix pour résoudre des modèles trop complexes pour se prêter à un calcul exact, constitue, d’une certaine façon, une modélisation au second degré dont l’adéquation doit elle aussi être soigneusement mise à l’épreuve.
Découvrez le recueil des contributions scientifiques issues de la onzième édition de PIF, centrée sur le thème des modèles et des simulations scientifiques.
EXTRAIT
Il est rare aujourd’hui de visiter un laboratoire ou un bureau d’études sans voir des chercheurs et des ingénieurs s’affairant autour de modèles ou de simulations. À tel point que l’on peut se demander, dans certains cas, ce qu’est devenu le réel. Notamment, on peut se demander ce qu’est devenue la pratique expérimentale réelle et si elle a trouvé des substituts adéquats dans les modèles et les simulations. On se doute que la réponse sera fortement nuancée. Ainsi, on peut se poser la question : n’a-t-on pas excessivement congédié le réel pour lui préférer ce qui passe le plus souvent pour sa représentation ou sa copie, à savoir le modèle ou la simulation ?
À PROPOS DES AUTEURS
Sous la direction de
Jean-Michel Levy, physicien au Laboratoire de physique nucléaire et des hautes énergies, unité mixte de recherche des universités Paris VI, Paris VII et du CNRS, différents auteurs ont collaboré à
Les modèles, possibilités et limites : Pascale Braconnot, Daniel Estévez, Philippe Huneman, Valérie Masson-Delmotte, François Sauvageot, Michel Spiro, Romain Teyssier et Franck Varenne.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 256
Veröffentlichungsjahr: 2018
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Les rencontres « Physique et interrogations fondamentales » (PIF) sont l’occasion pour des scientifiques de formations très différentes, de confronter leurs points de vue sur un thème lié aux grandes questions de la science contemporaine. Elles se situent à un niveau permettant à un public cultivé mais non spécialisé de suivre les exposés. Elles se tiennent tous les deux ans dans le grand amphithéâtre du site François Mitterrand de la Bibliothèque nationale de France qui les coorganise avec la Société française de physique. La onzième édition de PIF a été consacrée à une mise au point sur les modèles et les simulations, omniprésents dans la pratique des sciences et techniques contemporaines comme le démontre l’éventail des contributions ici rassemblées. Alors qu’idéalement la méthode scientifique confronte théories et expériences qui s’adressent directement à l’objet étudié, les modèles complètent souvent une théorie inachevée, voire remplacent une théorie inexistante et décrivent tout ce qui est considéré comme bien connu dans un dispositif expérimental donné, pour ne laisser indéterminé que ce qui se rapporte à la question posée.
Les modèles, possibilités et limites. Jusqu’où va le réel ?
(Jean-Michel Levy)
Chapitre 1. Épistémologie des modèles et des simulations : tour d’horizon et tendances
(Franck Varenne)
1 -
Omniprésence, diversité, perplexité
2 -
Les modèles : un bref historique
3 -
Les modèles : état des lieux
4 -
Les épistémologies des modèles
5 -
Les simulations
Chapitre 2. Simuler les grandes structures de l’univers
(Romain Teyssier)
Chapitre 3. Au-delà du réel : modélisation et prédiction
(François Sauvageot)
1 -
Monde mental, monde platonicien, monde physique
2 -
Ponts mathématiques
3 -
Polysémie et sous-détermination
4 -
Expertise et contre-expertise
5 -
Les mathématiques au-delà du réel
Chapitre 4. Évolution du climat, modélisation, incertitudes
(Pascale Braconnot et Valérie Masson-Delmotte)
1 -
Observer et modéliser le système climatique et ses variations
2 -
La réponse du système à une perturbation radiative
3 -
Cycle hydrologique et fonte du Groenland
4 -
Couplage entre le climat et le cycle du carbone
Chapitre 5. Dialogue entre maquette et modèle en architecture
(Daniel Estévez)
1 -
Alberti et la maquette comme modèle expérimental
2 -
Maquettes proliférantes, représentations en série
3 -
Les maquettes informatiques sont des modèles transparents
4 -
Et dans le même geste, construire, représenter et concevoir
5 -
Le bricolage des modèles de la perception-conception
Chapitre 6. Quand un modèle devient standard
(Michel Spiro)
1 -
Physique des particules
2 -
La cosmologie
3 -
Conclusions
Chapitre 7. Biologie évolutionniste, vie artificielle et algorithmes : sur l’épistémologie des modèles computationnels
(Philippe Huneman et Antoine Ermakoff)
1 -
Typologie des études algorithmiques évolutionnistes
2 -
Sélection naturelle et purs processus possibles
3 -
Le problème de la validation : la variété des processus dans les simulations et leur articulation avec la biologie évolutionniste
4 -
Le problème du gradualisme et les simulations informatiques
5 -
Conclusion
Membre du comité d’organisation des rencontres « Physique et interrogations fondamentales », Jean-Michel Levy est physicien au Laboratoire de physique nucléaire et des hautes énergies, unité mixte de recherche des universités Paris VI, Paris VII et du CNRS (IN2P3). Ses travaux actuels portent sur les oscillations des neutrinos.
Depuis 1993, la Société française de physique organise, avec une périodicité desormais fixée à deux ans, un colloque d’un jour destiné à un public de non-spécialistes cultivés intitulé « Physique et interrogations fondamentales » (PIF). Le programme se lit dans l’intitulé. La physique est considérée comme le socle le plus solide sur lequel construire une image du monde, mais elle n’a pas réponse à tout et ces journées font largement appel à des spécialistes d’autres disciplines pour appréhender les questions posées et tâcher d’y répondre. La Bibliothèque nationale de France s’est associée à ce programme depuis l’an 2000 et les journées PIF se tiennent régulièrement dans le grand auditorium du site François Mitterand [1] .
Devant la difficulté de les publier, nous n’avons plus demandé de versions écrites aux conférenciers depuis PIF 11. Sur la suggestion d’un de nos auteurs, nous avons donc fait le choix des Éditions Matériologiques pour rattraper un peu notre passif en commençant par le dernier des colloques pour lesquels nous avons des versions écrites complètes.
Le colloque PIF 11, qui s’est déroulé le 10 décembre 2008 et qui fut ouvert par les paroles de bienvenue de Jacqueline Sanson, directrice générale de la BNF, avait pour thème les modèles et la modélisation [2] . Comme il est de tradition dans ces rencontres, les interventions sont allées bien au-delà des frontières de la physique et ont traité de domaines, et donc d’utilisations et de pratiques de la modélisation, extrêmement différents. Pour visualiser, comprendre ou simplifier d’abord et pour agir, prédire ou modifier ensuite, cette dernière a été utilisée depuis l’Antiquité, si l’on veut bien considérer qu’une maquette d’architecte constitue elle aussi un modèle. De ce fait, le champ des exposés possibles était pratiquement infini et il a fallu faire des choix. Nonobstant cette nécessité, les titres retenus sont allés, comme on va le voir, de la cosmologie à l’architecture [3] .
&&&&&&
L’analyse de Franck Varenne (philosophe des sciences, Université de Rouen et GEMASS, UMR 8598/CNRS/Paris Sorbonne) [4] , intitulé « Épistémologie des modèles et des simulations : tour d’horizon et tendances » constitue une belle entrée en matière qui permet, en particulier, de prendre la mesure d’une pratique – ou plutôt d’une approche, tant les pratiques sont variées – qui est utilisée maintenant dans de nombreux domaines de l’activité humaine. Après un bref historique faisant remonter la notion moderne de modèle à Faraday, Maxwell et Boltzmann, Franck Varenne s’attache à en établir une typologie, davantage fondée sur ce qui leur est demandé et la manière dont ils sont utilisés, que sur les moyens utilisés par les « modéliseurs ». Il est ainsi conduit à distinguer pas moins de vingt fonctions des modèles, sans parler des simulations. Il montre comment ces dernières, qui intervinrent initialement en tant qu’outils permettant d’utiliser pratiquement des modèles complexes, ont acquis une existence propre au point qu’aujourd’hui, par un étrange renversement des rôles, certaines simulations nécessitent elles-mêmes des modèles pour être bien comprises et interprétées. Il insiste aussi sur le fait qu’il n’existe pas une épistémologie unique des modèles et que les prises de position visant à qualifier et à juger la pratique de la modélisation de façon globale sont nécessairement réductrices et erronées.
Cette ouverture est suivie par un texte de Romain Teyssier (astrophysicien, CEA, Institut de recherche sur les lois fondamentales de l’Univers, service d’astrophysique) [5] sur l’utilisation des modèles et de la simulation en cosmologie, en particulier pour décrire la formation des grandes structures de l’Univers. Seules des simulations numériques très lourdes permettent de confronter le modèle fondé sur l’instabilité gravitationnelle de la matière noire froide aux grands traits de l’Univers où nous vivons. Elles sont soumises à deux exigences contradictoires qui sont d’une part, la nécessité de discrétiser l’espace et le temps le plus finement possible, et d’autre part, celle de considérer simultanément une très grande variété d’échelles. Romain Teyssier décrit certaines de ces « aventures numériques », insistant sur le fait que les ordinateurs utilisés sont des instruments d’observation scientifique considérables, au même titre que les grands télescopes ou les grands accélérateurs.
Vient ensuite un essai de François Sauvageot (chargé de mission au CNRS, communication en mathématiques) [6] sur la modélisation mathématique [7] qu’il situe au-delà du réel du fait de la multiplicité des modèles, des instruments et des interprétations. Il s’interroge sur la « déraisonnable efficacité des mathématiques », sur la valeur explicative des modèles et sur l’étrange possibilité de prédire sans expliquer, mais insiste sur le fait que, quel que soit le rapport des mathématiques au réel, la croyance en ce rapport joue un grand rôle comme moteur et catalyseur de la recherche en de nombreux domaines. La multiplicité des modèles, leurs contradictions parfois l’amènent à insister sur le caractère expérimental et polysémique des mathématiques qui autorise des développements dans des directions parfaitement opposées mais « collant » néanmoins « asymptotiquement » au réel.
L’après-midi du colloque s’ouvre par un exposé en duo de Pascale Braconnot (climatologue, Laboratoire des sciences du climat et de l’environnement, CEA-CNRS-UVSQ/IPSL) [8] et Valérie Masson-Delmotte (idem) [9] sur l’évolution du climat. La grande variété des phénomènes en jeu et la très grande hétérogénéité des échelles d’espace et de temps qui devraient être prises en compte pour une modélisation complète rendent ce problème capital extrêmement difficile à attaquer. Les difficultés bien connues des prévisions météorologiques à court ou moyen terme ne donnent qu’une faible idée de celles que pose une question qui met nécessairement en jeu l’ensemble de l’atmosphère, des océans et de la couverture végétale du globe. Une vingtaine de modèles sont mis à contribution par les membres du GIEC ; cependant, l’examen des réponses prédites du « système Terre » aux différents forçages imposés montre une certaine cohérence et décrit en moyenne les observations.
Les forçages dont il est question sont d’une part, les réponses aux variations de certains paramètres, en particulier, ceux de l’orbite terrestre, pour rendre compte des périodes glaciaires du passé et d’autre part, l’augmentation anthropogénique récente de la concentration atmosphérique en gaz à effet de serre pour expliquer le réchauffement climatique. La nécessité, ici, de faire des prédictions à la fois à court et à long terme pour guider des choix politiques parfois urgents rend le problème encore plus difficile et nécessite que le travail soit distribué entre de très nombreuses équipes.
Dans un genre très différent et très rafraîchissant après des exposés faisant appel à la « simulation lourde », Daniel Estévez (architecte, Laboratoire Li2a, École nationale supérieure d’architecture de Toulouse) [10] introduit ensuite le lecteur à l’utilisation des modèles et des maquettes en architecture. Son exposé s’appuie au départ sur les écrits de Leon Battista Alberti, humaniste et architecte de la Renaissance, qui explique très clairement sa façon de concevoir l’usage de la maquette comme celui d’un instrument permettant de guider et contrôler la construction, mais aussi d’un modèle qui permet d’évaluer l’œuvre à venir, d’envisager des ajouts ou des modifications, de remettre les choses à plat et d’innover en explorant tout le terrain des possibles. Il en résulte qu’en tant qu’instrument de travail de l’architecte, la maquette est multiple et parfois très dépouillée, selon l’usage qu’on veut en faire. Elle est donc tout le contraire d’un modèle réduit fignolé ; loin de diminuer, son utilisation contemporaine va au-delà de celle que lui réservait Alberti.
Michel Spiro (physicien des particules, Institut national de physique nucléaire et de physique des particules, CNRS) [11] décline ensuite la notion de « modèle standard », compris comme le modèle qui fait consensus parmi les spécialistes d’un domaine spécifique. Il fait le point successivement sur le modèle standard de la physique des particules, le modèle standard du Soleil et le modèle standard de la cosmologie, tous trois liés par les contraintes qu’ils s’imposent l’un à l’autre, mais qui trouvent le moyen de coexister et de se fertiliser réciproquement grâce aux acquis récents, aussi bien théoriques qu’expérimentaux et observationnels.
Enfin Philippe Huneman (philosophe de la biologie, Institut d’histoire et de philosophie des sciences et des techniques, CNRS/ Université Paris I Sorbonne) [12] , avec Antoine Ermakoff (SPHERE, Université Paris 7), examinent l’usage des simulations informatiques en biologie évolutive, proposent une typologie des usages et des formes de ces simulations en fonction des stratégies explicatives et des systèmes ciblés, puis conceptualisent la force explicative de ces modèles à partir de considérations sur le sens causal des simplifications qu’ils font (considérées dans leur rapport avec le fait de la hiérarchie biologique). Ils suggèrent ensuite une application de cela à la question de l’insuffisance du gradualisme darwinien pour expliquer les changements discontinus tels que ce qu’on appelle émergence de la nouveauté évolutive.
&&&&&&
Les organisateurs ont dédié cette onzième édition de PIF à la mémoire de Michel Crozon, décédé en janvier 2008, qui fut longtemps un des piliers de ces rencontres, comme d’ailleurs de nombreuses initiatives en vue de répandre la connaissance dans tous les secteurs de la société. Gilles Cohen-Tannoudji lui rendit publiquement hommage en fin de matinée.
[1] ↑ 1993 : PIF 1, « Le temps et sa flèche ». 1995 : PIF 2, « Réalité et virtualité dans les sciences ». 1997 : PIF 3, « Prédiction et probabilité dans les sciences ». 1998 : PIF 4, « Symétrie et brisure de symétrie ». 1999 : PIF 5, « L’élémentaire et le complexe ». 2000 : PIF 6, « Le siècle des quanta ». 2002 : PIF 7, « Causalité et finalité ». 2003 : PIF 8, « Le réel et ses dimensions ». 2005 : PIF 9, « Einstein et les horizons de la physique ». 2007 : PIF 10, « Surprenante plasticité : structures et évolution ». 2008 : PIF 11, « Les modèles, possibilités et limites : jusqu’où va le réel ? ». 2010 : PIF 12, « Aux frontières de la connaissance : les instruments de l’extrême ». 2012 : PIF13, « Les nouvelles lumières : comment la physique continue d’éclairer le monde ? ».
[2] ↑ Cette rencontre fut organisée en concertation avec l’Académie européenne interdisciplinaire des sciences (AEIS) qui organisait, les 15 et 16 décembre 2008 dans les locaux de l’université Denis Diderot, un congrès sur l’émergence, une approche scientifique du réel dans laquelle la pratique de la modélisation joue un rôle crucial.
[3] ↑ Les séances de PIF 11 ont été filmées et sont visibles sur le site webcast.in2p3.fr, http://webcast.in2p3.fr/videos-epistemologie_des_modeles_et_des_simulations.
[4] ↑ Franck Varenne est maître de conférences en philosophie des sciences à l’Université de Rouen et chercheur au Gemass (UMR 8598 – CNRS/Paris Sorbonne). Ses recherches portent sur l’épistémologie des modèles et des simulations. Il a notamment publié : Du modèle à la simulation informatique (Vrin, 2007), Qu’est-ce que l’informatique ? (Vrin, 2009), Formaliser le vivant : lois, théories, modèles (Hermann, 2010), Modéliser le social (Dunod, 2011), Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation, tome 1 (en codirection avec Marc Silberstein, éditions Matériologiques, 2013, http://www.materiologiques.com/Modeliser-simuler-Epistemologies). Le tome 2 de cet ouvrage sera publié en 2014. Il a également publié dans de nombreuses revues, dont Simulation, Journal of Artificial Societies and Social Simulation, Natures Sciences Sociétés, Revue d’histoire des sciences.
[5] ↑ Romain Teyssier est polytechnicien, titulaire d’un doctorat de l’université Paris VII en astrophysique et techniques spatiales. Il travaille au CEA de 1997 à 2013 où il est, en particulier, responsable du projet Horizon. Il passe son habilitation à diriger des recherches en 2006 et est professeur invité à l’Université de Zurich en 2009. Depuis 2013, il est professeur d’astrophysique numérique dans cette même université. Ses intérêts se centrent essentiellement sur la formation des galaxies et la physique des plasmas en astrophysique, ainsi que sur la physique numérique dans le but d’aborder le problème à N corps et la magnéto-hydrodynamique. Il est (co-)auteur de nombreuses publications dans la presse spécialisée.
[6] ↑ François Sauvageot est ancien chargé de mission au CNRS, aujourd’hui professeur de mathématiques en classe préparatoire MP* au lycée Clemenceau de Nantes. Il aime à présenter les « maths » comme un jeu, afin d’ouvrir l’appétit de ceux qui y sont a priori réfractaires et à illustrer leur lien avec nombre de questions sur la vie et le monde en général. « Acteur de science populaire », il s’illustre dans une pléthore d’actions de popularisation des mathématiques impossible à résumer mais dont on appréciera la diversité en consultant son site web à l’adresse www.mathom.fr/sauvageot.
[7] ↑ À ne pas confondre avec la branche de la logique mathématique connue sous le nom de « théorie des modèles ».
[8] ↑ Pascale Braconnot est une spécialiste des paléoclimats, de la modélisation physique du climat et en particulier du couplage océan-atmosphère dans les modèles. Docteur de l’Université Pierre et Marie Curie en 1992, chercheur au CEA depuis la même année, elle est affectée au Laboratoire des sciences du climat et de l’environnement (LSCE) où elle est responsable du thème modélisation du climat, des cycles biogéochimiques et de leurs interactions. Entre autres activités de recherche, elle a coordonné le développement du modèle numérique du « système Terre » de l’Institut Pierre-Simon Laplace, simulant climats passés et futurs et a participé au 5e rapport du GIEC en tant que coauteur du chapitre 9 (« Evaluation of climate models »). Elle a été faite chevalier de la Légion d’Honneur en 2012.
[9] ↑ Valérie Masson-Delmotte est ingénieur de l’École centrale Paris où elle a soutenu une thèse de doctorat consacrée à la simulation du climat de l’Holocène moyen. Chercheuse au CEA depuis 1997, elle est affectée au Laboratoire des sciences du climat et de l’environnement (LSCE) où elle est responsable (1998-2008) de l’équipe GLACCIOS (Glaces et continent, climat et isotopes stables) puis, depuis 2010, du thème « Dynamique et archives du climat ». Elle fait partie de nombreux projets nationaux et internationaux dont le GIEC. Prix Irène Joliot-Curie la désignant comme « la femme scientifique de l’année 2013 », Valérie Masson-Delmotte est l’auteur de nombreux articles et ouvrages visant à sensibiliser le public aux problèmes liés au changement climatique.
[10] ↑ Daniel Estevez est architecte DPLG, ingénieur CNAM et enseignant titulaire à l’École nationale supérieure d’architecture de Toulouse. Il est chercheur et directeur scientifique du champ « Représentation et espace contemporain » au laboratoire LRA (DAPA) de cette même école. Il est également rédacteur de la revue Plan libre. Son travail scientifique porte sur l’étude des pratiques graphiques contemporaines en architecture, en particulier en relation avec l’outil informatique. En 2001, il publie aux éditions du CNRS un travail de recherche sur l’impact des outils graphiques informatisés dans les pratiques de figuration en architecture (Dessin d’architecture et infographie : les nouvelles pratiques graphiques en architecture). De façon plus générale, ses travaux visent à mettre en relation les démarches de conception, les pratiques de représentation et la conduite des projets en architecture. Ils lui permettent notamment de publier l’ouvrage Aéroports. Représentations et expérimentations en architecture (L’Harmattan, 2012).
[11] ↑ Polytechnicien, Michel Spiro débute une carrière en physique des particules par un doctorat au CEA (Saclay) en 1976. Au CERN (Genève), il participe à la découverte des bosons intermédiaires W et Z, fondements du « modèle standard » de la physique des particules, puis acquiert un rôle majeur dans l’organisation de la recherche au CERN (comités LEP, LHC, SPC, puis groupe de travail sur l’élargissement géographique et scientifique du CERN), au CEA où il dirige le service de physique des particules de 1991 à 1999, et son successeur le DAPNIA (2002-2003) et enfin, à l’IN2P3 (institut de physique nucléaire et de physique des particules du CNRS) dont il est directeur scientifique adjoint (1999-2003) puis directeur (2003-2010). Il exerce un rôle important dans d’innombrables sociétés de physique et comités nationaux et internationaux. Après le W et le Z, ses intérêts scientifiques le portent vers l’étude des neutrinos solaires (expérience GALLEX), la recherche de matière noire sous forme de naines brunes (expérience EROS dont il est l’initiateur) et plus généralement vers les « astroparticules ». Il couronne sa carrière comme président du conseil du CERN de 2009 à 2012. Chevalier de la Légion d’Honneur, officier dans l’Ordre du Mérite, titulaire de nombreux prix pour ses recherches, Michel Spiro est aussi enseignant (École polytechnique, DEA de physique théorique) et auteur ou coauteur d’ouvrages de cours et de vulgarisation.
[12] ↑ Formé d’abord en mathématiques, Philippe Huneman est philosophe de la biologie et particulièrement de la théorie de l’évolution. Il est directeur de recherche au CNRS et travaille à l’Institut d’histoire et de philosophie des sciences et des techniques (IHPST). À l’époque où se situe PIF11, il s’intéressait à l’épistémologie de la simulation en relation avec la biologie évolutionniste. Ses intérêts récents portent sur l’évolution des niveaux d’individualité et la sélection multiniveaux, la stabilité des écosystèmes et les rapports écologie/évolution, les études évolutionnistes sur la coopération et les rapports économie/biologie évolutive. Dernièrement et plus généralement, il s’est intéressé aux problèmes philosophiques posés par l’écologie. Il a notamment publié Les Mondes darwiniens. L’évolution de l’évolution [2009] (en codirection avec Thomas Heams, Guillaume Lecointre, Marc Silberstein, Éditions Matériologiques, 2011, http://www.materiologiques.com/Les-mondes-darwiniens-L-evolution ; version anglaise, Springer, à paraître en 2014). Il codirige, avec Franck Varenne, Sébastien Dutreuil, Marc Silberstein, le tome 2 de Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation (à paraître en 2014).
Les modèles et les simulations sont aujourd’hui omniprésents. Que l’on se renseigne sur le changement climatique, sur les méthodes de prévisions météorologiques, sur les méthodes de l’archéologie expérimentale, sur les procédés de conception d’un avion, d’une voiture ou d’un immeuble, ou encore sur les méthodes de l’ingénierie de la connaissance – pour ne donner qu’une liste limitée de domaines très différents –, on tombera toujours à un moment ou à un autre sur des pratiques de modélisation et de simulation.
Il est rare aujourd’hui de visiter un laboratoire ou un bureau d’études sans voir des chercheurs et des ingénieurs s’affairant autour de modèles ou de simulations. À tel point que l’on peut se demander, dans certains cas, ce qu’est devenu le réel. Notamment, on peut se demander ce qu’est devenue la pratique expérimentale réelle et si elle a trouvé des substituts adéquats dans les modèles et les simulations. On se doute que la réponse sera fortement nuancée. Ainsi, on peut se poser la question : n’a-t-on pas excessivement congédié le réel pour lui préférer ce qui passe le plus souvent pour sa représentation ou sa copie, à savoir le modèle ou la simulation ?
Cette interrogation est devenue tout à fait urgente dans la mesure où le recours à l’ordinateur a partout démultiplié les dimensions et les pouvoirs de la modélisation. Cette interrogation s’est même récemment invitée dans nos médias lorsque la crise financière de 2008 a battu son plein. Les modèles mathématiques de la finance étaient en première ligne dans le feu des critiques. J’évoquerai d’ailleurs ponctuellement certaines des caractéristiques de ce type de modèles : peut-être les critiques qu’on a pu lire sont-elles en grande partie justifiées, cela d’un strict point de vue épistémologique.
Mais, après cette crise des modèles – d’un type particulier, précisons-le d’emblée, et œuvrant dans un champ disciplinaire particulier –, la question au sujet de la perte du réel – celle qui nous préoccupe donc ici – ne peut pas rester focalisée sur la critique de ces seuls modèles. En revanche, elle peut devenir opportunément celle de savoir si tous les modèles scientifiques sont du même type que les modèles mathématiques de la finance. Dans l’affirmative, il est fort probable qu’il y aurait de sérieuses raisons de s’inquiéter.
Cependant, les choses sont plus complexes encore. Le monde actuel des modèles et des simulations dans les sciences et techniques présente une si grande diversité qu’il devient extrêmement difficile de les concevoir dans un cadre épistémologique unique. C’est bien la variété des pratiques comme la variété des méthodologies et des épistémologies qui semblent la règle. C’est donc sans doute un défi quasi impossible à relever que de chercher à élaborer une seule et unique « épistémologie des modèles et des simulations ».
En guise de caractérisation liminaire, toutefois, on peut dire grossièrement que les modèles sont des constructions matérielles ou formelles servant à représenter quelque chose, quelque chose de réel ou de fictif. On comprend alors qu’une fois mis en rapport avec des dispositifs de conception, de construction ou d’intervention, les modèles servent à transformer le réel ou à l’anticiper, voire, peut-être, dans certains cas, à le supplanter. Malgré cela, on verra qu’un modèle n’est pas même toujours une représentation : en fait, son rapport au réel est pour le moins multiple.
Quant aux simulations, on peut, en première approche, tantôt les voir comme un type particulier de modèle (un modèle phénoménologique, c’est-à-dire un modèle qui rend compte seulement des performances visibles d’un système), tantôt comme un traitement particulier de modèle (un calcul de modèle). Par là, on peut concevoir les simulations comme des modèles de modèle ou des modèles à la seconde puissance. Avec comme conséquence cette question qui vient redoubler notre interrogation : si les simulations peuvent être vues comme des modèles de modèles, les simulations ne nous éloigneraient-elles pas du réel d’un degré supplémentaire ? La simulation ne serait-elle pas le comble de la modélisation, en l’espèce le comble de la mauvaise modélisation, c’est-à-dire cette dimension de la modélisation par quoi le modèle tombe définitivement dans la surenchère et perd tout ancrage dans le réel ? Pourtant, les choses là aussi sont complexes : la simulation se révèle très souvent un moyen puissant et novateur de reconnecter les modèles avec le réel. Comment donc s’expliquer toute cette diversité ?
Je vais procéder de manière progressive. Dans un premier temps, je vais proposer un bref historique puis un état des lieux concernant les différentes catégories de modèles et d’épistémologies des modèles. Dans un second temps, nous reviendrons sur le cas des simulations et sur une typologie qui pourrait passablement leur convenir, jusqu’à plus ample informé. J’évoquerai en passant quelques tendances récentes.
Le terme « modèle » vient du latin modulus (petite mesure), via le mot italien modello qui désignait l’unité de mesure étalon (le module) servant à définir les rapports entre les dimensions des édifices architecturaux. De façon très générale, le terme de « modèle » semble destiné à désigner ce à quoi on se rapporte pour représenter quelque chose [2] . Du fait de cette origine, le terme « modèle » reste ambigu : quel est exactement « ce à quoi on se rapporte pour représenter » ? Assez logiquement, le terme de modèle désigne à la fois ce qu’on imite et ce qui imite. C’est tantôt l’objet modélisé, tantôt l’objet modélisant.
Mais c’est bien aujourd’hui la seconde signification qui prévaut dans les techniques et les sciences. Le modèle dont nous parlerons ici, c’est l’objet modélisant. Le biologiste et modélisateur Jean-Marie Legay rappelle toutefois qu’il faut périodiquement alerter les scientifiques sur cette ambiguïté de manière à les prévenir contre tout risque de tomber amoureux de leur modèle – tel Pygmalion [3] .
Je vais proposer maintenant quelques jalons d’histoire des modèles.
Pendant très longtemps, et même encore aujourd’hui, le terme de modèle a été synonyme de représentation réduite ou simplifiée. Simplifiée : cela signifie d’abord qu’il peut être réalisé à une échelle différente de ce qu’il représente. Dans ce cas, les matériaux utilisés pour le modèle sont de qualité physiquement identique ou semblable à ceux dont est constitué ce qu’il représente. Un tel modèle est une reproduction physique. Il est apparenté à une maquette : d’où l’expression « modèle réduit ». C’est ce qu’on appelle aujourd’hui un modèle physique ou encore modèle à l’échelle.
Chez les ingénieurs du XVIe siècle, le modèle physique a la double fonction de persuader et de permettre des simulations, c’est-à-dire la « monstration des effets », selon l’expression de l’époque reprise par l’historienne des sciences Hélène Vérin [4] . Le modèle de l’ingénieur est là pour illustrer un argument ou pour remplacer un calcul par une mesure directe sur le modèle, comme encore dans nos actuelles souffleries. Le modèle physique du corps humain – par exemple le fameux écorché de cire –, quant à lui, est là pour permettre la fixation des idées et l’enseignement de l’anatomie.
Dans les langues européennes, le terme « modèle » a ainsi longtemps désigné ce type de modèle physique. Ce n’est qu’à partir des développements de la physique de la fin du XIXe siècle [5] (mais aussi à partir de certains développements mathématiques [6] ) que ce terme a été de plus en plus employé pour désigner autre chose qu’un construit physique réel à visée de reproduction simplifiée.
Le physicien James Clerk Maxwell crée un oxymore, une contradiction dans les termes, lorsqu’il qualifie de « modèle géométrique [7] » l’imagerie des lignes de force inventée par Michael Faraday. Cette façon de procéder possède la qualité, selon lui, de nous faire « obtenir des idées physiques sans théorie physique [8] ». Ici, même si le modèle est explicitement qualifié de « géométrique », il permet non pas tant de mathématiser directement un domaine physique nouveau que de se le représenter physiquement en l’absence (supposée temporaire) de théorie physique adéquate. Maxwell range ce type de modèles (le « modèle géométrique ») parmi les « analogies physiques ». De façon générique, Maxwell entend par modèle – ou « analogie physique » – cette « similitude partielle entre les lois d’une science et celles d’une autre, et qui fait que chacune des deux illustre l’autre [9] ».
Toutefois, dans le cas du type d’analogie physico-mathématique que constitue le modèle géométrique, le physicien ne fait aucune hypothèse physique réelle concernant l’existence supposée de quelques lignes de force que ce soit. La visée du modèle est bien précise et limitée. Ainsi la « fonction potentielle », par exemple, qui découle de cette lecture géométrique de Faraday, n’est conçue par Maxwell que comme une « abstraction mathématique » qui permet de « clarifier nos conceptions » et de « diriger notre attention » vers les propriétés réelles de l’espace [10] .
Au contraire, pour Maxwell, dans le cas du modèle des boules dures s’entrechoquant tel qu’il est utilisé en physique statistique et en théorie des gaz, le gaz fait l’objet d’une hypothèse physique au sens strict. Les particules sont traitées comme si elles étaient approximativement des sphères dures. Le modèle est bien là aussi une analogie physique. Mais il vaut dans ce cas non comme une abstraction mathématique mais comme une approximation physique dans laquelle on construit et on manipule une idéalisation physique de la réalité. Selon Ludwig Boltzmann, de tels modèles atomistiques sont même essentiels. Mais ils ne sont pas non plus à prendre au pied de la lettre. En revanche, ils sont nécessaires pour comprendre non le réel, mais les équations mathématiques qui deviennent de plus en plus abstraites et indirectement interprétables en termes d’observables pour l’homme. Selon Boltzmann, le modèle – ou analogie physique – reste indispensable en ce qu’il permet la représentation visuelle (ou figurative) d’un calcul dont les termes abstraits tendent sinon à ne plus donner prise à notre capacité de visualiser les mécanismes qui sont à l’œuvre dans le calcul.
Ainsi donc, c’est surtout à partir de la crise des représentations mécanistiques en électromagnétisme et des travaux de Faraday, puis surtout de Maxwell, Hertz [11] et Boltzmann que la notion de modèle a pris le sens figuré qu’il a aujourd’hui encore dans les sciences [12] .
Cependant, c’est à partir du début du XXe
