La fabrique du cerveau - Giulia Anichini - E-Book

La fabrique du cerveau E-Book

Giulia Anichini

0,0

Beschreibung

Une étude approfondie de la neuro-imagerie.

A l’ère des neurosciences et de leur numérisation massive, la détermination des structures fines du cerveau et la compréhension de son fonctionnement sont devenues des enjeux de premier ordre. Dans ce contexte, l’IRM s’est imposée comme une technique reine. Grâce à elle, le cerveau s’offre au regard, dévoilant arcanes et tréfonds scintillants… La visualisation des processus cognitifs via des images spectaculaires, qui fascinent les chercheurs autant que le public, engendre une nouvelle relation à notre corps pensant et agissant. Mais que sont ces objets numériques d’un nouveau genre ? Comment ces images sont-elles acquises, sur quelles bases techniques et par quels protocoles ? Et quel projet anime ceux qui établissent des atlas de référence, dessinant un cerveau pixelisé dans lequel tous les autres doivent se fondre ?
Pour le savoir, Giulia Anichini s’est immergée plusieurs années durant dans deux centres de recherche en imagerie où elle a pu observer les pratiques et les savoir-faire, décrire les implicites. Partant des lieux et des acteurs de ces pratiques, de leur environnement matériel, elle décrit les méthodes d’acquisition des images, leurs transformations successives et les bricolages informatiques mis en œuvre pour sauver des résultats pas toujours probants. Elle montre comment les banques de données saturées d’images obtenues selon des choix techniques et théoriques hétérogènes constituent désormais une extension inéluctable du laboratoire de neuro-imagerie, où s’élabore une science data driven prétendument affranchie de la théorie. L’accumulation de ces résultats à la fiabilité pas toujours assurée n’est pas neutre, notamment par ses implications dans le champ des neurosciences sociales, quand les émotions dites morales tracent leur géographie dans le « cortex numérique ».
Entre enquête ethnologique, sociologie des sciences et analyse épistémologique, Giulia Anichini propose ici une vision inédite des neurosciences, de leurs présupposés, leurs conjectures et leurs ambitions.

Entre enquête ethnologique, sociologie des sciences et analyse épistémologique, Giulia Anichini propose ici une vision inédite des neurosciences, de leurs présupposés, leurs conjectures et leurs ambitions.

EXTRAIT

Mon travail ne part pas de l’image pour en extraire des propriétés particulières, pour discuter de sa place dans la science contemporaine ou pour lui attribuer du sens à partir de ses caractéristiques esthétiques. L’image est un moyen pour atteindre les pratiques de cartographie du cerveau, qui est le réel objet de ce livre.

À PROPOS DE L'AUTEUR

Giulia Anichini est anthropologue, chercheure correspondante au Centre Norbert Elias (UMR 8562). Dans le cadre de la sociologie de la connaissance, elle étudie la production des résultats scientifiques et l’utilisation des dispositifs techniques par les chercheurs. Son travail porte sur les pratiques cartographiques dans la recherche en neuroscience et en particulier sur l’emploi des images IRM.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 494

Veröffentlichungsjahr: 2018

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Giulia Anichini

La fabrique du cerveau

Les dessous d’un laboratoire de neuro-imagerie

ÉDITIONS MATÉRIOLOGIQUES Collection « épistémologie de la médecine et du soin »

Collection « épistémologie de la médecine et du soin » dirigée par Mohamed El Khebir et Gérard Lambert

Inventer le don de sperme. Entretiens avec Georges David, fondateur des Cecos, Fabrice Cahen & Jérôme van Wijland, 2016.

Essais précoces en cancérologie. éthique et justice, sous la direction de Valérie Gateau, François Doz & Philippe Amiel, 2017.

Construction locale de la santé. études de cas internationaux et réflexions sur la situation française, Sébastien Fleuret, 2017.

La fabrique du cerveau, Giulia Anichini, 2018.

Philosophie de la médecine, Mario Bunge, 2018.

Giulia Anichini, La fabrique du cerveau

ISBN (papier) 978-2-37361-146-5eISBN (ePub) 978-2-37361-147-2

ISSN 2494-7180

© Éditions Matériologiques, mars 2018.

51, rue de la Fontaine au Roi, F-75011 Paris

materiologiques.com / [email protected]

Couverture, conception graphique, maquette, PAO, corrections : Marc Silberstein

Photo de couverture : détails d’une Z machine (© DR)

Distribution livres papier : éditions Matériologiques

Distribution ebooks : Cairn, Numilog, etc.

En application de la loi du 11 mars 1957, il est interdit de reproduire intégralement ou partiellement le présent ouvrage sans autorisation de l’éditeur ou du Centre français du copyright, 6 bis, rue Gabriel-Laumain, 75010 Paris.

Introduction L’IRM : quels enjeux techniques et sociaux ?

Après le séquençage du génome, l’étude du cerveau est devenue l’un des défis scientifiques contemporains. Comprendre les structures qui le composent et les affections qui l’endommagent, percer à jour son fonctionnement et pouvoir le simuler, sont seulement quelques-uns des objectifs assignés aux neurosciences. Au carrefour des sciences biologiques et des sciences psychologiques, les neurosciences cognitives, en particulier, visent à élucider les lois physiologiques qui régissent les comportements, même les plus complexes. Si l’on fait appel aux fondements biologiques qui sous-tendent les divers processus cognitifs de « haut niveau » – allant jusqu’à ceux qui sont considérés comme décisifs à la vie en société – c’est en partie grâce à la nature des technologies par l’intermédiaire desquelles le cerveau est exploré. La neuro-imagerie est perçue comme étant la technique la plus « spectaculaire » et donc la plus puissante, en raison de la nouvelle visibilité à laquelle elle conduit et de la localisation qu’elle assure. On cherche des « marqueurs » cérébraux, visibles à l’aide d’images, pour diagnostiquer des maladies, mesurer des « dispositions » individuelles, étudier la différence entre les sexes. Etc. Après la génétique, les explications biologiques des comportements adoptent le registre « cérébral » et y acquièrent de nouvelles formes.

L’imagerie par résonance magnétique (IRM) – technique qui s’est imposée dans les neurosciences à partir des années 1990 – est d’un grand intérêt parce qu’elle constitue la technologie qui s’est le mieux prêtée au programme unificateur des nouvelles sciences du cerveau. En fait, les neurosciences s’annoncent, depuis leur essor, comme un projet visant à une unification (Abi-Rached & Rose 2014), celle-ci agissant au moins à trois échelles : ontologique, institutionnelle et sociétale. Elles ambitionnent à la fois un effondrement du dualisme corps/esprit, une synthèse des disciplines engagées dans l’étude du cerveau et un déplacement de leur expertise vers la société en général. Ce programme, qui cherche à sceller l’alliance entre sciences psychologiques et sciences biologiques, a été accompagné par un regain progressif du réductionnisme biologique qui a amené les sociologues à constater l’avènement d’un « sujet cérébral » (Ehrenberg 2004) autour duquel se reconfigurent l’explication et le traitement des maladies mentales.

L’IRM appuie cette tendance unificatrice des neurosciences. C’est une technique simple d’accès et non invasive. Elle permet d’explorer les processus cognitifs in vivo et de représenter visuellement le cerveau en action. Localiser l’activité cérébrale à l’aide de connaissances consolidées par des savoirs psychologiques favorise l’articulation de disciplines différentes et établit une passerelle entre faits psychologiques et réalité neuronale. La nature des données mêmes atteste ce lien : la visibilité des activations agit en tant que « preuve » irréfutable de la matérialité des fonctions cérébrales. La représentation des activations par l’image facilite la circulation de ce type de données au sein de publics non experts, et impose un nouvel imaginaire qui structure notre relation au cerveau. La dimension « spectaculaire » des cartes du cerveau leur permet de franchir les frontières du laboratoire et leur assure une fonction dont l’étendue dépasse le contexte expérimental.

1] Cartographie du cerveau : de la paillasse à l’écran

Cela me permet de poser le premier objectif de ce livre, à savoir questionner l’ancrage biologique des fonctions cérébrales auquel l’image aboutit. Comment la localisation d’un processus psychologique s’opère par l’IRM ? Pour répondre à cette question, je me suis intéressé aux expériences de laboratoire conçues pour produire les images du cerveau en activité. Seulement à partir de là, nous pouvons commencer à faire émerger les pratiques contemporaines de cartographie du cerveau.

Mais le laboratoire n’est plus le seul lieu d’où proviennent les images IRM employées par les chercheurs pour cartographier le cerveau. Quand on s’intéresse aux pratiques expérimentales, on voit qu’ils n’ont pas besoin de réaliser une expérience pour recueillir des données, mais qu’ils peuvent tout aussi bien faire appel à des bases de données où des centaines d’images IRM anatomiques et fonctionnelles sont accessibles. La neuro-imagerie a évolué en même temps que l’informatique et a été affectée par le phénomène des Big Data qui a changé la manière dont la cartographie du cerveau s’opère en reconfigurant le travail des chercheurs. Un deuxième objectif est donc de décrire et d’analyser les pratiques autour des bases de données de neuro-imagerie et des connaissances issues du traitement automatique des centaines d’images issues de ces bases. Pour cela, j’ai suivi le travail de neuroscientifiques engagés dans l’étude des spécificités anatomiques de l’autisme.

Un troisième type de questionnements nous pousse un peu plus loin dans la trajectoire des cartes du cerveau. Après leur production, je m’intéresse à leur mise en circulation dans le domaine des neurosciences sociales. Cette branche des neurosciences propose, entre autres, de cartographier certaines émotions, comme la honte ou l’empathie, qui seraient indispensables à la vie sociale. Je vais chercher à montrer comment les images des activations cérébrales associées aux émotions sont au cœur d’une naturalisation des clivages sociaux, comme ceux entre homme/femme ou déviant/non déviant. Les images seront ici une porte d’entrée pour analyser comment une objectivation des processus psychologiques et des relations sociales contribuent à la légitimation scientifique du rôle social des individus, en agissant en tant qu’instrument de domination.

2] L’observation des pratiques

Les analyses sociologiques et anthropologiques se focalisant sur les modes de production des images IRM dans les laboratoires de recherche fondamentale sont rares. Elles visent par exemple à mettre en lumière la façon dont l’IRM promeut un nouveau regard sur le corps et introduit un nouveau type d’objectivité (Prasad 2005). D’autres s’appuient sur les apports de la sémiotique pour étudier l’engagement du corps des scientifiques dans la production d’images IRM du cerveau et cerner le rôle des gestes et des échanges verbaux dans l’attribution de sens aux données visuelles (Alac 2011). L’anthropologue Anne Beaulieu, quant à elle, a retracé l’histoire des atlas du cerveau, et fait ressortir la relation du chercheur à l’image ainsi que les enjeux de l’introduction des bases de données dans les neurosciences (Beaulieu 2001, 2002, 2004).

Mon travail ne part pas de l’image pour en extraire des propriétés particulières, pour discuter de sa place dans la science contemporaine ou pour lui attribuer du sens à partir de ses caractéristiques esthétiques. L’image est un moyen pour atteindre les pratiquesde cartographie du cerveau, qui est le réel objet de ce livre. Comme pour de nombreuses recherches, l’environnement matériel est, ici, fondamental pour l’analyse du travail scientifique car toute une série d’objets, d’appareils et de machines agit en tant que « médiateurs » entre l’observateur et le phénomène « naturel » (Latour & Woolgar 1988). À partir de l’immersion dans les lieux où s’opère la production de cartes du cerveau, je souhaite faire saillir la manière dont une activation ou une structure cérébrale est circonscrite, identifiée, interprétée.

Mais l’entreprise scientifique n’aboutit pas toujours aux découvertes attendues. Le travail de recherche est parsemé d’obstacles qu’on ne peut pas toujours devancer. Les chercheurs sont souvent confrontés à des observations contraires à leurs hypothèses, à des résultats contradictoires, à des données perçues comme gênantes. Il faut alors trouver des solutions pour réhabiliter une expérience, éviter un échec, réajuster les objectifs initiaux. Mon travail porte donc aussi sur la gestion des anomalies en science et sur les pratiques « aux marges » qui sont mobilisées pour « sauver » un « fait » scientifique.

Ces pratiques, appréhendées grâce à une approche microsociologique, ouvrent la voie vers une réflexion sur les méthodes scientifiques et les standards d’objectivité en vigueur dans le domaine de la neuro-imagerie. C’est au sein du travail scientifique que des nouvelles logiques apparaissent et se consolident. L’objectivité se définit alors« par le bas », en fonction des choix qui rythment la recherche, ces derniers témoignant du contexte dans lequel le scientifique opère.

3] Méthodes et lieux de l’enquête

Mon enquête s’est déroulée dans deux sites : un centre d’imagerie par résonance magnétique fonctionnelle (IRMf) consacrée à la recherche et un institut de neurosciences. Le premier lieu, une plateforme technologique mutualisée, a été choisi pour saisir la diversité des pratiques autour d’un même instrument et celle des données qui lui sont rattachées, mais aussi afin d’identifier les relations entretenues entre les gérants de la plateforme et ses utilisateurs1. Les relations entre expert et apprenti, qui s’instaurent lors des nombreux moments consacrés à l’apprentissage de la technique, caractérisent presque systématiquement ce type d’espace et sont souvent riches en enseignements quant aux normes en vigueur sur la « bonne » manière de produire, traiter et publier les données.

Suivre les chercheurs dans l’institut de neurosciences m’a donné accès au traitement des données et à l’analyse des résultats, phases essentielles à la compréhension des pratiques de cartographie du cerveau. Cela m’a permis d’avoir un double regard : sur la fabrication des données d’une part, et sur l’analyse de celles-ci d’un autre, afin d’avoir la vision la plus globale possible du processus de production des cartes du cerveau.

L’enquête a duré environ deux ans, période au cours de laquelle j’ai suivi en parallèle l’activité du centre IRM et le travail des membres (précisément trois d’entre eux) de l’équipe « Cognition sociale » de l’institut de neurosciences. Dans ce dernier site, j’ai pu réaliser et enregistrer des entretiens librement, la plupart du temps j’ai été accueillie avec bienveillance par les chercheurs, très peu d’entre eux m’ayant refusé leur collaboration. Dans le centre IRM, j’ai suivi la réalisation d’une douzaine d’expériences de recherche, ce qui m’a amenée à côtoyer nombre de chercheurs de tous statuts (de l’étudiant de master au chercheur confirmé) et provenant d’horizons disciplinaires et de laboratoires différents.

Les expérimentateurs étant souvent « en manque » de sujets, j’ai proposé ma participation en échange de données ou d’informations utiles à ma recherche. Être « sujet » a été alors une manière d’instaurer un climat de confiance, de coopérer avec le chercheur et d’assurer une entraide réciproque. Les entretiens ont été conçus au fur et à mesure, selon les besoins de l’enquête. L’analyse des observations et des discours m’ont amenée à solliciter plusieurs fois les acteurs rencontrés lors d’une expérience IRM pour préciser et développer des questions que je n’avais pas posées au départ mais dont le contenu se consolidait au fil du temps. C’est le processus que Jean Pierre-Olivier de Sardan désigne sous le nom d’itération, un mode d’appréhension des phénomènes qui se caractérise par un « va-et-vient » entre terrain et chercheur mais aussi entre analyse des données et problématique2.

J’ai également assisté aux réunions, séminaires et journées consacrées à la neuro-imagerie, organisées pour et par la communauté des scientifiques rencontrés.

4] Structure du livre

Six chapitres composent ce livre. Le premier vise à présenter les objets de mon enquête. Il y est en particulier question d’images, de cartes et d’atlas et de leur fonction dans la cartographie du cerveau. Un historique de l’évolution des techniques scientifiques mobilisées pour décrire et comprendre le cerveau sera nécessaire pour délimiter le champ dans lequel se place ma recherche. Nous verrons de quelle façon l’image est engagée dans la production du savoir sur le corps et sur le cerveau, dans quelle mesure l’atlas nous informe sur le type d’objectivité en vigueur, et comment l’informatique a fait évoluer la cartographie du cerveau.

Dans les chapitres 2 et 3, je me focalise sur l’expérience en imagerie par résonance magnétique et sur la chaîne opératoire qui aboutit à la production de cartes du cerveau. Je présente le travail des protagonistes d’une expérience de recherche en IRM, c’est-à-dire les professionnels qui gèrent le centre, les utilisateurs de la machine (les chercheurs) et les sujets d’étude, ainsi que l’environnement matériel dans lequel les pratiques expérimentales se consolident. Le processus de production de données est illustré par des expériences différentes à partir desquelles j’ai repéré quelques axes qui structurent la recherche fondamentale en IRM. Le but n’est pas de restituer les études dans leur globalité mais de les utiliser comme points d’appui pour retracer la trajectoire de l’image. Cette première fenêtre permet donc d’avoir un regard sur les pratiques expérimentales qui animent une recherche en neuro-imagerie fonctionnelle. Les interactions entre acteurs, objets et instruments sont analysées pour comprendre comment l’objectivation d’un processus cognitif s’opère, mais elles donnent également accès à une certaine gestion des résultats, en particulier au traitement que le chercheur réserve aux données qui ne confortent pas ses hypothèses.

Les chapitres 4 et 5 concernent l’utilisation de données IRM – anatomiques, cette fois – issues de bases de données. Les recherches observées visent à mesurer les différences anatomiques entre cerveaux de sujets autistes et cerveaux de sujets « normaux ». Pour ce faire, des images IRM issues d’une base de données disponible en ligne, ou d’une base créée ad hoc, sont traitées, assemblées et comparées. À partir de modèles spécifiques, des objets tels que les réseaux et les sillons3 sont employés dans l’analyse des données. Les chercheurs font appel à du bricolage de données, par exemple quand ils analysent différemment un même lot d’images pour s’approcher des leurs prédictions. Les pratiques de bricolage et d’occultation de certaines données « sensibles » répondent à des objectifs fixés à la fois par le laboratoire et les revues scientifiques. La coprésence d’une approche qualitative (la visualisation et la correction manuelle) et quantitative (l’analyse automatisée) dans la production des cartes du cerveau fait émerger les principes d’objectivité mobilisés par les chercheurs. Il s’agit alors de comprendre quelles sont les normes qui se dégagent des pratiques et de mettre en lumière quels sont les différents principes épistémologiques auxquels elles font appel. Ces deux chapitres permettent de saisir le rôle des bases de données (locales ou publiques), des modèles théoriques et des programmes informatiques dans l’apparition de nouvelles représentations du cerveau et dans la définition du « normal » et du « pathologique ».

Le sixième et dernier chapitre interroge les images IRM du point de vue des discours et des résultats qu’elles appuient. Je m’intéresse ici à l’utilisation des données de neuro-imagerie fonctionnelle au sein d’un domaine des neurosciences sociales. L’analyse des discours autour des cartes d’activation produites pour localiser les zones liées au « social » révèle la dimension idéologique de ces cartes. Le cerveau fonctionne comme référence pour la construction d’un ordre social « naturel » et les données issues de la neuro-imagerie jouent un rôle important dans la légitimation de l’existence d’un cerveau social (Dunbar 1998) « normal » ou « pathologique », mais aussi d’un cerveau « féminin » et « masculin ». En élargissant, au fil des chapitres, notre champ de vision, l’ouvrage présente d’abord la production des données dans le laboratoire, ensuite la fabrication de cartes à partir d’images issues d’expériences ou de bases des données, pour aboutir enfin à l’en­ga­gement des résultats dans l’élaboration de théories.

[1] Dans la même optique voir le travail de Vincent Simoulin (2007). Dans son enquête sur l’ESRF (European Synchrotron Radiation Facility), il analyse la manière dont, par l’intermédiaire d’un même instrument, l’accélérateur de particules de Grenoble, les fractures et les échanges entre communautés disciplinaires et professionnelles se consolident.

[2] L’itération ne concerne pas seulement le choix des enquêtés mais aussi la production des connaissances : « Chaque entretien, chaque observation, chaque interaction sont autant d’occasions de trouver de nouvelles pistes de recherche, de modifier des hypothèses, d’en élaborer de nouvelles. […] La phase de production des données peut être ainsi analysée comme une restructuration incessante de la problématique au contact de celles-ci, et comme un réaménagement permanent du cadre interprétatif au fur et à mesure que les éléments empiriques s’accumulent » (Olivier de Sardan 1995 : 13).

[3] Les réseaux se réfèrent aux connexions qui relient (anatomiquement ou au niveau de leur activité) les régions du cerveau ; les sillons indiquent les dépressions qui traversent le cortex cérébral.

Chapitre 1. Images, cartes, atlas et régimes d’objectivité en science

Les objets de ma recherche empirique, à savoir les données de neuro-imagerie, sont aujourd’hui au centre des nouvelles pratiques de cartographie du cerveau. Celles-ci sont le résultat d’une histoire longue dont je vais donner quelques repères. Mais avant de tracer l’évolution des techniques conçues pour l’étude des fonctions cérébrales, je vais montrer que l’image peut être saisie comme indicateur historique de l’objectivité. Ces réflexions, issues de l’histoire des sciences (Daston & Galison 2011), épauleront mon travail ethnographique. Néanmoins, l’observation du travail expérimental démontrera que la normativité, dont les images sont porteuses, n’est ni figée, ni définitive, mais flexible et dynamique.

1] Atlas et objectivité

Pour analyser l’évolution des formes d’objectivité, les historiens des sciences Lorraine Daston et Peter Galison s’attachent à l’étude d’images particulières, les atlas scientifiques, « ces compilations d’images sélectionnées qui permettent d’identifier les objets de travail caractéristiques de chaque discipline » (Daston & Galison 2011 : 26. C’est précisément du fait de la puissance normative accordée aux atlas que les deux historiens en font des objets privilégiés. Véritables outils de travail, les atlas accompagnent la transmission du savoir scientifique et des connaissances acquises, ils sont l’expression des règles à suivre et des erreurs à écarter, ils standardisent les objets.

Pour les deux auteurs, c’est au milieu du XIXe siècle que le mot objectivité prend son sens « moderne » et commence à guider l’entreprise scientifique1. L’objectivité n’a pas toujours orienté la science, ce dont témoignent d’ailleurs les atlas scientifiques du XVIIIe siècle. À ce moment, on cherche à représenter le corps tel qu’il se présente aux yeux de l’anatomiste qui est guidé par un idéal de ressemblance. L’anatomiste et le dessinateur préparaient et choisissaient les objets et s’accordaient sur la manière de rendre visibles leurs traits typiques. L’art et la science se confondaient alors, les illustrations engageaient aussi bien le jugement que l’imagination. La variabilité de la nature est noyée dans des archétypes dont le choix revient à l’homme de science.

Mais au XIXe siècle, on assiste à une rupture due à la progressive entrée en scène de l’objectivité associée à la « mécanisation de la science » (Daston & Galison 2011). La machine standardise les objets, corrige et dépasse les défauts de l’Homme, produit des images fidèles de la réalité. L’objectivité mécanique, cadre d’appréhension du réel basé sur une connaissance issue d’instruments scientifiques, devient l’idéal dans la représentation. L’authenticité prend le pas sur la similitude, les variations ne sont plus occultées pour atteindre une version « épurée » des phénomènes mais au contraire, en rendre compte signifie « laisser parler la nature par elle-même ». La photographie et l’avènement des imageries comme les rayons X amènent à la production de nouveaux atlas où la représentation de planètes, bactéries, cristaux et organes, passe par une logique procédurale imposée par l’utilisation de dispositifs mécaniques. Ces derniers garantiraient l’« élimination » de l’interprétation subjective du savant considérée comme nuisible à la démarche scientifique.

Daston et Galison pointent l’essor, à la fin du XIXe et au début du XXe siècle, d’un autre type d’objectivité, l’objectivité structurale, censée remedier aux défaillances de l’objectivité mécanique, trop redevable de la variabilité des phénomènes observés. L’objectivité structurale, défendue par certains scientifiques, pour la plupart mathématiciens et physiologistes (von Helmoltz, Frege, Carnap, Poincaré), ne se fondait pas sur les images mais sur les structures qui étaient alors les composantes d’un langage commun et universel auquel la science devait impérativement adhérer. La structure est considérée comme l’essence des phénomènes, sa stabilité en fait un outil « neutre », une abstraction qui parvient à décrire le réel sans qu’il soit « brouillé » par l’interprétation subjective.

Le refus de l’image n’est pas la seule réponse aux faiblesses de l’objectivité mécanique. Au XXe siècle s’impose une autre définition de l’objectivité qui valorise la capacité du scientifique à reconnaître et à classer les objets, à identifier le « vrai » du « faux », à distinguer le « normal » et le « pathologique ». Les images sont, cette fois, le lieu où cette évaluation – qui se révèle essentielle dans l’ordonnancement de la « nature » – s’opère. Cette objectivité repose sur le jugement exercé, c’est-à-dire sur l’expertise du scientifique, considérée comme la seule arme pour traiter et rendre compte de la variété des objets naturels. L’expérience et l’intuition aident, ici, le scientifique à donner du sens aux images car « l’automaticité “autographique” des machines, aussi sophistiquée fût-elle, était incapable de remplacer l’œil professionnel et entraîné> » (ibid. : 374).

Chaque type d’objectivité dessine le périmètre d’action du savant etvéhicule des vertus, qui découlent des normes épistémiques, et qui délimitent les contours d’un type de savant idéal. Par exemple, dans le cadre de l’objectivité mécanique, la subjectivité du scientifique doit être contenue par une stricte discipline de soi et par de l’autosurveillance. L’objectivité fondée sur le jugement exercé qui s’instaure au XXe siècle, valorise un type de scientifique, dont l’intervention, n’étant plus bannie et jugée comme nuisible, se trouve nécessaire. Grâce à son expérience, le scientifique peut reconnaître et agir sur les données produites par les machines. La production d’atlas appartenant à différentes époques implique donc une certaine relation entre le scientifique et l’objet naturel, mais aussi entre le scientifique et les dispositifs techniques dont il fait usage.

2] Image numérique et engagement de l’observateur

Chaque image témoigne donc d’un regard porté sur le monde, d’un investissement plus ou moins important de la « subjectivité » du scientifique et des techniques mobilisées pour incarner un certain idéal d’objectivité. L’image numérique implique un nouvel horizon où les modalités de production des données, leur manipulation ainsi que la relation entre l’observateur et la réalité représentée, changent et se reconfigurent.

William J. Mitchell (1994) a notamment cherché à repérer les modes de représentation véhiculés par ces images mais aussi le nouveau rôle que l’imageur acquière dans leur production. L’engagement du producteur d’images change par rapport à celui qui est propre à la photographie, qui est caractérisée par une relation causale avec le réel, et à la peinture, qui implique, au contraire, une relation intentionnelle avec le monde observé. La place des images numériques est donc ambiguë parce que la frontière entre intentions et causalité s’affaiblit. La détection automatique d’un phénomène se conjugue maintenant avec une intervention active sur ce phénomène même, en faisant jouer – dans la pratique scientifique par exemple – des connaissances, des prédictions et des compétences hétérogènes. Les images qui résultent des différentes formes d’imagerie scientifique sont, en fait, conçues pour appuyer une certaine vision du phénomène et de nouvelles manipulations deviennent possibles. Modèles théoriques et observations empiriques peuvent maintenant se conjuguer et se confondre.

Les représentations issues des imageries scientifiques témoignent de systèmes conventionnels et sont les reflets des codes que le scientifique lui a imposés. En se référant aux cartes d’activation du cerveau, à celles des grands fonds marins ou aux images astronomiques, Fontanille (2007) affirme que « les formes nettes et identifiables, de même que les couleurs, ne sont que des traductions plastiques de propriétés qui ne sont pas de nature plastique, ou de propriétés plastiques que notre vision ne saurait pas interpréter sans cette traduction ». Le sociologue Amit Prasad (2005) désigne ces images comme faisant partie d’un nouveau régime de vision, celui de la cyborg visuality, dans lequel une conception traditionnelle de la vision basée sur l’optique et sur la réfraction/absorption de la lumière est dépassée par des images qui ne se réfèrent plus à la position de l’observateur dans l’espace visuel, mais à un un espace cybernétique régit par un nouveau réalisme propre aux technologies assistées par ordinateur. La nature des données IRM, par exemple, permet une reconfiguration du corps humain, car les scientifiques peuvent choisir certains signaux pour adopter telle ou telle autre « vue » du phénomène observé. Ce mode de perception du corps rompt avec le « réalisme photographique » (Prasad 2005) et modifie inévitablement sa conception. Cette vision « améliorée2 » soutenue par des techniques informatiques, conduit donc à représenter et voir autrement le corps mais également les autres phénomènes physiques et naturels dont la science se saisit3.

3] Le cerveau et l’exploration des fonctions

L’exploration du cerveau par l’image qui caractérise les pratiques scientifiques contemporaines est l’aboutissement d’une progressive évolution des conditions techniques et des théories qui ont soutenu la visibilité des fonctions. Le cerveau est apparu comme un organe doué d’une activité physiologique propre et d’un fonctionnement interne autonome au moment du passage d’un modèle sensationniste, qui invoquait le pouvoir du milieu pour expliquer la génération de l’activité intellectuelle, à des approches réclamant une autonomie de l’activité cérébrale (Clauzade 2008). Le physiologiste Pierre-Jean-Georges Cabanis (1757-1808) introduit des modifications qui bouleversent les postulats du modèle sensationniste en vigueur et qui provoquent son progressif dépassement. Le cerveau est, selon lui, un organe qui n’est pas seulement animé par des « impressions externes » mais aussi par des impressions « internes » et par une action spontanée qui ne dépend ni de facteurs internes, ni de facteurs externes, car elle relève du cerveau lui-même. L’activité cérébrale n’est plus exclusivement dérivée du milieu extérieur, ni le simple résultat d’une stimulation : elle désigne une fonction du cerveau. Pour Clauzade, Cabanis est donc le premier qui « permet de penser une activité cérébrale sui generis non exclusivement dépendante des sens » (2008 : 247).

Avec Joseph Gall (1758-1828) et la phrénologie, le modèle sensationniste est abandonné et s’impose l’idée d’une multiplicité des facultés innées qui naissent, grandissent et se développent comme l’expression d’un organisme. Jusqu’au XIXe siècle, on oscille entre deux démarches qui répondent à des modes différents d’appréhension de l’esprit (Lanteri-Laura 1987). L’une consiste à fournir une base matérielle à l’âme, l’autre attribue nombre de facultés mentales aux diverses portions du cerveau. Mais la recherche de l’âme se heurtait à des difficultés d’ordre pratique4 et le consensus sur le siège de l’âme n’était pas simple à obtenir. On voit la question de l’âme s’établir sous la coupe de la théologie et progressivement déserter l’étude scientifique du cerveau.

Au XIXe siècle, la cranioscopie établit une relation entre la forme du crâne et les traits de caractère d’un individu. La méthode phrénologique reposait sur le repérage psychologique d’une population dont les membres partageaient des « traits de caractère » spécifiques, le moulage des têtes de cette même population et la comparaison des moulages permettant d’identifier les paramètres physiques communs. La cranioscopie – l’examen de la forme des crânes – se donnait comme objectif d’identifier les « bosses » à la surface de la tête qui, selon les phrénologistes, résultaient d’une pression de telle ou telle autre zone du cortex. Ces observations aboutissaient à la cartographie d’un ensemble d’organes censés composer le cerveau, chacun de ces organes étant responsable d’une fonction, ou mieux d’une qualité morale : l’amour de la progéniture, la vanité, le penchant au vol, le talent des mathématiques, l’esprit métaphysique, etc. Les critères du choix n’étaient évidemment pas neutres, au même titre que ceux qui étaient utilisés dans les comparaisons entre volume du cerveau et capacités intellectuelles entre sexes, races et âges différents. Dans l’entreprise de l’anthropologie physique du XIXe siècle, la hiérarchisation socio-raciale sous-jacente confirme sa portée idéologique. Au XIXe siècle la méthode localisationniste s’oppose aux approches unitaires5 dont le chef de file fut le médecin français Pierre Flourens (1794-1867), qui cherche à s’imposer en s’appuyant sur les faiblesses du paradigme adverse. Le manque de consensus sur le nombre d’aires, le lien de plusieurs fonctions à une même zone du cerveau (et vice-versa), l’implication de plusieurs aires dans une même fonction, la variabilité de l’expérimentation animale et la faible portée significative des observations chez l’humain, apportaient des arguments favorables à une conception unificatrice du cerveau. Néanmoins, surtout suite au travail de l’anatomiste français Paul Broca (1824-1880), qui démontra à l’aide d’observations de plusieurs patients aphasiques le rôle de la troisième circonvolution du lobe frontal dans la production du langage, la théorie d’un fonctionnement indifférencié du cerveau fut, en partie, discréditée. On pourra alors noter avec Georges Lanteri Laura que la querelle entre les deux camps prend fin avec la localisation de la zone du langage par Broca qui établit « la première corrélation anatomoclinique entre une faculté et un territoire cortical, sérieusement fondée ».

Le cortex acquiert progressivement une place fondamentale et « cesse ainsi d’apparaître comme le processus entéroïde des anatomistes de l’âge classique, pour devenir le point d’aboutissement des faisceaux qui remontent de la moelle à travers le tronc cérébral et le diencéphale » (Lanteri-Laura 1987 : 51). Les connaissances de l’anatomie comparée et de l’embryologie contribuent à caractériser cette structure et une nomenclature se développe pour la décrire. Les sillons (les dépressions qui traversent le cortex), les scissures (les dépressions les plus larges, dont la plus connue est celle qui sépare les deux hémisphères cérébraux) et les lobes (pariétal, occipital, temporal, frontal) précisent l’étendue de sous-espaces utilisés encore aujourd’hui.

4] L’esprit incarné

À partir des années 1960 se développe le modèle computationnel porté par Jerry Fodor et Hilary Putnam qui opère une assimilation du cerveau à un système digital animé par les principes de modularité et séquentialité. Dans les années 1980 s’affirme une autre approche concourante, le connexionnisme, qui appréhende le cerveau comme « système de traitement analogique et parallèle » (Guillaume, Tiberghien, Baudouin 2013 : 40)6. Pour les deux courants, bien qu’opposés, le modèle de référence pour l’étude du cerveau est la machine qui manipule des symboles à travers des relations causes-effets : « Le cerveau est comparé à un ordinateur, l’esprit à un programme fonctionnant comme un système de manipulation de symboles, et la conscience à un système d’exploitation de l’esprit » (Chamak 2011 : 20). La métaphore qui compare le cerveau à la machine devient opérante au XXe siècle et place les mathématiques au premier plan dans le décryptage du fonctionnement cérébral.

À la fin des années 1980٠ émerge un courant matérialiste qui se consolide en philosophie de l’esprit. Ce dernier, défendu notamment par la philosophe Patricia Churchland, nie l’existence des états psychologiques qui sont réduits aux mécanismes neurobiologiques. Brigitte Chamak (2011) rappelle comment, par la suite, des ouvrages comme L’Homme neuronal de Jean-Pierre Changeux (1983) et La Biologie de la conscience de Gerald Edelman (1992) se placent au sein d’un « programme fort » des neurosciences, terme forgé par Ehrenberg pour se référer à l’entreprise qui « vise à construire une biologie de l’esprit, “une neurobiologie de la personnalité”, autrement dit une biologie de l’individu » (Ehrenberg 2004 : 132).

Le sujet cérébral

L’expression sujet cérébral a été forgée pour décrire cette tendance à expliquer l’individu par son cerveau. Pour Fernando Vidal (2005), le sujet cérébral s’est imposé comme modalité d’expression du self et s’impose comme « la figure anthropologique inhérente à la modernité ». Pour Vidal cette idéologie est ancrée dans la culture occidentale, elle a constitué l’horizon théorique dans lequel les sciences cognitives et les neurosciences se sont développées. Vidal rapproche le « brainhood » (traduction de « cérébralité », terme évoqué pour se référer à l’appréhension du sujet par le biais de son cerveau) à la conception de la personne de Locke. Pour ce dernier la personne est située dans le corps, mais elle ne coïncide pas avec sa totalité physique. Cela signifie qu’il est possible de transférer la partie du corps qui est considérée comme le siège de l’« âme » dans un autre corps sans en causer la perte ou des modifications. À partir du XIXe siècle, ce cadre d’appréhension de l’individu s’est alimenté et précisé autour des recherches sur la structure et les fonctions du cerveau. La primauté accordée au corps semble correspondre à ce que Dominique Memmi appelle la « bio-individuation » ; ce concept s’appuie sur la constatation que « la maîtrise individuelle du donné corporel tend […] à devenir un lieu important du développement contemporain de l’individuation » (Memmi 2003 : 289). Ehrenberg (2004) a défini le sujet cérébral des neurosciences en opposition au sujet parlant de la psychanalyse pour rendre compte des frictions qui subsistent aujourd’hui entre les deux cadres explicatifs de la maladie. Les neurosciences ont reconfiguré, avec leur propre vision de l’individu, la prise en charge de nombreuses maladies mentales et contesté la légitimité d’autres approches thérapeutiques. L’autisme témoigne assez bien de la coexistence problématique de différents paradigmes qui encadrent l’explication des troubles mentaux.

L’apport des techniques de neuro-imagerie aux connaissances sur la biologie du cerveau soutient une approche matérialiste de l’esprit. Un des principes sur lesquels reposent les techniques d’imagerie cérébrale est la correspondance entre activité mentale et activité cérébrale. Comme l’a fait remarquer Philippe Descola, à partir du XIXe siècle, une « tension entre la croyance d’une généralisation de lois physiques et la croyance d’une intériorité qui ne leur répond pas » (Descola 2010)tend vers une « physicalisation de l’esprit7 ». De nos jours, la neuro-imagerie témoigne de cette évolution de la relation corps-esprit. La science, au travers des images, cherche dès lors à caractériser, rendre perceptible, incarné et donc explicable, ce « résidu immatériel » qui est l’esprit.

5] De la lésion à l’image

L’exploration des fonctions cérébrales et la production d’une connaissance scientifique sur le lien spatial entre anatomie et activité cérébrale furent, jusqu’à la phrénologie, une affaire réservée aux chirurgiens. À partir du XVIIIe siècle les deux méthodes dominantes pour étudier ces corrélations furent la déduction anatomique et la méthode lésionnelle (Barbara 2008). La maîtrise d’un savoir anatomique spécifique et de pratiques chirurgicales était requise pour les deux méthodes. La déduction anatomique consistait à faire découler une fonction des propriétés structurelles qui caractérisent les parties du système nerveux ; ainsi une fois découverte une relation entre une spécificité anatomique et une fonction, cette dernière était attribuée aussi aux autres régions qui partageaient le même aspect morphologique. La méthode lésionnelle essaie d’atteindre une zone du cerveau qu’on suspecte être responsable d’une fonction pour démontrer la véracité d’une certaine hypothèse de localisation. Mais la difficulté à maintenir en vie les organismes après l’opération était un des obstacles majeurs à la réussite de ce type de localisation. Les expériences étaient pratiquées sur les animaux vivants et les hommes (surtout des soldats) blessés (Barbara 2008). Ce sont donc des vivisections du cerveau animal et pathologique, mais aussi des dissections de cadavres, qui ont nourri le premier savoir sur les fonctions cérébrales. Localiser les fonctions par le biais de lésions revient à mobiliser une connaissance indirecte et négative, au sens donné par Knorr-Cetina (1999)8, une région étant définie non pas par les propriétés qui la caractérisent mais par les déficits dus à son absence. Les observations de Paul Broca sur les déficits langagiers du patient devenu célèbre sous le nom de « Tan », constituent les premières véritables « preuves » d’une implication de cette région dans la production de la parole. Les expériences de Broca viennent confirmer la dissociation des fonctions, mais ce sera seulement avec l’imagerie qu’on aura accès à une nouvelle visibilité de l’activité du cerveau et que l’existence d’une spécialisation cérébrale ne sera plus mise en doute.

Avec l’avènement des différentes techniques d’imagerie fonctionnelle in vivo, les images constituent les nouvelles « preuves » de l’activité cérébrale et seront de plus en plus mobilisées pour la cartographie des fonctions cognitives. Avec le développement de techniques d’imagerie anatomique telles que les rayons X (mis au point à la fin du XIXe siècle), mais aussi plus tard des techniques mesurant l’activité électrique ou métabolique du cerveau – comme l’électroencéphalographie (EEG), la tomographie par émission de positons (TEP), la magnétoencéphalographie (MEG) et l’imagerie par résonance magnétique (IRM) –, un mode de production des connaissances centré sur l’image s’est imposé.

Au début des années 1990, on assiste à une inflation progressive d’expériences basées sur les nouvelles techniques d’imagerie in vivo, grâce aussi à la conception de programmes informatiques de traitement d’images de plus en plus performants. L’IRMf (IRM fonctionnelle) en particulier devient la technique la plus utilisée pour la cartographie de l’activité cérébrale au sein des sciences cognitives. Les publications qui citent cette technique sont moins d’une vingtaine en 1993 alors que leur nombre approche des deux mille en 2003 (Berman, Jonides, Nee 2006).

La valeur attribuée à l’image est démontrée par l’histoire de l’imagerie par résonance magnétique, qui ne naît pas comme une technique d’imagerie mais qui le devient progressivement. La possibilité de créer des images remonte à 1973, quand Paul Lauterbur propose de rajouter un second champ magnétique au premier afin de produire des représentations anatomiques. Cette action combinée amène le chimiste à appeler la nouvelle technique zeugmatographie (du grec « ce qui sert à assemblage »). Mais plus tard ce nom fut remplacé par celui d’imagerie par résonance magnétique. Dans les années 1980, cette technologie commence à être intégrée à l’équipement des hôpitaux et les radiologistes se constituent en catégorie professionnelle légitime dans la maîtrise du savoir nécessaire à la lecture de l’image. Le changement de formulation de résonance magnétique nucléaire (RMN) en imagerie par résonance magnétique (IRM), auquel on assiste au cours des années 1980, est encore un pas vers l’affiliation de la machine aux techniques d’imagerie. Pour Joyce (2006), cette nouvelle appellation a été adoptée à la fois pour éviter d’évoquer le nucléaire et les craintes qu’il inspirait, et à cause d’une valorisation culturelle de l’image et des technologies de visualisation.

Cette nouvelle forme de représentation du corps est, entre autres, le résultat de l’essor des technologies informatiques qui ont changé à jamais les pratiques et les méthodes d’investigation du cerveau.

6] La neuro-informatique

Dans l’ultime décennie du XXe siècle, le Human Brain Project, programme scientifique coordonné par la NIMH (National Institute of Mental Health) scelle l’alliance entre sciences cognitives et informatique. Le but annoncé est celui de créer des outils informatiques pour « acquérir, stocker, récupérer, gérer, analyser, visualiser, manipuler, intégrer, synthétiser, diffuser et partager les données issues de la recherche en neurosciences9 ». La conception de ces dispositifs prend essentiellement trois directions : la collection et l’assemblage de données par le moyen de bases disponibles sur Internet, la visualisation et la manipulation des données, la collaboration entre scientifiques et l’intégration des informations au sein de réseaux. Cette première tentative, centrée sur le développement de la neuro-informatique, débute en 1993 et s’achève en 2003. Un deuxième programme, européen cette fois, dirigé par l’École polytechnique fédérale de Lausanne (EPFL), a démarré en 2013 et s’articule autour des technologies de l’information et de la communication (TIC).

Le premier Human Brain Project était, en partie, une réponse à la multiplication de données expérimentales issues des sciences du cerveau et d’un manque d’intégration entre clinique et recherche fondamentale. Comme l’a fait remarquer Anne Beaulieu (2001), l’« explosion » des données a alimenté un discours dénonçant une crise des neurosciences due au problème d’accès aux résultats, à une intégration difficile des disciplines, à une surabondance de données. Les espoirs de résolution de ces problèmes ont été confiés à la neuro-informatique, domaine qui prend en charge, depuis les années 1990, la conception de technologies de l’information adaptées aux sciences du cerveau. Au fil du temps, celles-ci ont incarné des idéaux d’une gestion rationnelle et efficace de la recherche et sont devenues les piliers du Human Brain Project. Comme cela ressort des rapports de l’époque, l’informatique est la priorité du projet, qui aspire à l’élaboration d’un langage commun pour « faire communiquer » des données différentes (comportementales, cellulaires, génétiques, anatomiques), issues de multiples techniques et disponibles dans des « formats » hétéroclites. Les efforts dispersés pour identifier les fonctions cérébrales et pour comprendre leurs connexions à différents niveaux (comportemental, génétique, macro-anatomique) commencent à sembler vains en l’absence d’une confrontation à grande échelle. En suivant l’exemple de la génétique, les neurosciences se sont dotées de la capacité de croisement d’informations au travers de ce qu’on appelle des enabling technologies.

L’intégration de nouveaux outils au sein des sciences du cerveau et des sciences de la vie en général a entraîné des changements qui affectent essentiellement :

La répartition des tâches et l’organisation du travail

. L’informatique a été le « moteur » de ce que Timothy Lenoir (1999) a appelé la mathématisation de la biologie, qui a entraîné un changement du rôle du biologiste et de ses fonctions. L’ingénieur apparaît comme une figure de proue dans la conception d’outils pour modéliser le « vivant » au service des pratiques médicales mais aussi des sciences fondamentales. La place qu’occupe l’ordinateur au sein du travail scientifique fait que l’ingénieur et le développeur sont des figures professionnelles incontournables dans un laboratoire de recherche et qu’ils sont de plus en plus engagés dans l’entreprise de la cartographie anatomique et fonctionnelle du cerveau. La mise en place de réseaux scientifiques et de plateformes mutualisées modifie aussi les pratiques et impose des nouvelles formes de collaboration et de communication.

La publication des résultats et la définition de la propriété intellectuelle

. La politique de l’

open access

et la diffusion d’archives ouvertes modifient à la fois les pratiques de consultation de la littérature, d’écriture et de gestion des données

10

.

La manière dont la réalité biologique est représentée, décrite, appréhendée

. Le cerveau est lui-même façonné par les nouveaux modes de figuration inhérents à l’informatique comme la modélisation tridimensionnelle, la visualisation des résultats selon différentes modalités et à l’aide de différents modèles théoriques, la possibilité de produire des cartes statistiques. Ces opérations amènent à une manipulation accrue des données et à la production de représentations où les contours entre réalité biologique et réalité numérique sont de moins en moins reconnaissables.

Les modes de production de la connaissance scientifique

. La centralisation et l’intégration de données de différentes natures semblent être les nouvelles conditions nécessaires à l’acheminement même d’une découverte scientifique. Les bases de données, ou encore les méta-analyses et les espaces de discussions comme les forums, modifient la manière dont les données sont évaluées, croisées et analysées

11

.

Une fois ces éléments généraux fixés, je voudrais montrer au fil de ma recherche comment, concrètement, les nouvelles méthodes de visualisation et de traitement de données touchent l’activité de cartographie des régions et des fonctions cognitives. Les pratiques feront émerger les contraintes qui pèsent sur la cartographie du cerveau à l’ère numérique. Mais avant d’en arriver là, il est nécessaire d’introduire les objets que nous allons suivre dans l’étude de la cartographie cérébrale.

7] La carte du cerveau

La carte répond à des conventions qui affectent la manière dont un objet est regardé, perçu et décrit, elle constitue avant tout un outil pour s’orienter12. Des marqueurs sont rendus visibles pour se repérer dans l’espace, circonscrire et identifier un phénomène. Dans ce sens, les cartes agissent en tant que filtres (Gugerli 2004), car elles réduisent la complexité en valorisant les éléments qui ont été sélectionnés par le scientifique.

Dans le cas du cerveau, la cartographie anatomique identifie des marqueurs structurels du cerveau (comme les régions, les lobes, les sillons), alors que le but de la cartographie fonctionnelle est de localiser le substrat biologique des fonctions cognitives. Peu importe qu’elle soit anatomique ou fonctionnelle, la carte est une image où le cerveau est représenté selon une certaine normativité technique et au prisme des hypothèses des chercheurs.

Nous allons présenter ci-dessous deux types de cartes, d’abord la carte du cerveau issue d’une expérience IRMf (qui vise à enregistrer et visualiser l’activité du cerveau), et ensuite les atlas qui « guident » la lecture de ces données et qui sont utilisés, entre autres, pour résoudre le problème de la variabilité du cerveau. Nous avons choisi l’atlas, à l’instar des historiens Peter Galison et Lorraine Daston, du fait qu’il témoigne d’un (ou plusieurs) régime(s) d’objectivité et qu’il véhicule une représentation particulière du corps.

En tant que cadre de référence mobilisé par les scientifiques pour l’exploration de l’objet naturel, l’atlas contraint la pratique scientifique et participe à la production des connaissances, sa prise en compte est donc indispensable dans la déconstruction des pratiques de recherche fondamentale dans les sciences du cerveau. Dans la suite, je vais présenter le contexte dans lequel les atlas du cerveau numériques sont produits, et la reconnaissance des zones cérébrales automatisée. Cet aperçu rapide révèle quelques-uns des changements encourus dans l’exploration du cerveau suite à l’avènement des sciences informatiques et de l’imagerie cérébrale et nous permet de préciser le cadre général des pratiques qui feront l’objet des chapitres suivants.

Il faut remarquer que bien que les deux objets, les cartes du cerveau, issues d’expériences de recherche, et les atlas, soient présentés séparément, la possibilité d’intégrer les atlas aux données de neuro-imagerie fait que cette distinction est en partie fictive, comme cela apparaîtra clairement au moment de l’analyse des pratiques.

7.1] Neuro-image et cartographie des fonctions cérébrales

Une image est d’abord la représentation d’un signal : dans le cas de l’IRMf, ce qu’on mesure de manière indirecte, c’est l’activité métabolique du cerveau. Cela est enregistré par la machine IRM lorsqu’un sujet effectue une tâche cognitive13. Le terme neuro-image se réfère généralement à une carte attestant le fonctionnement cérébral, terme qui sera utilisé dorénavant pour désigner ces objets au centre des pratiques de localisation dans la recherche fondamentale. Cette carte14 est une « représentation graphique de résultats statistiques » (Guillaume, Tiberghien, Baudouin 2013 : 89), c’est-à-dire qu’elle n’est pas l’expression directe de l’activité cérébrale mais d’un calcul effectué selon un modèle statistique. Autrement dit, l’objet (l’activation) contenu dans l’image n’est pas un événement « réel » mais significatif, cette significativité statistique étant établie par un seuil. Les activations sont isolées et rendues visibles par méthode soustractive, c’est-à-dire qu’on opère une différence entre conditions expérimentales (différence posée a priori par les hypothèses), ce qui permet de circonscrire une ou plusieurs zones et de les associer à un processus mental particulier. La localisation d’une zone se révèle seulement grâce à nombre de choix théoriques et techniques qui seront explicités au fur et à mesure.

On pourrait d’ores et déjà pointer quelques aspects épistémologiques impliqués par la production de ces données à l’aide de réflexions de Guillaume, Tiberghien, Badouin (2007, 2013). Au travers de la méthode soustractive, on « fait apparaître » dans la carte, des activations cérébrales qu’on traite comme si elles étaient des phénomènes distincts, ce qui reflète le parti pris du modularisme15 de la cognition. Mais l’on sait, par les résultats des études de neuro-imagerie, que la même zone cérébrale peut être activée par des tâches différentes, qu’elle peut être recrutée pour un processus cognitif spécifique, comme la reconnaissance des visages, ou être engagée dans des compétences plus générales comme l’expertise visuelle « auquel le premier est subordonné » (Guillaume, Tiberghien, Baudouin 2007). L’identification et la visualisation des zones activées dépendent ensuite du seuil statistique choisi pour générer une carte, c’est-à-dire que les activations qui divergent entre deux conditions seront visibles, ou pas, en fonction de la probabilité d’erreur acceptable fixée par l’expérimentateur. En d’autres mots, les régions considérées activées sont celles qui ne « passent » pas en dessous du seuil statistique choisi, ce qui permet de dire que l’analyse statistique participe amplement à la construction de la « réalité » par l’image.

Un autre aspect à interroger est l’étape d’interprétation des résultats qui est souvent caractérisée par ce qu’on appelle l’inférence inverse, qui « consiste à inférer un processus cognitif à partir de l’observation de l’activité cérébrale » (Guillaume, Tiberghien, Baudouin 2013 : 106). Si un processus cognitif A est associé à une tâche et qu’une activation est observée lors de cette tâche, il y a une tendance, largement attestée par la littérature, à inférer que, quand cette activation est présente, le processus A est nécessairement opérant. Pour Guillaume et ses collaborateurs ce type d’inférence est répandu car il rend possible des interprétations ad hoc. On recourt à l’inférence inverse, par exemple, quand on observe l’activation de régions qui n’étaient pas prévues, en sorte que le processus cognitif qui lui est associé dans des expériences précédentes, est invoqué pour expliquer l’activation.

Il est clair qu’un ensemble d’opérations techniques et théoriques contribuent à la localisation des fonctions cérébrales parce que d’elles dépendent la fabrication et l’interprétation d’une carte d’activation. La carte du cerveau est la cristallisation de choix méthodologiques et esthétiques qui témoignent d’une certaine représentation de l’esprit et de l’organisation des fonctions, voire, comme on le verra pour les neurosciences sociales, d’une certaine idée de la « société ».

7.2] Les atlas statistiques et probabilistes du cerveau

Le cerveau est un objet biologique très variable et comparer plusieurs cerveaux nécessite leur « déplacement » dans un « espace » normé, l’atlas, qui fonctionne en tant que système de référence. Au cours du temps, la représentation du cerveau et sa segmentation en régions ont suivi l’évolution des techniques, chacune d’elles ayant fourni un mode de figuration différent.

Au niveau macro-anatomique, les atlas en papier ont été remplacés par des atlas numériques qui répondent à un idéal de connaissance spécifique propre aux nouvelles technologies. Avant l’essor des techniques d’imagerie, l’atlas le plus utilisé était celui conçu, à la fin des années 1950, par Jean Talairach et Pierre Tournoux (figure 1).

Figure 1. Dessin issu de l’Atlas de Talairach et Tournoux (1988).

Cet atlas permettait aux scientifiques de comparer des cerveaux différents à travers leur insertion dans un espace commun, appelé « stéréotaxique ». La taille du cerveau d’un sujet était rapportée à celle d’un cerveau « modèle » qui figure dans un espace tridimensionnel sur les trois axes, coronal (y), sagittal (x) et axial (z) : « En référence à ces trois axes, il est dès lors possible de décrire tous les points de l’espace stéréotaxique par ses coordonnées millimétriques (x, y, z), correspondant respectivement à leurs positions dans les directions sagittale, coronale et axiale » (Houdé, Mazoyer, Tzourio-Mazoyer 2010 : 164).

Mais les coordonnées de Talairach et Tournoux sont élaborées à partir d’un seul cerveau (post-mortem) appartenant à une femme de 60 ans ; c’est une des raisons qui a conduit les scientifiques à proposer de nouveaux atlas. La neuro-informatique et les techniques de neuro-imagerie ont permis de créer des atlas résultant de la comparaison statistique de groupes d’images du cerveau. Le voxel (volumetric pixel), un pixel volumique, est l’unité fondamentale qui compose les images numériques issues des scans IRM ou PET. Il permet d’appréhender les images en termes quantitatifs et d’en faire l’objet d’analyses mathématiques et statistiques. Le voxel permet de rendre l’image apte à des traitements statistiques automatisés : « Une fois dans l’espace cartésien, l’anatomie du cerveau peut être manipulée en termes de voxels, un ensemble de valeurs numériques placées dans une matrice, ouvrant la porte à un large éventail de manipulations – mathématiques ou statistiques – et, dans tous les cas, automatisées. Dans ce contexte, l’anatomie traditionnelle du cerveau, un paysage linguistiquement ordonné, cède la place à une anatomie à l’intérieur d’un cadre spatial ordonné quantitativement » (Beaulieu 2004 : 377).

Deux atlas numériques ont été créés en utilisant les repères spatiaux de Talairach et Tournoux. Le premier, appelé MNI305, fut élaboré vers la moitié des années 1990 par le Montreal Neurological Institute à partir de données IRM de 305 sujets, et plus récemment, en 2001, un deuxième atlas, le MNI152, a vu le jour et est devenu l’atlas « standard » proposé par les logiciels de traitement des images. L’atlas MNI305 fut réalisé via la fabrication d’une image moyenne d’images du cerveau où un marquage manuel des repères fixés par l’atlas de Talairach avait été préalablement effectué. L’autre atlas, le MNI152, est le « résultat du recalage16 de 152 cerveaux normaux par rapport au MNI305 » (Clouchoux 2008 : 29). Cela signifie que le résultat de la moyenne de 152 images IRM a été « mis en correspondance » avec le MNI305, en aboutissant à une nouvelle image. Chaque nouvel atlas est donc généré à partir des atlas précédents : le MNI305 utilise le référentiel de Talairach pour traiter la variabilité d’un grand nombre de données17 acquises avec les techniques d’imagerie par résonance magnétique et, le MNI152, intègre à l’image moyenne ainsi produite, 152 données supplémentaires.

Cette évolution, qui s’est opérée sur quarante ans, montre le passage de l’espace conçu manuellement par Talairach et Tournoux, sur la base du cerveau disséqué, à celui qui est issu du Montreal Neurological Institute et qui représente la synthèse de centaines d’images. Le dernier atlas statistique exprime néanmoins la fusion de deux représentations du cerveau : la première est celle de Talairach qui « transpose » un objet individuel dans une grille de coordonnées fixes. Ici le cerveau dans sa réalité biologique est encore en amont du processus d’abstraction. La deuxième implique un processus nouveau, l’image n’est plus rattachée au sujet mais à une population, et les traits du cerveau individuel sont « dilués » dans un prototype moyen (figure 2).

MNI305 (The McConnell Brain Imaging Centre : MNI 305).

MNI152 (The McConnell Brain Imaging Centre : ICBM 152 Lin)

Vers la moitié des années 1990, des cartes surfaciques18 probabilistes (Amunts & Zilles 2001 ; Eickhoff et al. 2005 ; Schleicher et al. 2009) ont été élaborées pour représenter de façon plus précise la variabilité structurelle et fonctionnelle entre les cerveaux. Ces atlas indiquent l’espace « probable » dans lequel un objet, tel qu’un sillon, est susceptible d’être repéré (figure 3).

Figure 3. Cartes probabilistes de l’amygdale, l’hippocampe et du cortex entorhinal (extrait de Amunts et al., 2005). Les couleurs indiquent les zones de la variance inter­in­di­vi­duelle ou l’espace commun à tous les cerveaux, où les régions en question se « chevauchent ».

Le principe de ces atlas est de traiter la variabilité de la localisation des régions au moyen d’un espace commun et de représenter une structure anatomique en termes de probabilités. Cette approche conduit à une nouvelle compréhension des structures et des fonctions cérébrales qui ne sont pas immuables mais relatives. Les atlas peuvent être « enrichis » par l’introduction de nouvelles données, ce qui entraîne leur constante modification (Beaulieu 2001). Les images numériques du cerveau et leur traitement statistique influencent donc la façon d’appréhender le cerveau et de le cartographier, « la connaissance ainsi produite perd l’allure substantialiste […] pour prendre un tour probabiliste » (Lanteri-Laura 1987 : 217).

Atlas et « normalité »

Les sujets choisis dans la production des atlas du Montreal Neurological Institute reflètent les critères de normalité qui sont aussi opérants dans la constitution des groupes « contrôle » dans les expériences de recherche et qui relèvent d’une sélection qui prend en compte le sexe, la santé mentale, les pathologies physiques, les addictions. Les sujets choisis témoignent de ce que Beaulieu appelle une super-normalité parce que les caractéristiques retenues font partie d’un « idéal » de normalité et se fondent sur un système de classification culturellement et socialement valorisé. Il y a donc une normativité qui est intrinsèque à la composition même des échantillons utilisés pour fabriquer les atlas.Les nouveaux modes d’exploration de la normalité au moyen des atlas probabiliste font aussi l’objet de l’analyse de Beaulieu. La quantification opérée à l’aide des atlas probabilistes, est utilisée pour évaluer l’« écart » entre un groupe de patients et un groupe de sujets « sains ». Ces atlas changent inévitablement la manière dont on représente la maladie mentale qui est appréhendée, dans les neurosciences, au prisme de « profils » cérébraux par lesquels on cherche à dépasser les spécificités individuelles pour tracer les contours d’un phénomène unique. C’est « l’essence » de la maladie, selon l’expression de Beaulieu, qui est ainsi rendue perceptible non pas par l’expertise du cas individuel mais par une comparaison automatique de nombreux cerveaux19. Sujets, images, symptômes sont synthétisés en une carte qui localise la pathologie dans le cerveau.

8] L’atlas du cerveau à l’ère de la neuro-informatique : quelle nouvelle objectivité ?

Ces atlas assurent manifestement trois fonctions : ils servent à se repérer dans le cerveau, à comparer un groupe de sujets, à croiser des données de divers types. Les atlas numériques sont normatifs et stables en ce qu’ils contraignent les pratiques des chercheurs et fournissent des cadres de référence pour mesurer la normalité et la pathologie, mais ils sont aussi « flexibles », car leur « contenu » peut être toujours modifié par l’ajout de nouvelles données. De plus, le fait que l’on puisse coupler des données de natures différentes (anatomiques et fonctionnelles, de niveau cellulaire ou macro-anatomique, in vivo et post-mortem, IRM/PET/EEG, appartenant à sujets sains et pathologiques) rend ces outils particulièrement « malléables ». Dans ce sens, les atlas numériques se révèlent aussi composites car ils représentent, comparent et visualisent des données hétéroclites provenant de diverses disciplines.

Une nouvelle objectivité, l’objectivité numérique, a été invoquée (Beaulieu 2001) pour expliquer, entre autres, cette valorisation de la production automatique d’atlas, basée sur la « moyenne » comme norme, ce qui montre une volonté d’évacuer l’intervention du scientifique, considérée comme subjective. L’objectivité numérique vise, en général, à une standardisation de grands ensembles de données et à leur traitement massif par des procédures automatisées. Le scientifique doit davantage savoir maîtriser, coordonner et recouper des informations hétérogènes à l’aide des techniques numériques. Le data-mining – l’exploration de données en large échelle – prend alors une place essentielle dans les neurosciences et le travail scientifique se déplace progressivement de la « paillasse » à l’écran. Le processus de découverte est ainsi moins porté vers les expériences réalisées dans le laboratoire que vers la réalité virtuelle et les technologies informatiques.

Mes questions vont se structurer alors autour des cartes issues de la neuro-imagerie, des atlas et des modèles théoriques qui les sous-tendent. Si l’analyse des atlas numériques renseigne sur les normes qui régissent la production et l’évaluation de la connaissance sur le cerveau, le travail scientifique autour de ces atlas conduit à définir l’objectivité « par le bas », en prenant en compte les conditions socio-techniques dans lesquelles elle se construit. Quelles sont les contraintes réelles qui encadrent le travail des scientifiques engagés dans la recherche fondamentale en neurosciences ? Quelles sont les normes épistémiques qui régissent les pratiques de cartographie du cerveau ?

Je vous invite à franchir les portes du laboratoire afin de suivre la production des données à travers les divers traitements que les chercheurs réservent aux images. Je présenterai ensuite les atlas et les modèles théoriques utilisés pour la cartographie du cerveau parce que c’est d’eux, finalement, dont dépend la définition du « normal » et du « pathologique ».

[1] Pour justifier cette affirmation, Daston et Galison évoquent des textes datant du Moyen Âge, qui attribuent à l’objectivité une signification non pas seulement différente mais opposée à celle en vigueur aujourd’hui : « Le terme objectif renvoyait aux choses telles qu’elles se présentent à la conscience tandis que le mot subjectif se référait aux choses en soi » (iibid. : 39). C’est plus tard, à la suite de l’utilisation, quelque peu détournée, des définitions kantiennes du binôme objectif/subjectif par les poètes et les philosophes idéalistes en Allemagne et en Angleterre, que le terme objectif commence à se référer aux choses de la nature, et le terme subjectif à tout ce qui relève du Moi.

[2] Morana Alac (2011) parle dans le cas de l’IRM de « super-seeing ».

[3] Pour aller plus loin, voir Sturken & Cartwright (2001).

[4] Le siège de l’âme devait forcément être une structure cérébrale unique (non double) mais les candidats étaient nombreux (corps calleux, glande pinéale, commissure antérieure, etc.).

[5] Pour un compte rendu de cette querelle, voir l’ouvrage de Leigh Star (1989).

[6] Le computationnalisme et le connexionnisme se font face encore aujourd’hui à l’époque des neurosciences. La neuro-imagerie a consolidé, par la localisation spatiale des fonctions, la théorie d’une modularité de l’esprit mais la récente possibilité d’« imagier » la connectivité cérébrale semble donner des nouveaux arguments à l’encontre de l’idée de « modules cognitifs » séparés.

[7]