La science, la cité

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé : recherche

Fil des billets - Fil des commentaires

Controverses et expérimentation

Nous avons montré, dans le billet précédent, comment de nombreux facteurs autres que "scientifiques" interviennent pour juger du résultat d'une expérience et pouvoir dire si elle est valide, ce qu'elle nous apprend etc. Cette flexibilité interprétative, si elle peut être surmontée à  terme par le chercheur isolé, peut être beaucoup plus problématique pour la science comme collectif. En effet, si chaque chercheur est potentiellement capable d'une interprétation différente du résultat observé, il devient très difficile de s'accorder.

Typiquement, c'est le cas lors d'une controverse : une équipe déclare avoir observé le phénomène X, une autre équipe lui oppose son résultat Y et il faut trancher. Nous verrons dans un prochain billet que la science est surtout faite de ces moments de flottement mais il apparaît maintenant que pour trancher, l'expérimentation ne suffit pas. J'enfoncerai le clou avec deux exemples :

  • on considère souvent que la science reproduit systématiquement ses résultats ; de cette façon, on devrait pouvoir s'accorder sur ce que l'on observe et sa signification. Mais comme le rappelle Sir George Thomson[1] : Il y aura toujours quelque chose de différent… Quand vous dites que vous répétez une expérience, vous répétez que sont pertinents tous les paramètres d'une expérience déterminée par une théorie. En d'autres mots, vous répétez l'expérience comme exemple de la théorie. Ce que Thomson nous dit là  encore, c'est qu'il n'existe pas d'expérience pure ;
  • de plus, aucune expérience ne permet réellement de rejeter une hypothèse. On a longtemps cru à  la fameuse expérience cruciale qui fait éclater la vérité au grand jour, comme Boyle mettant en évidence l'existence du vide avec sa pompe ou Eddington confirmant la théorie de la relativité grâce à  l'observation d'une étoile dont le rayon lumineux est dévié quand il passe à  proximité du soleil. Cette vision est un peu écornée par Pierre Duhem dans son livre de 1906, La Théorie physique, son objet et sa structure, qui n'a acquis toute son importance que rétrospectivement. Selon ce physicien et philosophe, l'expérience cruciale est impossible : une expérience de physique ne peut jamais condamner une hypothèse isolée, mais seulement tout un ensemble théorique. Et lorsque l'expérience est en désaccord avec ses prévisions, elle lui apprend que l'une au moins des hypothèses qui constituent cet ensemble est inacceptable et doit être modifiée ; mais elle ne lui désigne pas celle qui doit être changée. Duhem soutenait donc qu'on peut toujours sauver une théorie qui contredit une observation en modifiant une hypothèse auxiliaire (typiquement une hypothèse concernant le fonctionnement d’un instrument) ou en ajustant la théorie grâce à  des hypothèses ad hoc.

Pour juger, donc, de la validité d'une expérience réalisé par un autre labo et pour pouvoir trancher entre deux affirmations apparemment opposées, Harry Collins a avancé l'idée que d'autres critères entrent en compte : la confiance, l'intelligence, la réputation, le style, le prestige etc. qu'un chercheur prête à  un autre chercheur[2]. Tous les chercheurs, en effet, regardent d'abord d'où vient un résultat et par qui il est avancé avant de donner leur avis sur sa validité. Souvent même, ils chercheront à  discréditer le chercheur avant de critiquer son expérience, l'accusation suprême étant celle de pseudo-science ou d'anti-science. Mais redonnons la parole à  Collins et Pinch[3] :

Le fossé qui sépare défenseurs et critiques, fossé creusé lorsqu'un des deux partis accuse l'autre de se comporter de manière "antiscientifique", est caractéristique des controverses scientifiques. Les détracteurs font avant tout appel à  des résultats négatifs pour fonder leur rejet du phénomène controversé et tous les résultats positifs s'expliquent, selon eux, par l'incompétence, l'illusion ou même la fraude. Les défenseurs expliquent quant à  eux les résultats négatifs par l'inaptitude à  reproduire exactement les conditions de l'expérience qui a permis d'obtenir les résultats positifs. A elles seules, les expériences ne semblent pas suffire à  régler la question.

Le prochain billet, lui, racontera une petite histoire qui nous emmènera encore plus loin…

Notes

[1] Thomson G. (1965) [1963], "Some thoughts on scientific method" dans Boston Studies in the Philosophy of Science, vol. 2, Humanities Press, p. 85

[2] Collins H. et T. Pinch (2001) [1993], Tout ce que vous devriez savoir sur la science, Le Seuil coll. "Points sciences", p. 138

[3] ibidem, p. 101

Partage

Les limites de l'expérimentation

Le passage signé Ian Hacking que je citais dans mon billet précédent sur l'expérimentation se termine en fait sur cette phrase : Les critères d'identité pour un phénomène peuvent donc être hautement théoriques. Ce que cela signifie, c'est que l'expérimentation essaye bien de faire parler la réalité mais que celle-ci ne répond pas de façon univoque. Pour dire si deux phénomènes traduisent bien la même réalité, il faut une théorie. Il faut une interprétation. Il faut une certaine "lecture". Ce sont ces limites de l'expérimentation dont nous allons discuter ici.

Par exemple : lors d'une observation, on ne rend pas compte de manière pure de ce qu'on observe. Comme dans cette illustration fameuse où l'on peut voir alternativement un vase et deux visages face à  face, il ne suffit pas d'une expérience visuelle pour voir quelque chose mais il faut également une représentation a priori de ce qui peut être vu. Les faits s'imposent nullement comme tels à  l'homme, en dehors d'un certain regard, d'une certaine perspective portée sur les choses, elle-même déterminée par une certaine attente, en rapport avec une certaine interprétation de la réalité.

Pour savoir comment les chercheurs se sortent de ces difficultés, les philosophes des sciences se sont fait anthropologues et ont séjourné dans les laboratoires. C'est ainsi que certains auteurs, notamment Harry Collins, ont attiré notre attention sur les savoirs tacites des expérimentateurs, reprenant un concept mis en avant dans les années 1950-1960 par Michael Polanyi. Ces savoirs tacites sont typiquement individuels puisqu'ils se transmettent difficilement, non pas sous forme de formule, de diagramme ou d'instruction mais par contact interpersonnel. Cela inclut les savoirs-faire manuels, qui ne s'acquièrent en général que par l'expérience, comme ces chercheurs qui sont tellement habitués à  leur environnement de travail qu'ils peuvent dire si un instrument fonctionne correctement ou non rien qu'au bruit de sa pompe. Le savoir-faire peut en effet être aussi bien cognitif qu'olfactif, perceptif, visuel... Cela inclut également le savoir-être, cette forme d'intelligence dite "sociale", à  l'instar de cette microscopiste qui comprend immédiatement ce qu'un chercheur veut obtenir et le traduit en terme de manipulation de l'échantillon et de l'instrument. On y inclut enfin les savoirs culturels, comme la capacité à  lire, à  comprendre des informations, à  inférer pour arriver à  un consensus... Ces savoirs culturels s'acquièrent par acculturation, c'est-à -dire par contagion sociale inconsciente, comme lorsque la mise au point du laser TEA put enfin être répliquée par d'autres laboratoires, non pas d'après le "mode d'emploi" qui avait été publié mais grâce à  des séjours plus ou moins longs dans le laboratoire du concepteur initial. Toutes ces capacités mises ensemble font la force de l'expérimentateur et sa richesse ; elles lui sont tellement propres qu'on aurait tort de voir dans les expérimentateurs des individus interchangeables.

De la même façon, on peut citer ces "chercheurs artisans" qui sont amenés à  "bricoler" en mettant en œuvre leur créativité et leur capacité d'adaptation. Un moyen courant de procéder consiste à  opérer des catachrèses, c'est-à -dire à  se servir d'un instrument en dehors de son usage habituel ou de ses limites normales de fonctionnement. C'est par exemple ainsi que le microscope à  force atomique a pu être détourné par un chercheur qui en a modifié la pointe, pour étudier non plus la topographie d'un échantillon, à  l'échelle nanométrique, mais les propriétés et défauts magnétiques des matériaux.

Voir, pour la science d'aujourd'hui, signifie presque exclusivement interpréter des signes obtenus par des instruments écrit Paolo Rossi[1]. Et de prendre l'exemple de l'étude des galaxies lointaines grâce au télescope Hubble, qui repose sur le satellite mais aussi sur un système de miroirs, une lentille télescopique, un système photographique, divers ordinateurs, un appareil qui transmet ces images à  la Terre sous forme d'impulsions radio, un appareil à  terre qui retransforme ces impulsions radio en langage informatique, le logiciel qui reconstitue l'image et lui donne les couleurs nécessaires, la vidéo, une imprimante couleur... Toutes ces médiations instrumentales qui rendent possible l'observation ont été étudiées par Trevor Pinch sous le nom de "procédures d'externalisation". Si l'on y ajoute les savoirs tacites et la présence de catachrèses, l'expérimentation devient bien univoque : elle ne répond pas oui ou non aux questions que l'expérimentateur lui pose. C'est ce que l'on nomme la "flexibilité interprétative".

Rendez-vous dans le prochain billet pour traiter des conséquences de cette flexibilité.…

Notes

[1] Rossi P. (2004) [1999], Aux origines de la science moderne, Paris : Le Seuil, coll. "Points sciences", p. 277

Partage

La science, entre théorie et expérimentation

Dans ses délicieux portraits imaginaires de chercheurs[1], Pierre-Gilles de Gennes juxtapose deux figures bien éloignées : Béziers, l'un des grands théoriciens de notre temps, constructeur de concepts vastes et superbes, face à  Kuba, magicien de l'expérimentation, qui a construit des machines subtiles ; et il en a extrait des faits importants. Cette juxtaposition n'est probablement pas le fruit du hasard.

En effet, on oppose souvent théorie et expérimentation. La première serait le fruit de génies ou de visionnaires, façon Einstein ou Newton, tandis que la seconde serait le fait de chercheurs affairés ou d'ingénieurs consciencieux, tout à  leurs machines et leurs problématiques techniques. Cette division des tâches prend sa source dans la démarche de la science : traditionnellement, elle oppose la théorie, considérée comme primordiale, et l'expérimentation quasi-mécanique qui sert à  tester les hypothèses et à  créer de nouveaux faits à  expliquer. La première relève de la logique, du raisonnement froid et elle forme la substantifique moelle de la science. La seconde relève du bricolage, de l'ingéniosité et permet à  la science d'avoir toujours du grain à  moudre en même temps qu'une emprise sur le réel. Ainsi, ce que le philosophe Carl Hempel a retenu dans l'histoire de Semmelweis, c'est son raisonnement basé sur des déductions et réfutations successives et non l'expérimentation qui suivit naturellement. Popper, lui, n'affirmait-il pas que le théoricien pose certaines questions déterminées à  l'expérimentateur et ce dernier essaie, par ses expériences, d'obtenir une réponse décisive à  ces questions-là  (La Logique de la découverte scientifique, Payot, 1995, p. 107) ?

Mais la sociologie et l'histoire des sciences nous aident à  réviser cette vision. Voyons cette histoire que nous raconte Ian Hacking dans son cours au Collège de France :

En 1839, A. C. Becquerel (1788-1878), le premier d’une famille renommée de physiciens — son petit-fils a partagé un prix Nobel avec Marie Curie — remarque une chose très curieuse. Avec son fils, il a fait des expériences sur l’électricité, la lumière et certaines solutions salines comme le chlorure d’argent — cela se passe quelques années après que L.-J.-M. Daguerre a utilisé l’iodure d’argent pour le daguerréotype. Quand on illumine une électrode dans un dispositif composé de deux électrodes identiques baignées dans cet électrolyte, il apparaît une différence de potentiel entre les électrodes. A l’origine, ce sont des recherches liées à  la fascination suscitée par la photographie qui ont révélé par hasard des indices d’effets plus profonds : on dit que c’est ce Becquerel qui a découvert l’effet photoélectrique.

En 1885, Heinrich Hertz (1857-1894) réalise ses expériences fondamentales sur les ondes électromagnétiques. Lorsqu’il applique un rayonnement électromagnétique à  des électrodes sous tension dans un gaz raréfié, il se produit une décharge. L’étincelle étant un peu faible, pour mieux l’observer, il place des électrodes dans une boîte noire protégée par une plaque de verre. L’étincelle est moins forte quand on ajoute le verre, mais une plaque de quartz (qui n’arrête pas les rayonnements ultraviolets) n’entraîne pas la même baisse d’intensité.

On pense aujourd’hui que les deux phénomènes décrits l’un par Hertz et l’autre par Becquerel, apparemment très différents, illustrent en réalité le même phénomène : l’effet photoélectrique. Les faits expérimentaux sont établis définitivement par Philippe von Lenard en 1902, et Einstein en donne l’explication en 1905. Qu’est-ce que cet effet photoélectrique ? Le phénomène observé par Becquerel n’est-il pas tout à  fait différent du phénomène de Hertz ? Non, ils sont identiques, parce que dans chaque cas des électrons sont libérés par des photons qui entrent en collision avec les atomes d’un métal.

Où il apparaît que la théorie vient parfois après l'expérimentation et surtout, que la théorie n'est peut-être qu'une fiction utile permettant de "sauver les phénomènes" et de construire la réalité.

Pour en revenir aux idéaux types, on peut avancer que les théories-cadres comme celles d'Einstein ou de Darwin sont bien dues à  de purs théoriciens — à  condition qu'on ne leur retire pas leur formidable capacité à  saisir le fait, qui est en général beaucoup plus difficile qu'élaborer l'hypothèse (Jean Fourastié, Les Conditions de l'esprit scientifique, Gallimard, coll. "Idées", 1966, p. 132). Et qu'à  côté cohabitent des êtres hybrides, à  la fois théoriciens et expérimentateurs, comme Louis Pasteur ou les prix Nobel Monod et Jacob. Mais une chose est sûre, les uns auront toujours besoin des autres. Et il serait faux d'accorder un crédit supplémentaire à  la théorie ou à  l'expérimentation, tant leur intrication est profonde.

Notes

[1] Petit point, Le Pommier, 2002

Partage

Philosophie et sociologie des sciences pour le chercheur

Comme le répète sans arrêt une des mes profs, le chercheur typique ne connaît rien à  la philosophie des sciences et encore moins à  la sociologie des sciences. Et quand il connaît Bruno Latour, il ne l'aime pas du tout. Je ne serais pas si catégorique mais il est difficile de s'exprimer au nom du chercheur moyen, surtout quand on lit trop les blogs de certains chercheurs qui regorgent d'allusions à  ces auteurs ou leurs théories.

Heureusement, les chercheurs curieux ou avides de réflexivité existent, comme le prouve le témoignage de Bertil Sylvander (Inra) au moment de son départ à  la retraite :

Très modestement et sans avoir publié dans ce domaine, je me permets de relire ma carrière à  la lumière de certaines thèses en théorie des sciences, que je résume grossièrement ici. Je me suis reconnu dans les idées de Feyerabend (l’anarchisme épistémologique), qui soutient que la science progresse par des phases de désordre et qu'il faut donc absolument préserver une diversité des pratiques scientifiques (certains responsables de l'Inra devraient lire Feyerabend). Je me suis reconnu dans Thomas Kuhn, qui distingue deux types de recherche, qui correspondent à  deux types de pratique scientifique : (i) la science dite « normale », où le chercheur construit ses hypothèses et ses protocoles à  partir du paradigme dominant et écarte les « anomalies », non expliquées par lui (ou essaie désespérément de les expliquer par des expédients) ; (ii) les « révolutions scientifiques », construites à  partir du moment où des chercheurs s’occupent des anomalies et où certains d’entre eux, plus géniaux que d’autres, formulent des hypothèses et des théories capables d’en rendre compte « on ne change pas de théorie quand la précédente est réfutée, mais quand nouveau paradigme devient efficace et légitime ». Il y a alors accord sur un agenda de recherche dans la nouvelle communauté scientifique issue de la révolution. Je me suis reconnu dans Lakatos qui soutient que la science normale invente des stratégies de défense autour du noyau durde la théorie. Je me suis bien sûr reconnu (mais trop tard !) dans Latour, qui explique qu’une part sensible de l'activité des chercheurs consiste à  travailler à  légitimer leur programme de recherche auprès de leurs collègues, de leur hiérarchie et de leurs financeurs.

Quand Bertil Sylvander fait son marché chez les philosophes et sociologues des sciences, ça donne un bon vademedecum à  destination des chercheurs ! Et pour une fois, les chouchous habituels — Merton et ses normes de fonctionnement de la communauté scientifique, Popper et sa réfutabilité —, qui cadrent si bien avec l'image que les chercheurs se font de leur activité, sont aux abonnés absents. à‡a fait du bien…

Partage

Chacun à  sa place

L'ordre des auteurs qui signent un article scientifique, ou même la décision de qui doit apparaître comme auteur, est un enjeu loin d'être anodin : il en va de l'éthique du chercheur (tous les signataires sont censés endosser la responsabilité de l'article), de la garantie contre la fraude (dans l'affaire Hwang, un co-auteur n'était qu'un faire-valoir ; dans certains domaines en vue, les prête-noms sont communs) ou simplement du pragmatisme le plus déconcertant (quand on est dix à  avoir travaillé sur un sujet, comment savoir qui mettre en premier, puis en deuxième, en troisième etc. ?). Le sujet ressortait la semaine dernière dans la revue Nature, sous la plume de deux lecteurs.

Le premier contestait une proposition de ce même journal de faire signer à  l'auteur principal, pour chaque article, une déclaration qui engage sa responsabilité et celle des co-auteurs dont il certifie qu'ils ont relu l'article et sont en accord avec lui. Ce qui n'est pas nécessaire si la signature de l'article lui-même est suffisamment réfléchie et qu'elle est par exemple accompagnée d'une note sur la contribution exacte de chaque auteur. Cette pratique de plus en plus courante, adoptée par les plus grandes revues, permet en effet de trier entre les auteurs de prestige et ceux qui ont réellement travaillé.

Décrire la contribution de chacun n'est pas toujours aisée. Mais la quantifier et la pondérer au vu du résultat final l'est encore moins ! C'est pourtant ce que proposaient Christine Beveridge et Suzanne Morris : dans leur labo, l'ordre des auteurs se détermine désormais en fonction du poids attribué à  la contribution de chacun (deux graphiques pour Dr. X, un chapitre pour le thésard Y, la relecture pour le Pr. Z). Je me suis laissé dire qu'il n'y a rien de plus difficile que de mettre en regard l'écriture d'un chapitre avec un travail de manip aboutissant à  une figure, une idée originale ou l'apport d'un financement. Par contre, il peut être bénéfique de confier chaque article à  un chercheur, qui va distribuer les tâches puis les bons ou mauvais points. Un principe de gouvernance efficace, en quelque sorte. C'est en tous cas l'avis d'Umesh Chandra Lavania (qui est "végétaliste" comme le sont Beveridge et Morris, est-ce un hasard ?), qui surenchérissait ainsi dans Nature.

Voilà  donc où les chercheurs en sont de leurs réflexions, je ne sais pas ce que vous en pensez…

Partage

- page 3 de 6 -