La France s'attaque enfin à la fraude scientifique ?
11
nov.
2008
Depuis le début des années 1980, les Etats-Unis s'intéressent aux FFP (falsification, fabrication and plagiarism) et aux QRP (questionable research practices), d'où l'abondance de données sur le sujet de l'autre côté de l'Atlantique. Le ministère de l'enseignement supérieur et de la recherche français, lui, vient seulement de demander en début d'année à Jean-Pierre Alix, cadre du CNRS, d'établir un diagnostic sur l'intégrité scientifique, et de proposer des remèdes.
Pourtant, nous n'étions pas épargnés. Nos chercheurs ne sont pas meilleurs que les autres mais longtemps, nous n'avons pas voulu voir ce mal qui ronge la recherche, et l'avons réduit à une déviance accidentelle. Voici ce qu'on lisait dans un éditorial de Science et vie en septembre 1998, suite à l'affaire Bihain :
Nos voisins britanniques et allemands (…) ont de l'avance sur nous. L'Allemagne vient de modifier sa législation : le trop fameux publish or perish ("publier ou périr"), qui guide l'activité scientifique, cède la place à "Besser un Weniger" (publier "mieux et moins"). Le prestigieux institut Max-Planck de Berlin a établi une charte qui protège les "dénonciateurs" de fraude. En revanche, il n'existe en France aucune déontologie scientifique. Nulle protection n'est offerte aux dénonciateurs, qui honorent la science en proclamant la vérité au risque de briser leur carrière. Il est temps de s'attaquer sérieusement au mal. Hélas, quand on lit le communiqué de l'INSERM, qui indique que, "à sa connaissance, aucune mauvaise conduite scientifique de l'unité 391 n'a pu être démontrée", on n'a pas l'impression d'en prendre le chemin…
Et c'était il y a déjà dix ans ! Ce mois-ci, Science et vie s'attaque de nouveau à la question avec un dossier spécial, ce qui prouve que la question revient en haut de l'ordre du jour. On y retrouve évidemment Jean-Pierre Alix, qui promettait dans Le Monde d'organiser un colloque à la fin de l’année 2008, afin de sensibiliser et d’impliquer les institutions scientifiques
plutôt que de pondre un rapport voué à finir dans un tiroir. J'ai longtemps guetté ce colloque et je vois que Jean-Pierre Alix est derrière celui qui arrive les 24 et 25 novembre prochain. Un colloque intitulé "Sciences en société : Dialogues et responsabilité scientifique". Or non seulement le colloque est sur invitation uniquement ([Mà J 13/11] à noter toutefois la possibilité de regarder la retransmission des échanges en direct) mais à lire le programme, il semble que la question de la fraude se retrouvera noyée dans des discussions sur les jeunes et la science, les musées de science, la société de la connaissance etc. Je note seulement une session d'une heure et demi sur "Intégrité et communication scientifique" et une autre de la même durée portant sur la responsabilité scientifique... Ce sera sans moi, puisque j'assiste à la soutenance de thèse de ma meilleure moitié. Mais j'encourage des participants qui passeraient par ici à laisser quelques mots en commentaire pour nous faire part de leur expérience !
En fait, comme annoncé quasi-confidentiellement au colloque "Recherche, éthique et déontologie" d'avril dernier (vidéo - diapositives), un second colloque est prévu en 2009. Il s'agira dans une première journée de rassembler des éléments de diagnostic sur l'expérience internationale et un rapport d'enquête français puis, dans une seconde journée, de discuter des décisions possibles pour se fixer sur des recommandations à la Ministre. A suivre !
Commentaires
La pratique scientifique a historiquement eu une tendance presque exceptionnelle en terme de falsification et invention de données... Le cours des choses tend à se renverser maintenant que l'exigence de productivité est devenu une norme imposée. Comme quoi, il n'y a pas de fumée sans feu... (Notez que je n'ai rien contre la productivité, que je considère comme une exigence éthique naturelle: si on a des résultats, il est normal de devoir les publier... Le problème vient bien de l'obligation de résultats, ce qui non seulement pousse les chercheurs à sécuriser leur avenir vers des recherches qui produisent des résultats facilement, ainsi -au pire- qu'à truquer voire inventer des résultats qui n'existent pas). Du coup non seulement les programmes de recherche plus risqués en terme de production ne sont pas entrepris, mais en plus il nous faut apprendre à gérer les fraudes intellectuelles quand nous n'y sommes pas traditionnellement habitués...
Laurent > C'est une question intéressante : en quoi la fraude d'aujourd'hui diffère de la fraude d'antan, est-ce qu'elle est plus facilement repérée (ou moins), les conditions de sa gestion ont-elles évoluées etc. Sur les raisons de la fraude, c'est vrai qu'on est prompt à accuser la course aux publications mais je pense qu'il y a une dimension intrinsèque due aux fondements épistémiques de la science et à la nature humaine. Le chercheur est par nature un être orgueilleux, plein d'hybris et la science est une interprétation de la nature (pour ne pas dire "construction") où la limite entre un artefact et une donnée est relativement laissée à l'appréciation de chacun (je pense ici surtout à la falsification de données, pas la fabrication ou le plagiat). Il n'y a qu'à voir le débat autour de l'utilisation de logiciels de traitement d'images au laboratoire ou les références historiques qui parsèment le livre de Broad et Wade (Ptolémée, Newton, Galilée...). Par contre, la recherche est aujourd'hui organisée d'une façon qui lui permet, plus que jamais, de contrôler ces comportements déviants...
Je pense qu'effectivement il faut faire une distinction entre la falsification ou le tri des données, d'une part, et la fabrication ou le plagiat, d'autre part. Ces dernières formes, quasi-psychiatriques, sont minoritaires et les institutions doivent et peuvent facilement les déceler. Falsification et tri de données sont beaucoup plus difficilement décelables et la limite avec la pratique scientifique normale peut être floue, d'autant plus que l'erreur est humaine. En pratique, une attitude saine serait de supprimer de la liste des publications celles qui ne sont plus compatibles avec le corpus des connaissances. Mais cela causerait du chagrin à bien des directeurs de laboratoires.
Il y a une autre problème, celui du lexique. les gens ont tendance à plaquer sur des données des interprétations verbeuses qui n'ont souvent aucun sens. les données peuvent être intrinsèquement correctes, mais générer un flot interprétatif qui n'a aucun sens et qui est une forme soporifique de fraude servant à faire passer des articles coûte que coûte. J'aimerais qu'un jour certains journaux définissent scientifiquement les mots induction, instruction, contrôle, régule, redondance, niche, etc. constamment employés en biologie pour interpréter mollement des données, qui s'apparente à une forme collective de falsification.
@vf Les interprétations fumeuses, ce n'est pas de la fraude, puisque le referee peut juger par lui-même. Ce qui est de la fraude, c'est quand on présente les résultats d'une seule expérience alors qu'elle est contredite par toutes les autres, que l'on déplace la bande ou les marqueurs de taille pour qu'elle soit au bon endroit, etc... Ca c'est de la fraude et ce n'est pas rare. Mais cela dit, vu la difficulté à mettre en évidence la fraude, le traitement devrait être le même: si ça ne tient pas la route à l'épreuve du temps, ça devrait être retiré de la liste des publications, et si le directeur de laboratoire n'a que des trucs comme ça à son actif, il ne devrait pas le rester.
Je suis assez d'accord avec vf sur le fait qu'il y a aussi de la fraude molle. Un cas typique en systems biology dans un papier récent publié dans Nature : - on fait un modèle qui prédit un comportement quantitatif précis et on centre le papier sur cet aspect quantitatif en mettant des beaux mots catchy comme "robustesse", "flexibilité" ... - on fait une première expérience qui prétend valider un aspect nécessaire au modèle - on fait une seconde expérience qui valide une autre prédiction du modèle contrairement à un modèle simple "homme de paille"
mais : - on ne vérifie jamais le comportement quantitatif précis - le premier aspect validé est nécessaire mais pas suffisant pour le comportement quantitatif; de plus on le vérifie pour une protéine A mais pas pour la protéine B cruciale pour le modèle - la deuxième expérience est parfaitement explicable en utilisant un modèle légèrement plus compliqué (mais cela demande de connaître un peu les maths) - enfin, on ne dit pas explicitement dans le papier une prédiction très forte du modèle qui fait bondir tous les biologistes à qui j'en ai parlé.
Alors évidemment, les referees n'ont pas fait leur boulot. Le problème, c'est que dans un papier interdisciplinaire, il faut connaître à la fois les maths et la biologie pour voir que les deux mis ensemble ne collent pas. L'autre problème, c'est que c'est tellement facile de mettre de proposer des jolis concepts de systems biology tout en mettant les prédictions sous le tapis que les referees eux-mêmes sont bien capables de jouer le même jeu par ailleurs.