La science, la cité

Aller au contenu | Aller au menu | Aller à la recherche

Les comptes truqués du facteur d'impact, suite

Thomson Scientific a répondu aux critiques, de façon plutôt convaincante il faut le dire (et je ne suis pas le seul à  le penser). Voici par exemple leur argumentation concernant l'accusation que la sélection des articles "citables" ou "non citables", qui a une grande influence sur le calcul du facteur d'impact, se fait parfois après discussion avec l'éditeur :

The coding of documents by Thomson Scientific is not based merely on "bibliographic criteria such as keywords and number of references," as the article suggests. Document type coding is based on a detailed, journal-by-journal review of the presentation and labeling of articles in a journal, expanded by information provided by publishers regarding the content and structure of the journal, as well as key bibliometric characteristics. These methods have proven effective across many years, though they are not always satisfying to publishers and editors who request that certain types of articles not be included as citable.

Thomson Scientific never negotiates with publishers on coding articles, often to their chagrin and sometimes despite their strong objection. Many journals change their content across the years, and most publishers will cooperate with Thomson to alert us to coming changes so that we can ensure the continued correct indexing of materials.

At times, a journal’s content will be significantly modified but the effects of such a change on the impact factor will not be recognized by the publisher for a year or two. It is not uncommon for a publisher or editor to request a review of the indexing of their content and how past changes to that content could have affected the determination of "citable items." Thomson staff will analyze and review up to three years of content to arrive at a fully informed determination of the proper indexing. Any required changes are then applied – most often from the current year onward rather than retroactively.

Incidemment, c'est avec SCImago que s'ouvre l'article de Nature qui rapporte la nouvelle. La même alternative que je mentionnais dans mon billet. Et Declan Butler d'en détailler les avantages et le fonctionnement, basé sur la base Scopus et bénéficiant de son propre algorithme de calcul du facteur d'impact. Algorithme qui a l'avantage d'être récursif, une citation par une revue à  fort impact valant plus qu'une citation par une revue de classe C. Comme le PageRank de Google donc, et comme j'en suggérais l'idée il y a un an. Une façon, selon les auteurs de SCImago, de mesurer le prestige et non la popularité… Après l'indice h et l'indice y, saluons le retour en force de la diversité en scientométrie !

Mà J 17/01/2007 : Voir enfin la réponse (courte) du Journal of Cell Biology (via phnk).

Partage

Facteur d'impact, des données en question

Trois responsables de revues scientifiques viennent de prendre la plume pour critiquer et dénoncer le facteur d'impact. Encore, me direz-vous. Mais je passerai sur les critiques les moins pertinentes[1] pour m'attarder sur le cœur de leur article : la qualité et la transparence des données de Thomson Scientific, l'entreprise qui publie annuellement le Journal Citation Reports.

Car je le soulignais ailleurs, l'intérêt du facteur d'impact, au-delà  de ses usages abusifs et pas toujours éclairés, c'est sa transparence : les règles du jeu sont connues à  l'avance et les chercheurs savent sur quelle base ils sont évalués. Ce qui nous change du copinage, localisme et autres barbarismes académiques. Sauf que si les données sont inaccessibles et opaques, comme le racontent les auteurs, cet intérêt est perdu. En fait, ils ont essayé d'obtenir une version du Science Citation Index pour, notamment, comprendre et comparer l'impact facteur de leurs revues avec ceux des "concurrents". Manque de chance, la base de données fournie n'est pas celle qui sert au calcul, et les résultats obtenus à  la main ne collaient pas avec ceux publiés dans le Journal Citation Reports. Ils ont réclamé la version qui fait foi, en vain. La conclusion s'impose d'elle-même : Quand un auteur n'est pas capable de fournir des données originales pour vérifier un chiffre dans un des articles qui nous est soumis, nous n'acceptons pas sa publication. Nous espérons que ce compte-rendu convaincra quelques chercheurs et organismes de financement de ne plus accepter le facteur d'impact comme représentation exacte de la qualité — ou de l'impact — d'un article publié dans un journal donné.

Que cette déficience de Thomson Scientific soit temporaire ou permanente, la question des données n'en reste pas moins cruciale. Car au même moment, un spécialiste de bibliométrie publiait sur son site un article à  paraître en 2008 : "Caveats for the use of citation indicators in research and journal evaluations". Celui-ci s'attarde notamment sur les erreurs dans le recensement des revues, qui fait que J Phs Chem-US est compté alternativement comme J Phys Chem A ou J Phys Chem B, recueillant donc deux fois moins de citations, et qu'à  l'inverse, Angewandte Chemie est surévalué de 21,5% parce que la version allemande de la revue est souvent citée en même temps que sa version internationale !

Alors oui, un audit des données de Thomson Scientific ne serait pas de trop, voire une vraie tentative de construction d'une base et d'un indicateur concurrents (comme SCImago), afin de forcer Thomson Scientific à  la transparence.

Notes

[1] Comme le fait que les citations des articles rétractés sont quand même comptabilisées. Bien-sûr ! Le facteur d'impact ne mesure que la visibilité et l'on ne voudrait pas nier que l'article de Hwang a fait l'effet d'un électrochoc dans la communauté scientifique, si ?

Partage

La mal-mesure de la science

Ce très beau titre est emprunté à  Peter Lawrence, auteur de l'article "The mismeasurement of science" paru dans un numéro récent (août 2007) de la revue Current Biology. Un article qui, ouvrant sur la citation anthologique de Leà³ Szilà¡rd, ne peut pas être foncièrement mauvais…

Par contre, il sera nécessairement militant. C'est effectivement une charge contre le fonctionnement actuel de la recherche scientifique et en particulier l'évaluation des chercheurs. Lawrence hait le facteur d'impact et les indicateurs de production de la recherche. Nonobstant le fait que ceux-ci ne sont qu'un moyen d'évaluation parmi d'autres, je me permets de remettre ici quelques pendules à  l'heure :

  • oui, c'est l'impact des revues où publient les chercheurs qui est mesuré avant tout, et non l'impact de leurs articles eux-mêmes. Parce que cette seconde donnée est plus difficile à  obtenir et que la première en fournit une bonne approximation. Surtout, parce que c'est une évaluation statistique valable à  une échelle macroscopique qui ne devrait jamais s'appliquer telle quelle à  un chercheur X ou Y[1]. Alors, l'exemple de l'article qui s'est avéré faux mais a été publié dans une "bonne" revue et rapportera un bon poste ne devrait jamais être rencontré : les indicateurs quantitatifs ne sont pas destinés à  remplacer l'examen en détail du CV de leurs candidats ;
  • oui, l'index de Hirsch (h-index, qui vaut n si j'ai publié au moins n articles cités n fois) est une exception en ce qu'il s'intéresse aux articles eux-mêmes et se calcule chercheur par chercheur. Avec des bémols cependant… Même chose pour les facteurs d'usage ;
  • non, les indicateurs de citation ne sont pas des mesures de l'importance ou de la pertinence d'une recherche mais de sa visibilité. Je répète : plus un article est visible plus il sera cité, et vice-versa, et c'est tout ! La visibilité est parfois corrélée à  des avancées importantes mais elle l'est aussi à  des controverses, des articles étonnants ou des revues de littérature.

Un grand moment de l'article est la réflexion de l'auteur sur ses propres pratiques de citation : parmi les 48 références d'un de ses articles, seules huit sont adéquates au sujet de l'article alors que trois sont fautives et 37 sont fortuites (tout autre article similaire aurait pu être cité à  la place). Et l'auteur pointe avec justesse la question de l'hyper-cosignature et de la tendance à  mettre son nom partout, que l'on soit proche ou non des travaux publiés, ainsi que la cascade des refus qui veut que l'on soumette d'abord son manuscrit à  Nature puis à  Cell avant le Journal of Plant Science et le Bulletin of Cellular Plant Studies : mes lecteurs peuvent-ils confirmer ou infirmer cette pratique ?

Alors oui, les critiques de Lawrence sont justes et il arrive à  synthétiser certains problèmes que rencontre actuellement la recherche (je n'ai rien dit sur les défauts du peer-review, le manque d'un code éthique etc.). Mais elles sont parfois exagérées parce qu'il prend les indicateurs au pied de la lettre, comme d'ailleurs la plupart de ceux qui les produisent ou les commanditent. Vivement un usage éclairé des indicateurs de recherche !

Notes

[1] Pour citer Michel Zitt, de l'OST : Le physicien et historien des sciences, D. de Solla Price, voyait la bibliométrie, dont il était un père fondateur, comme une approche essentiellement statistique et soulignait qu'il ne s'intéressait pas aux cas individuels. Même s'il faut souvent descendre au niveau individuel pour faire de l'évaluation bibliométrique (en raison notamment de la forme des distributions statistiques, par exemple certains individus particulièrement visibles dans leur domaine « préemptent » une grande partie des citations et influent fortement les indicateurs), celle-ci n'a pas grand-chose à  apporter à  l'évaluation individuelle.

Partage

Dissémination des idées en science

La propagation des idées entre individus est un sujet qui attire habituellement l'intérêt des cogniciens et méméticiens d'AlphaPsy. Mais quand on l'applique aux scientifiques, cela nous force à  (re)considérer la manière dont la science avance et dont ses thématiques ou paradigmes s'affirment. La question est ancienne[1] mais mobilise, depuis les années 1960 et D.J. de Solla Price, de nouvelles méthodes quantitatives.

L'Office of Scientific and Technical Information américain travaille précisément sur le sujet, avec une approche nouvelle : considérer la diffusion des idées en science comme la dissémination d'un agent infectieux. Mobilisant les modèles mis au point par l'épidémiologie, en particulier le modèle à  quatre états "Susceptible, Exposed, Infected, Recovered", ils ont étudié une série de cas en montrant comment la probabilité et l'efficacité de contact entre chercheurs (notée àŸ) permet de diminuer le temps nécessaire au développement des connaissances (ou en tous cas, le temps nécessaire à  la contamination des chercheurs par une nouvelle idée). Ainsi, dans le cas des recherches sur le prion, un doublement des contacts (courbe en noir) grâce à  une meilleurs diffusion des articles et des données, une plus grande interaction dans des congrès, plus d'échanges entre labos etc. aurait fait gagner environ 30 ans à  la science (par rapport à  la courbe en rouge) !

Selon le cas étudié, différent paramètres jouent dans la dynamique de diffusion : la population initiale de chercheurs "sensibles" (plus petite pour les recherches sur la théorie des cordes que pour celles sur le prion) et l'efficacité de contact (meilleure pour les recherches sur la théorie des cordes que pour celles sur le prion, car les premières nécessitent un outillage moins coûteux et font donc plus facilement de nouveaux adeptes).

Ce modèle, bien qu'intéressant, nous laisse sur notre faim. Les auteurs font bien quelques critiques de l'utilisation d'un modèle épidémiologique (contrairement à  la plupart des épidémies, les contacts en science sont longs — typiquement 3 ans entre un thésard et son encadrant —, tout comme peut l'être le temps d'incubation — souvenons-nous des "belles au bois dormant") mais laissent de côté ce qui me semble primordial en tant qu'apprenti-sociologue des sciences : les facteurs externes. En effet, on peut considérer que les recherches sur le prion auraient pu plafonner vers les années 1990, alors qu'elle démarrait à  peine pour nous. Mais ce serait oublier que l'essentiel de cette recherche s'est développé quand le besoin politique s'en faisait sentir avec la crise de la vache folle ! Idem avec les recherches sur le H5N1... Bref, ce ne sont pas seulement les propriétés internes de la communauté scientifique qui déterminent sa dynamique, c'est évident.

Sans compter les limites intrinsèques à  une multiplication de l'efficacité de contact : on peut dire que la science progresserait plus vite avec une meilleure efficacité de contact, qui est sûrement perfectible, mais les chercheurs ne sont pas non plus des super-héros (quoique...) ! Par contre, penser que la science aurait pu se développer autrement, et faire de l'uchronie scientifique, voilà  qui me plaît beaucoup :-)

Notes

[1] Pas tant que cela en fait puisqu'avant Al Razi (864-930) et Al Masudi (897-956) (parfois surnommé "le Pline de l'Islam"), on considérait que les Anciens (Aristote et al.) étaient des autorités décisives et qu'il ne restait plus rien à  apprendre, seulement à  commenter. En Occident, cette conception ne s'imposera que 600 ans plus tard avec la Révolution scientifique.

Partage