La science, la cité

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé : scientométrie

Fil des billets - Fil des commentaires

Les comptes truqués du facteur d'impact, suite

Thomson Scientific a répondu aux critiques, de façon plutôt convaincante il faut le dire (et je ne suis pas le seul à  le penser). Voici par exemple leur argumentation concernant l'accusation que la sélection des articles "citables" ou "non citables", qui a une grande influence sur le calcul du facteur d'impact, se fait parfois après discussion avec l'éditeur :

The coding of documents by Thomson Scientific is not based merely on "bibliographic criteria such as keywords and number of references," as the article suggests. Document type coding is based on a detailed, journal-by-journal review of the presentation and labeling of articles in a journal, expanded by information provided by publishers regarding the content and structure of the journal, as well as key bibliometric characteristics. These methods have proven effective across many years, though they are not always satisfying to publishers and editors who request that certain types of articles not be included as citable.

Thomson Scientific never negotiates with publishers on coding articles, often to their chagrin and sometimes despite their strong objection. Many journals change their content across the years, and most publishers will cooperate with Thomson to alert us to coming changes so that we can ensure the continued correct indexing of materials.

At times, a journal’s content will be significantly modified but the effects of such a change on the impact factor will not be recognized by the publisher for a year or two. It is not uncommon for a publisher or editor to request a review of the indexing of their content and how past changes to that content could have affected the determination of "citable items." Thomson staff will analyze and review up to three years of content to arrive at a fully informed determination of the proper indexing. Any required changes are then applied – most often from the current year onward rather than retroactively.

Incidemment, c'est avec SCImago que s'ouvre l'article de Nature qui rapporte la nouvelle. La même alternative que je mentionnais dans mon billet. Et Declan Butler d'en détailler les avantages et le fonctionnement, basé sur la base Scopus et bénéficiant de son propre algorithme de calcul du facteur d'impact. Algorithme qui a l'avantage d'être récursif, une citation par une revue à  fort impact valant plus qu'une citation par une revue de classe C. Comme le PageRank de Google donc, et comme j'en suggérais l'idée il y a un an. Une façon, selon les auteurs de SCImago, de mesurer le prestige et non la popularité… Après l'indice h et l'indice y, saluons le retour en force de la diversité en scientométrie !

Mà J 17/01/2007 : Voir enfin la réponse (courte) du Journal of Cell Biology (via phnk).

Partage

Facteur d'impact, des données en question

Trois responsables de revues scientifiques viennent de prendre la plume pour critiquer et dénoncer le facteur d'impact. Encore, me direz-vous. Mais je passerai sur les critiques les moins pertinentes[1] pour m'attarder sur le cœur de leur article : la qualité et la transparence des données de Thomson Scientific, l'entreprise qui publie annuellement le Journal Citation Reports.

Car je le soulignais ailleurs, l'intérêt du facteur d'impact, au-delà  de ses usages abusifs et pas toujours éclairés, c'est sa transparence : les règles du jeu sont connues à  l'avance et les chercheurs savent sur quelle base ils sont évalués. Ce qui nous change du copinage, localisme et autres barbarismes académiques. Sauf que si les données sont inaccessibles et opaques, comme le racontent les auteurs, cet intérêt est perdu. En fait, ils ont essayé d'obtenir une version du Science Citation Index pour, notamment, comprendre et comparer l'impact facteur de leurs revues avec ceux des "concurrents". Manque de chance, la base de données fournie n'est pas celle qui sert au calcul, et les résultats obtenus à  la main ne collaient pas avec ceux publiés dans le Journal Citation Reports. Ils ont réclamé la version qui fait foi, en vain. La conclusion s'impose d'elle-même : Quand un auteur n'est pas capable de fournir des données originales pour vérifier un chiffre dans un des articles qui nous est soumis, nous n'acceptons pas sa publication. Nous espérons que ce compte-rendu convaincra quelques chercheurs et organismes de financement de ne plus accepter le facteur d'impact comme représentation exacte de la qualité — ou de l'impact — d'un article publié dans un journal donné.

Que cette déficience de Thomson Scientific soit temporaire ou permanente, la question des données n'en reste pas moins cruciale. Car au même moment, un spécialiste de bibliométrie publiait sur son site un article à  paraître en 2008 : "Caveats for the use of citation indicators in research and journal evaluations". Celui-ci s'attarde notamment sur les erreurs dans le recensement des revues, qui fait que J Phs Chem-US est compté alternativement comme J Phys Chem A ou J Phys Chem B, recueillant donc deux fois moins de citations, et qu'à  l'inverse, Angewandte Chemie est surévalué de 21,5% parce que la version allemande de la revue est souvent citée en même temps que sa version internationale !

Alors oui, un audit des données de Thomson Scientific ne serait pas de trop, voire une vraie tentative de construction d'une base et d'un indicateur concurrents (comme SCImago), afin de forcer Thomson Scientific à  la transparence.

Notes

[1] Comme le fait que les citations des articles rétractés sont quand même comptabilisées. Bien-sûr ! Le facteur d'impact ne mesure que la visibilité et l'on ne voudrait pas nier que l'article de Hwang a fait l'effet d'un électrochoc dans la communauté scientifique, si ?

Partage

La mal-mesure de la science

Ce très beau titre est emprunté à  Peter Lawrence, auteur de l'article "The mismeasurement of science" paru dans un numéro récent (août 2007) de la revue Current Biology. Un article qui, ouvrant sur la citation anthologique de Leà³ Szilà¡rd, ne peut pas être foncièrement mauvais…

Par contre, il sera nécessairement militant. C'est effectivement une charge contre le fonctionnement actuel de la recherche scientifique et en particulier l'évaluation des chercheurs. Lawrence hait le facteur d'impact et les indicateurs de production de la recherche. Nonobstant le fait que ceux-ci ne sont qu'un moyen d'évaluation parmi d'autres, je me permets de remettre ici quelques pendules à  l'heure :

  • oui, c'est l'impact des revues où publient les chercheurs qui est mesuré avant tout, et non l'impact de leurs articles eux-mêmes. Parce que cette seconde donnée est plus difficile à  obtenir et que la première en fournit une bonne approximation. Surtout, parce que c'est une évaluation statistique valable à  une échelle macroscopique qui ne devrait jamais s'appliquer telle quelle à  un chercheur X ou Y[1]. Alors, l'exemple de l'article qui s'est avéré faux mais a été publié dans une "bonne" revue et rapportera un bon poste ne devrait jamais être rencontré : les indicateurs quantitatifs ne sont pas destinés à  remplacer l'examen en détail du CV de leurs candidats ;
  • oui, l'index de Hirsch (h-index, qui vaut n si j'ai publié au moins n articles cités n fois) est une exception en ce qu'il s'intéresse aux articles eux-mêmes et se calcule chercheur par chercheur. Avec des bémols cependant… Même chose pour les facteurs d'usage ;
  • non, les indicateurs de citation ne sont pas des mesures de l'importance ou de la pertinence d'une recherche mais de sa visibilité. Je répète : plus un article est visible plus il sera cité, et vice-versa, et c'est tout ! La visibilité est parfois corrélée à  des avancées importantes mais elle l'est aussi à  des controverses, des articles étonnants ou des revues de littérature.

Un grand moment de l'article est la réflexion de l'auteur sur ses propres pratiques de citation : parmi les 48 références d'un de ses articles, seules huit sont adéquates au sujet de l'article alors que trois sont fautives et 37 sont fortuites (tout autre article similaire aurait pu être cité à  la place). Et l'auteur pointe avec justesse la question de l'hyper-cosignature et de la tendance à  mettre son nom partout, que l'on soit proche ou non des travaux publiés, ainsi que la cascade des refus qui veut que l'on soumette d'abord son manuscrit à  Nature puis à  Cell avant le Journal of Plant Science et le Bulletin of Cellular Plant Studies : mes lecteurs peuvent-ils confirmer ou infirmer cette pratique ?

Alors oui, les critiques de Lawrence sont justes et il arrive à  synthétiser certains problèmes que rencontre actuellement la recherche (je n'ai rien dit sur les défauts du peer-review, le manque d'un code éthique etc.). Mais elles sont parfois exagérées parce qu'il prend les indicateurs au pied de la lettre, comme d'ailleurs la plupart de ceux qui les produisent ou les commanditent. Vivement un usage éclairé des indicateurs de recherche !

Notes

[1] Pour citer Michel Zitt, de l'OST : Le physicien et historien des sciences, D. de Solla Price, voyait la bibliométrie, dont il était un père fondateur, comme une approche essentiellement statistique et soulignait qu'il ne s'intéressait pas aux cas individuels. Même s'il faut souvent descendre au niveau individuel pour faire de l'évaluation bibliométrique (en raison notamment de la forme des distributions statistiques, par exemple certains individus particulièrement visibles dans leur domaine « préemptent » une grande partie des citations et influent fortement les indicateurs), celle-ci n'a pas grand-chose à  apporter à  l'évaluation individuelle.

Partage

Recherche polaire

La hausse estivale des températures (au moins dans certaines régions) incite à  parler de sujets rafraîchissants, comme la recherche polaire (particulièrement en cette année polaire internationale). La recherche en Antarctique est décrite par la romancière Marie Darrieussecq dans White (Gallimard Folio, 2005) avec, on l'imagine, beaucoup de justesse :

Pete Tomson désœuvré se penche sur l'œilleton du carottage. Il ne voit rien, évidemment, puisque l'œil humain ne peut rendre compte d'un boyau long de trois kilomètres et pas plus large que deux mains en cercle, d'un carottage, donc, surtout qu'il y a encore quelques semaines le mot "carotte" n'évoquait pour lui que "légume" et "orange". (…) Comme on approche du but on a abandonné foreuse, rotors et lubrifiants, pas question de polluer l'eau avec du glycol ; on descend une tête chauffante hi-tech, qui fond proprement la glace au bout d'un câble. (…) Les tronçons de carotte sont classés dans un congélateur selon l'ancienneté de la glace : moins mille ans, moins deux mille ans… à  mesure qu'on descend on croise les Romains, Cro-Magnon, Lucy — et puis plus personne sans doute, des dinosaures, des algues, des amibes, et puis vraiment plus personne, n'importe quoi, des gaz, de la lave, de l'inimaginable, du truc, rien qui offre une prise… (p. 116)

Into the ice shelf ©© sandwichgirl

Plus prosaïquement, voyons un peu comment se constitue cette recherche. Ma source : un article de scientométrie de 2005 [1].

Les pays les plus actifs sur le continent Antarctique, d'après le nombre de publications, sont les Etats-Unis, le Royaume-Uni, l'Australie (qui vient en voisine), l'Allemagne, l'Italie et la France ; tous sont signataires à  titre consultatif du Traité sur l'Antarctique (ATS). En fait, tous les membres du top 20 sont des parties consultatives, à  l'exception du Canada. Des parties non-consultatives comme le Canada, le Danemark, la Suisse, l'Autriche, la Hongrie et la République tchèque n'en sont pas moins actifs sur le continent. Et même des pays qui n'ont pas ratifié l'ATS comme l'Irlande, Israel ou Taïwan envoyent des chercheurs. Ce qui constitue un total d'environ 4 000 scientifiques !

Malgré la présence de 37 stations de recherche occupées toute l'année, opérées par 20 pays, les collaborations internationales sont de plus en plus fréquentes. Ainsi, en dehors des recherches traditionnelles sur le climat, l'atmosphère ou la faune (notamment en Terre Adélie), la nouvelle station Concordia que partagent la France et l'Italie est idéale pour des observations astronomiques précises. Eric Fossat en avait longuement parlé dans l'émission "Continent sciences" ; il avait notamment expliqué que l'Australie, invitée à  titre gracieux à  participer à  ce programme, est exclue depuis que des chercheurs australiens ont publié des résultats sans remerciement ou co-signature des chercheurs français et italiens... Des chercheurs travaillent également à  la détection de neutrinos ou la découverte de météorites !

Allez, quittons-nous sur un autre extrait de Marie Darrieussecq :

C'est une seule longue journée : avec une aube, une aurore : un soleil qui pointe… effectue son cercle… replonge légèrement… se lève un peu plus haut, à  chaque tour un peu plus haut… sur une bonne cinquantaine de journées humaines, rose et orange.
Puis il reste accroché : Nord, Est, Sud et Ouest, autour de la calotte blanche. Le ciel est jaune pâle, diffus, bleu dans la hauteur. Ca dure une centaine de journées humaines. Puis la courbe se creusera, à  chaque tour plus sinusoïdale, le soleil finira par toucher, par s'enfoncer, par disparaître, et ce sera le crépuscule.
Ensuite, la nuit pour plusieurs mois, pendant qu'il fait jour au pôle Nord. C'est comme ça que ça marche, sur cette planète. (p. 65)

Au pôle sud ©© zutalegh

Bonnes vacances, rendez-vous en septembre !

Notes

[1] Prabir G. Dastidar et Olle Persson (2005), "Mapping the global structure of Antarctic research vis-à -vis Antarctic Treaty System", Current Science, vol. 89, n° 9, 10 novembre, pp. 1552-1554 (version PDF)

Partage

Les citations en science : pourquoi ? Comment ?

Le commentaire de blop demande une réponse détaillée, je m'exécute donc dans un billet à  part... d'autant qu'on reste dans le thème de cette série !

Voici donc ce qu'écrit blop :

Bibliographie (où l'on cite les collègues pour ne pas les fâcher et les rapporteurs pour être bien vu)
Ca c'est du Latour tout craché ! La bibliographie ne servirait qu'à  faire étalage de son réseau et à  se reporter à  d'autres boîtes noires.
Mais ce n'est jamais qu'une partie marginale de la bibliographie. 1 ou 2 articles ajoutés à  la fin pour des raisons "politiques". Mais le gros de la biblio consiste à  replacer la recherche dans un contexte (scientifique, pas amical), à  rendre à  César ce qui appartient à  Jules, à  permettre au lecteur qui veut aller plus loin d'aller plus loin. Parce que si j'écris "17% des titres des articles comportent plus de 30 mots", sans détail ni citation, n'importe quel lecteur DOIT se demander "il le sort d'où ce chiffre ?".

D'abord non, ce n'est pas Latour tout craché mais bien moi qui ai ajouté ce commentaire perfide dans un billet étiqueté "humour". Latour, lui, considère non pas ces raisons bassement politiques mais le fait qu'en citant des résultats antérieurs, un chercheur "consolide sa forteresse", il multiplie les obstacles que doit franchir celui qui cherchera à  le contredire. A l'inverse de Robert Merton qui voit dans les citations un système de récompense envers ses pairs[1], Latour y voit donc d'abord un procédé rhétorique, avec un très fort effet de réel :

La présence ou l'absence de références, de citations et de notes de bas de page est un signe si sûr du sérieux d'un texte que l'on peut en partie transformer un fait en fiction ou une fiction en fait simplement en retranchant ou en ajoutant des références.[2]

En fait, il n'existe pas, à  l'heure actuelle, de "théorie de la citation". Certains comportement nous échappent, surtout qualitativement (pour le quantitatif, on l'a déjà  vu, l'effet Matthieu et l'obsolescence rapide jouent à  plein). Comment expliquer par exemple le choix entre deux références très semblables quand il faut n'en citer qu'une ? Quand est-ce qu'une citation est pertinente et quand est-ce qu'elle ne l'est pas ? Pourquoi seuls 20% des auteurs qui citent un article l'ont lu[3] ? Pourquoi certaines références sont-elles omises, soit parce qu'un résultat ou concept est devenu suffisamment connu (phénomène que l'on nomme "oblitération par incorporation"), soit parce que des raisons personnelles nous y poussent ? Bruno Latour[4] donne l'exemple suivant :

Comme Pierre [Kernowicz] est chez Pincus et publie dans un bon journal, on ne peut se permettre d'utiliser ses travaux sans le citer, ainsi que ses lecteurs auraient pu le faire si l'auteur avait été un Français de France ou un Japonais du Japon.

Bref, comme l'écrit Eugene Garfield[5] (le père du Science Citation Index et de l'analyse de citations) :

I often quoted Lewis Carroll’s "Humpty Dumpty" to express the ambiguous nature of words and citations. When I use a term it means just what I want it to mean - nothing more or less. And so when you use a cited reference (citation), it also means what you want it to mean. A citation is generally more precise than words, but its meaning is ambiguous nevertheless.

Quant aux tentatives de citer pour flatter ou, à  la demande du rédacteur en chef, de citer préférentiellement des articles de la revue (auto-citations), ce sont bien des pratiques qui existent. Un article du Wall Street Journal[6] rapportait en juin 2006 quelques mauvaises pratiques destinées à  augmenter artificiellement le facteur d'impact. Parmi elles, on trouve bien l'auto-citation, comme l'illustre le World Journal of Gastroenterology qui a été exclu du classement de Thomson/ISI parce que 85% des citations de ses articles étaient des auto-citations et que peu d'autres revues le citaient. A l'inverse, on trouve des revues qui font en sorte de citer le moins possible leurs concurrents directs, comme le Journal of Telemedecine and Telecare qui cite moins Telemedecine and e-Health que celui-ci ne le cite.

P.S Ce billet a le plus grand nombre de citations de tous mes billets. Posez-vous la question : qu'est-ce qui a motivé chacune d'entre elles ? Vous verrez que la réponse n'est pas si facile...

Notes

[1] P. Bourdieu, ''Science de la science et réflexivité'', Liber. coll. "Raisons d'agir", 2002

[2] B. Latour, La Science en action, Gallimard coll. "Folio essais", 1995, p. 87

[3] M.V. Simkin et V.P. Roychowdhury, "Read before you cite!", Complex Systems, 14: 269-274, 2003

[4] B. Latour, "Portrait d'un biologiste en capitaliste sauvage", in Petites leçons de sociologie des sciences, La Découverte, 1993, p. 108

[5] E. Garfield, "Random thoughts on citationology: its theory and practice", Scientometrics, 43(1): 69-76, 1998

[6] S. Begley, "Science journals artfully try to boost their rankings", Wall Street Journal, 5 juin 2006

Partage

- page 3 de 4 -