Blogs de science et débat citoyen
18
nov.
2007
Alors que des groupes de citoyens mobilisent et bloguent sur des questions de science — des brevets à la santé publique et au développement de médicaments —, il est temps de reconsidérer les règles fondamentales du débat public sur la science.
Ouah ! Et ce n'est pas moi qui le dis mais Patrick L. Taylor de la Harvard Medical School (Boston), dans un article paru la semaine dernière dans Nature. Je serais presque gêné que les blogs soient mis autant sur le devant de la scène, alors que cette mobilisation citoyenne sur la science n'est pas récente, mais il n'en reste pas moins que l'auteur voit juste : aujourd'hui, les débats citoyens ne s'arrêtent plus à la surface, ils plongent dans les arcanes de la science et n'hésitent pas à rentrer au laboratoire (témoin l'intention du gouvernement singapourien de mener, avant la fin de l'année, des consultations sur le don d'ovocytes).
C'est une idée radicalement nouvelle qui commence à s'immiscer dans l'esprit des scientifiques (et, je l'espère, des lecteurs de ce blog), réticents malgré tout à voir la démocratie participative remplacer la démocratie représentative sur ces questions. Mais que faire quand elles deviennent autant prégnantes dans l'arène publique ? Faire la politique de l'autruche et continuer comme avant ? Taylor reprend bien les travaux de Sheila Jasanoff qui a montré sur les biotechnologies que quand l'expression citoyenne n'est pas encadrée formellement, elle emprunte des chemins de traverse : choix de consommation, structures politiques alternatives comme les mouvements écologiques, désobéissance civile, etc. La question n'est donc pas de savoir si l'engagement citoyen peut avoir lieu mais sous quelles formes, comment, avec qui...
Quelle que soit la forme choisie (et nul doute que plusieurs devront cohabiter) Patrick Taylor formule quatre recommandations :
- il ne s'agit pas simplement de demander à un échantillons de citoyens si telle ou telle décision est la bonne mais d'engager avec eux un "dialogue informé". Dans le même numéro de Nature, un rappel de l'expérience de Colmar sur laquelle je reviendrai fait la preuve que c'est possible et que ça marche ;
- il faut plus d'imagination et d'anticipation sur le monde que préparent les technologies d'aujourd'hui, avec la participation active des citoyens (blogueurs ou non) ;
- il faut plus de transparence dans le processus scientifique et ceux qui le font pour augmenter la confiance dans les comités d'expertise ;
- il faut plus de créativité dans la manière qu'ont les scientifiques d'impliquer le public. Et l'on retombe sur Internet et les blogs…
Commentaires
Ce qui me fait halluciner, c'est qu'on est incapable d'appliquer aux blogs et à internet ce que les scientifique qui font du développement durable appliquent aux acteurs locaux... La dernière conférence à laquelle j'assistai (avec Marc Lucotte, de l'UQAM, ses projets ici) était pleine d'exemples réussis d'intégration des populations locales au projet en tant que co-chercheurs, et de leur implication dans la recherche et la mise en place de solutions.
Quand on fait un parallèle avec la situation d'internet, c'est assez frappant.
D'autant que les nouvelles technologies permettent de dépasser le stade du débat consultatif, et d'organiser des vrais échanges (reste la fracture numérique). (NB : Je lapide le premier qui parle du Grenelle), en mettant au même niveau (d'accès à la diffusion de l'information) les experts et les citoyens. Sans entrer dans un modèle type wikipédia, ou tout le monde est égal, j'espère qu'on assistera dans les prochaines années à une généralisation du débat scientifique.
Autre chose, que j'illustre avec un exemple qui vaut ce qu'il vaut : dans certaines spécialités de mon master, parler d'OGM en bien est le plus court chemin vers la décapitation… Et opposer ces cultures différentes, en même temps que le débat citoyen, sera amha très riche…
La règle numéro un devrait être que dans la mesure du possible, toutes les données brutes devraient être rendues accessibles au public. Et si possible aussi les codes sources de traitement.
On ne se rends pas compte mais il y a quelques années c'était totalement impossible mais grace au developpement du haut débit la grande majorité des jeux de données a quelques rares exceptions peuvent désormais être rendus publics à cout zéro (P2P, appel pour héberger cf archive.org etc...).
Lorsque j'ai débattu du sujet des petites erreurs de traitement découvertes sur les relevés de températures aux USA par un "amateur", j'ai été complètement sidéré que les climatologistes participant aux débats considèrent que diffuser les données brutes au public est une grave erreur et qu'il faut absolument éviter de le faire ...
Et je ne parlerai pas des données brutes en économie car on parle de science ici :)
Oui mais on sait aussi qu'une donnée brute, tu lui fais dire ce que tu veux avec la bonne méthode statistique… Et au final, ca va se retrouver à pinailler pour savoir qui manipule et désinforme en trichant sur l'analyse (demande a Séralini, il t'en parlera mieux que moi).
Et puis il y a donnée et donnée. On a tous pris des données qui n'ont jamais été utilisées (si c'est vrai, il y a des gens qui ont des DB pleines, ou des armoires remplies à craquer d'échantillons conservés, et qui ont de quoi faire de la publi jusqu'à la fin de leur vieux jours). Il faut "connaître" ses données pour faire le tri, amha.
Ceci dit, je suis d'accord avec toi, plus on rendra l'info publique, plus on aura de chance que ça avance, tant que le débat restera bien "encadré".
L'argument du cadrage du débat pousse a l'ouverture des données : en effet le débat est tout simplement impossible à cadrer sinon car il reste l'argument de la manipulation.
Et si quelqu'un n'exploite pas les données comme il faut, en général c'est simple à montrer et un très bon exercice de communication utile vers le public qui a grandement besoin de voir quelques exemples de manipulation déconstruites pour se faire une idée à mon avis. Après quelques démonstrations cela devrait couper pas mal de sifflets.
Mon exemple favori vient de l'économie : tous les économistes parlent du chomage comme élément de comparaison du succès du marché de l'emploi avec bien sur la France en cancre internationnal. Quand on tire les données (heureusement partiellement disponibles) et leur définition cela donne :
"Au quatrième trimestre 2004 selon l'OCDE le taux de chômage normalisé pour les hommes de 25 a 54 ans était de 4.6% aux USA et de 7.4% en France. A la même période et pour le même groupe, le taux d'emploi était de 86.3% aux USA et de 86.7% en France.
On constate donc sur ce groupe un taux de chômage 60% plus élevé en France qu'aux USA alors que plus de personnes travaillent dans le groupe choisi, ce qui est contre-intuitif si on s'attends à ce que le niveau de chômage reflète la situation du marché du travail."
Même type de manipulation sur les heures travaillées ou pourtant la notice du tableau cité par tout le monde précise bien que les données ne sont pas comparables entre pays :).
A propos de statistiques, il y en avait une bonne aujourd'hui dans le journal. On rapportait que l'usage d'un certain médicament augmentait le risque d'effets secondaires de 40% par rapport au placebo! On aurait bien aimé savoir quel placebo était utilisé, et quels effets secondaires il causait!
Cela dit, il y a données et données. En science expérimentale, on prend des tonnes de mesures pour ne publier le plus souvent qu'un graphique ou deux qui soit "typique", c'est-à -dire le meilleur... On a fait grand cas de Millikan à ce propos, mais tous les expérimentateurs doivent procéder ainsi. Une bonne mesure est le résultat d'un long travail de raffinement.
Ce qui est important, c'est que le résultat présenté soit reproductible. On doit donc s'assurer que le lecteur a toutes les informations pour ce faire. A l'époque des publications imprimées, le coût par page exige une certaine concision. Ce n'est plus le cas aujourd'hui, où on peut ajouter des suppléments en ligne presque à l'infini. Mais c'est le travail des arbitres de s'assurer que l'information requise est bien dans l'article ou les suppléments. En science expérimentale, par exemple, ce qui manque souvent, ce ne sont pas les données autant que les détails du montage qui sont importants. Ce n'est donc pas tant la quantité d'information qui compte que sa pertinence.
Pour tout ce qui implique du traitement de données, par contre, la publication du code informatique devrait être requise. Dans l'histoire de la NASA, plusieurs ont rétorqué que la mauvaise qualité du code était chose courante. Mais une publication obligatoire du code obligerait certainement les chercheurs à plus de rigueur.
Personnellement, j'aimerais voir instituer une sorte de certification ISO pour les laboratoires de recherche. La certification ISO n'exige pas de tout dévoiler, mais exige de tout bien documenter pour que toute information puisse être dévoilée si besoin est. Ayant travaillé à implanter une telle certification en industrie, je suis conscient qu'il y a là un travail énorme qui n'est peut-être pas à la portée de tous, mais c'est un exercice qui apporte ensuite une discipline de travail qui manque souvent dans le milieu de la recherche. Les grands centres de recherche, tels ceux de la NASA ou les centres gouvernementaux, auraient tout intérêt à adopter une telle approche. Lorsqu'on parle de politiques publiques coûteuses, comme dans le cas des changements climatiques, ce serait d'après moi plus crédible qu'une institution comme le GIEC, qui se base uniquement sur des recherches déjà publiées, dont la qualité est souvent loin d'être garantie par le système de peer review.