La science, la cité

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé : innovation

Fil des billets - Fil des commentaires

La crise COVID-19 vue par des économistes de l'innovation

Qu’est-ce qu’il a manqué comme investissements dans la R&D pour être mieux préparés à la pandémie en cours ? Est-ce que les énormes investissements actuels et la réorientation de certains pans de la recherche vers le COVID-19 est la plus efficace, et quels peuvent être ses effets pervers (notamment les querelles de brevets en cours) ? Que peut-on attendre de l’après-crise en termes de politiques de recherche, et d’adoption de certaines technologies numériques ?

Des économistes de l’innovation, chercheurs ou doctorants du College of Management of Technology de l’EPFL (Suisse), ont publié le 14 avril une étude de 33 pages riches de réflexions théoriques, de pronostics tendanciels, mais aussi d’exemples. Pour faciliter la diffusion de ces résultats, je vous en propose une synthèse en français sous forme de mindmap.

De mon côté, j’ai également publié quelques réflexions et un peu de veille sur l’innovation ouverte pour faire face au COVID-19.

Partage

Lecture printanière : "La science pour qui ?" sous la direction de Janine Guespin-Michel et Annick Jacq

Coordonné par deux chercheuses en biologie et microbiologie mais co-écrit avec cinq autres, ce petit livre paru fin 2013 s’inscrit dans la collection “Enjeux et débats” de l’association Espaces Marx et des Éditions du Croquant. Il synthétise des années de débat et d’analyse au sein d’Espaces Marx (en lien avec d’autres mobilisations) visant à replacer les difficultés de la recherche publique à la fois dans le cadre d’un capitalisme financiarisé en mal d’innovation et dans celui du déficit démocratique marquant les relations entre la science et la société (p. 13). On sent les auteurs passionnés par ces questions, convoquant tour à tour des travaux académiques de philosophie des sciences ou des ouvrages plus « grand public », le programme de certains partis politiques ou les conclusions d’un Conseil européen récent.

Les auteurs structurent leur ouvrage de façon thématique, avec quatre parties encadrées d’une introduction et d’une conclusion. Je vais essayer ici de rendre compte plutôt de la progression logique de leur argumentation.

9782365120357FS.gif

La première partie du livre s’attache à un état des lieux de la recherche française et occidentale. Revenant au tiraillement historique des sciences entre une autonomie nécessaire et une dépendance à l’égard des financeurs et des attentes de la société, ils traitent d’abord de cette question délicate de l’autonomie : la revendication du retour à l’autonomie imprègne une partie de la communauté scientifique (p. 20). Elle trouve des relais dans les mouvements de chercheurs comme “Sauvons la recherche”, qui s’opposent aux normes externes de rentabilité et d’efficacité imposées par le “nouveau management public” (p. 22). Mais comment faire abstraction de l’intrication très forte entre sciences et technique (à visée économique) ?

Les auteurs nous amènent alors à étudier les rapports entre sciences et technique. La technique, écrivent-ils, est consubstantielle à l’humanité en ce qu’elle est partout présente dans nos actes quotidiens, tout ce qu’on sait faire, ce qu’ont transfère à des outils, et le rapport qu’on établit avec eux (p. 23) — au-delà même des activités de production. Vers 1820, les grandes écoles d’ingénieurs ont développé le concept des sciences appliquées pour désigner les techniques mises en œuvre dans l’industrie naissante (p. 25). C’est là qu’est née l’idée de techniques de productions rationnelles — comme directement issues des sciences —, devenue un des thèmes centraux du libéralisme puis de l’esprit républicain. Aujourd’hui, le terme de « technologie », plus noble, a remplacé chez les élites celui de « technique », d’où sont exclues les sciences humaines et sociales. Et dans la guerre économique mondiale, la technologie est devenue la base de la compétitivité avec le mot-clé « innovation ».

Les auteurs s’attaquent alors à cette notion d’innovation, qui apparaît au sein du vocable « recherche et innovation » comme l’alpha et oméga des relations entre science et société. L’occasion de rappeler la stratégie de Lisbonne lancée en 2000 par le Conseil européen, pour faire de l’Europe la première « économie de la connaissance » du monde. De fait, l’innovation se retrouve placée au cœur de l’économie, et la recherche devient un maillon essentiel de la prospérité économique. Toute la recherche publique s’oriente alors dans le but de produire des innovations, la recherche fondamentale étant même réduite à des champs disciplinaires susceptibles de produire de l’innovation à très court terme, et la R&D privée reportée sur le public avec des dispositifs comme le Crédit d’impôt recherche (CIR). L’imprévisibilité et le hasard heureux (sérendipité), qui seuls peuvent déboucher sur du vraiment neuf, n’existent plus. Le champ libre est laissé à une économie de la promesse, basée sur la promesse de bienfaits sans précédent pour l’humanité, tellement spéculative qu’elle contribue à générer des bulles technologiques qui finissent forcément par éclater (p. 34). Alors qu’une innovation doit rencontrer un imaginaire social pour trouver son marché, les politiques d’innovation actuelles échouent à la fois à engager le consommateur pour définir des valeurs d’usage définies collectivement, et à trouver dans le citoyen un soutien acceptant les risques engendrés par les innovations.

C’est alors que les auteurs abordent la question des publics de la science (au sens de John Dewey) : comment peuvent-ils investir les questions posées par la science et ses effets qui les concernent ? (p. 50). Sur le plan de l’éducation, la culture technique reste une « culture du pauvre » distinguant les filières professionnelles et techniques des filières générales, alors même que toute culture générale devrait inclure une réflexion sur la technique. Les actions de culture scientifique, technique et industrielle (CSTI) vont dans ce sens mais elles restent notoirement insuffisantes (en quantité ou en qualité, les auteurs ne le précisent pas). Sur le plan de l’intervention citoyenne, le débat sur les choix scientifiques et techniques reste confisqué ou exclut les profanes, laissant dans la course les seules associations dont les membres, professionnellement ou socialement, sont très proches des producteurs de science et de technologies (p. 54). L’expert est valorisé voire sacralisé, quand bien même la spécialisation des formations scientifique et la césure entre sciences de la nature et sciences humaines revient à faire des scientifiques des êtres quasiment incultes dans tous les domaines dont ils ne sont pas spécialistes, des ingénieurs formatés, (…) ou des décideurs sans formation scientifique (p. 55).

Après cet état des lieux de la recherche scientifique, les auteurs reviennent sur les mobilisations et les luttes des quinze dernières années. Qui se souvient que l’European Research Council, destiné à soutenir la recherche fondamentale, fut un cadeau de l’Union européenne aux chercheurs en colère (p. 40) ? Que l’Unesco publia en 1998 une Déclaration mondiale sur l’enseignement supérieur pour le XXIe siècle, si humaniste et opposée à l’éthique néo-libérale (p. 106) ? Que le syndicat de l’enseignement supérieur SNESUP a participé en 1998 à la création de l’association Attac, puis en 2000-2011au lancement du Forum social mondial (avec le syndicat de la recherche SNCS) ? Les luttes décrites par les auteurs, dont les mouvements Sauvons la recherche (2004) et Sauvons l’université (2009), sont mues par l’idée que la recherche est un bien commun universel, qui ne peut être défendu que dans le cadre d’un service publics (p. 61). Malheureusement, elles n’ont pas toujours été couronnées de succès : les recommandations des états généraux de la recherche conclus à Grenoble en octobre 2004 ont été perverties par les équipes ministérielles successives en charge de la recherche (…) au bénéfice de la stratégie de Lisbonne (p. 64) et si les mesures portant atteinte à l’indépendance statutaire des enseignants-chercheurs ont été retirées, aucun des autres aspects de la loi Pécresse n’a été modifié. Quant aux Assises de l’enseignement supérieur et de la recherche organisées à l’automne 2012, des promesses ont été faites à la communauté scientifique dont il ne reste à peu près rien (p. 65).

Enfin, les auteurs énoncent un ensemble de propositions qui sont autant de pistes pour redéfinir l’entreprise scientifique. Admettant avec humilité que leur réflexion les a conduits à faire face à de nombreuses contradictions, tensions, difficultés (p. 16), et à défaut de pouvoir en donner des résolutions définitives, ils proposent des leviers pour avancer, dans un esprit de pluralisme et de diversité. Ainsi, ils recommandent d’abord de recontextualiser la recherche, les chercheurs se devant d’être impartiaux mais pas d’être neutres : à eux de tenir compte de tout le contexte d’actions, de valeurs, de représentations, d’expériences (p. 86) dans lesquels s’insère le phénomène qu’ils étudient — une notion empruntée au philosophe Hugh Lacey, mais aussi à la philosophie féministe des sciences. Ils décrivent également la recherche participative, tout en pointant ses limites. Ils proposent de redonner du sens à la notion de science comme bien commun (l’une des co-auteurs du livre, Danièle Bourcier, est responsable scientifique des licences Creative Commons pour la France). Ils défendent l’importance d’un débat citoyen pour définir les priorités de recherche (et pas seulement trancher les choix techniques), qu’ils ne veulent pas confier aux seuls scientifiques. Ils invitent les travailleurs scientifiques et les citoyens à se rencontrer pour inventer une démocratie scientifique, et convoquent les militants des mouvements sociaux et des partis de gauche pour qu’ils s’emparent des questions scientifiques au lieu de les déléguer aux seuls scientifiques — et, ce faisant, aux détenteurs du capital (p. 103).

Le cri central de l’ouvrage est un appel à la vigilance citoyenne pour résister contre les risques et les dérives de la technoscience, et pour le développement de recherches “libres” (p. 49). Mais tout en se revendiquant de gauche, les auteurs n’hésitent pas à égratigner le gouvernement actuel et sa ministre de l’enseignement supérieur et de la recherche, Geneviève Fioraso, quand elle soutient l’Opération d’intérêt national (OIN) du plateau de Saclay lancée par la droite ou qu’elle poursuit avec la loi Fioraso la même vision du rôle de la recherche que dans la loi Pécresse.

Ce travail synthétique donne des armes pour comprendre la politique contemporaine de la recherche. Bien qu’émaillé d’exemples concrets, ses formules définitives manquent parfois d’illustrations concrètes. Par exemple, quand les auteurs regrettent la réduction des champs disciplinaires à ceux qui paraissent susceptibles de produire de l’innovation à très court terme (p. 31) : comment expliquer alors que l’Inra s’éloigne de la recherche appliquée à l’agriculture pour aller vers une recherche d’apparence plus fondamentale en génomique, biologie des systèmes etc. ? Ceci s’explique par le mouvement concomitant de mondialisation de la recherche qui nécessité de publier dans des revues à fort facteur d’impact.

Les auteurs concluent leur propos en regrettant que la science [soit] détournée au seul service de la rentabilité d’un capital concentré aux mains d’une oligarchie financière de plus en plus réduite et puissante (p. 121). Ce langage connoté politiquement ne doit pas éloigner le lecteur curieux des transformations actuelles de la recherche, qui trouvera dans cet ouvrage un vade-mecum utile à la réflexion et l’action.

Partage

La qualité des brevets en baisse : à  la croisée du droit, de l'économie et de l'innovation

Ceci est un article qui pourrissait dans un coin de mon disque dur après avoir été refusé par la revue Terminal fin 2006. Je l'ai exhumé à  la faveur d'un billet de David et d'une note du Centre d'analyse stratégique. Certes il est perfectible sur certains points mais je crois qu'il apporte un éclairage intéressant sur le sujet, qu'il s'efforce d'être pédagogique et qu'il est d'actualité. Un bon billet, quoi ;-)

Depuis qu'il existe, le système moderne des brevets n'a jamais été autant discuté, élargi, revu, avec pour conséquence d'affronter une contestation croissante — ou une satisfaction mal dissimulée, selon le bord de chacun. Mais délaissons un instant ces facteurs externes pour étudier les limites intrinsèques du système à  travers un indicateur de plus en plus en vogue : la qualité des brevets. Celle-ci peut s'apprécier de diverses façons, n'est pas forcément facile à  définir, mais les acteurs s'accordent à  reconnaître un brevet de mauvaise qualité quand ils en voient un ! Surtout, elle est la pierre de touche du système, l'aune à  laquelle se mesure son efficacité interne, et le témoin idéal des tendances sur le long terme.

 

Un constat inéluctable

C'est un fait désormais avéré, la qualité moyenne des brevets est en baisse. Sur ce constat se rejoignent de nombreux observateurs, acteurs et groupements d'acteurs, aux Etats-Unis comme en Europe ; les systèmes asiatiques des brevets (notamment en Chine, Corée et au Japon) sont encore trop récents et mouvants pour être étudiés sous cet angle. Ce sont même surtout les brevets américains qui sont visés et inspireront la plupart des exemples ci-après. Ainsi, l'Association des détenteurs de droits de propriété intellectuelle (IPO) a publié en septembre 2005 le résultat d'une enquête menée auprès de ses membres sur la perception de la qualité des brevets aux Etats-Unis ; 80 entreprises ont répondu, tous secteurs et tailles confondus. Il apparaît que 48,8 % des répondants jugent la qualité des brevets délivrés aux Etats-Unis satisfaisante et plus que satisfaisante contre 51,2 % qui la jugent moins que satisfaisante et pauvre. Les plus sévères sont les entreprises des secteurs chimique, pharmaceutique et biotechnologique. 24,1 % des entreprises estiment que la qualité moyenne s'est dégradée dans les trois dernières années, surtout dans les secteurs mentionnés précédemment. Enfin, les répondants sont pessimistes puisqu'ils estiment à  28,7 % que cette qualité va encore se dégrader dans les trois prochaines années, à  67,5 % que la procédure de délivrance des brevets va se rallonger et à  73,8 % que les ressources mobilisées par les litiges sur les brevets vont augmenter !

A peine deux mois plus tard, la présidente du Groupe européen d'information brevet (PDG) qui regroupe 38 entreprises multinationales parmi les plus importantes tous secteurs confondus prenait la parole sur ce sujet au Congrès sur l'information brevet de l'Office européen des brevets (OEB). Dans la version écrite de sa présentation, M. Philipp s'inquiète que « l'augmentation du nombre de brevets conduit à  une diminution de leur qualité ».

Auparavant, des signaux avaient été envoyés par les examinateurs même des offices des brevets ! En avril 2004, un sondage effectué en interne à  l'OEB montrait que plus de 75 % des examinateurs estiment que la productivité qu'on exige d'eux les empêche de « faire respecter les standards de qualité définis par la Convention sur le brevet européen », 66 % d'entre eux considèrent manquer de temps pour effectuer les examens de brevets « d'une manière satisfaisante » et seulement 9 % croient que le management est « engagé activement à  l'amélioration de la qualité ». Fin 2006, plus de la moitié d'entre eux se mettaient en grève pour protester contre une réforme dont l'une des principales conséquences, et en tous cas la plus gênante, serait la délivrance accrue de brevets de mauvaise qualité. Un symptôme parmi d'autres, le manque de temps empêchait de mettre en œuvre l'examen croisé comme contrôle de qualité interne. Il avait été aussi constaté que le taux de délivrance (nombre de brevets délivrés divisé par le nombre de demandes) entre 1993 et 1998 était de 85 % aux Etats-Unis contre moins de 67 % en Europe et 64 % au Japon, preuve d'un apparent laxisme et d'une moindre exigence des examinateurs outre-Atlantique.

L'inquiétude est donc bien réelle parmi les acteurs de l'industrie et confirmée par les observateurs académiques et institutionnels. Il n'en va pas que de l'économie d'une société basée sur la connaissance mais aussi de la viabilité d'un système devenu aussi puissant et prégnant que le système des brevets l'est actuellement.

 

Ce que l'on entend par brevets de mauvaise qualité

Qu'est-ce que ce constat recouvre en pratique ? De nombreux facteurs jouent sur la qualité réelle et perçue et tous n'ont pas la même importance. Entreprenons ensemble un parcours à  travers les exemples les plus variés et significatifs.

La demande de brevet

Au commencement du brevet se trouve la demande de brevet, rédigée par l'inventeur en collaboration étroite avec son conseil en propriété intellectuelle. Celle-ci décrit l'invention et fixe les premières limites aux revendications. Les offices des brevets étudiés ici publient la demande dix-huit mois après dépôt, sans autre modification qu'une simple mise en forme. Cette première publication importante, qui forme la base d'une nouvelle famille de brevets, peut déjà  être de mauvaise qualité si elle comporte des erreurs et fautes d'orthographe — ce qui est presque toujours le cas nous apprend un rapport de l'entreprise Intellevate de janvier 2006 — et si celles-ci entachent et fragilisent les revendications — 2 % des cas. Une faute d'orthographe n'est pas non plus toujours triviale dans le sens où elle peut affecter le nom de molécules, de principes actifs médicamenteux et « cacher » ainsi la demande de brevet aux yeux des concurrents. Il arrive également que la publication soit mauvaise parce que le corps du texte ne correspond pas au titre ou au résumé ou parce que le titre est vide, même si cela n'est pas explicitement interdit.

L'examen et le brevet délivré

Puis la demande de brevet est étudiée par un examinateur — qui y passe en moyenne 11,8 heures — et acceptée ou non après d'éventuels allers-retours avec le déposant. C'est le brevet publié immédiatement qui a valeur légale et fait foi en cas de litige devant les tribunaux. D'où son importance cruciale et le besoin d'une qualité quasi-irréprochable ! Pourtant, les erreurs mentionnées précédemment ne sont parfois pas corrigées. L'examinateur peut aussi obérer la qualité du brevet en rajoutant des erreurs. C'est par exemple le cas des codes de classification des brevets qu'il ajoute et sont parfois non pertinents. Plus grave, le filtre qu'est censé constituer l'examen laisse passer de nombreux brevets non conformes aux exigences des règlements des offices des brevets. Les membres du PDG estiment par exemple que dans les domaines technologiques arrivés à  maturité, il est plus facile d'obtenir un brevet sur la foi d'une inventivité minime. L'équipe de J. Paradise a montré en 2005 sur un corpus de 74 brevets portant sur des séquences génétiques que 38 % des 1167 revendications examinées étaient problématiques, pour diverses raisons (revendications plus larges que la description, description incomplète ne permettant pas de reproduire l'invention, absence de caractère inventif, lien entre gène et maladie ou application clinique défini statistiquement donc pas forcément prouvé etc.). On n'est pas loin des « "brevets de papier" sans dispositif technique probant » annoncés par M. Cassier et J.-P. Gaudillière.

D'autre part, on ne peut que constater la tendance générale à  la complexification croissante des demandes qui sont déposées et des brevets qui sont délivrés. En chimie, les structures de composés spécifiques (l'aspirine par exemple) ont été remplacés par des structures génériques dites « de Markush » à  partir de 1923 (voir un exemple sur la figure ci-dessous). Celles-ci ont atteint leur paroxysme dans la revendication croissante de composés décrits comme A-B-C-D-E avec des définitions s'étalant sur des dizaines de pages pour les substituants A, B, C, D et E ! De ce fait, un nombre quasi-infini de composés peuvent être revendiqués et protégés. C'est aussi le cas avec la nouvelle habitude de décrire des entités par leurs propriétés physico-chimiques (viscosité, température de fusion, aromaticité etc.) plutôt que par leur nom ou leur structure… Plus récemment, c'est l'avènement de la chimie combinatoire et la revendication de bibliothèques de composés génériques qui a posé des problèmes à  la profession ; en informatique, c'est l'extension (de fait) des brevets aux algorithmes et logiciels. Mentionnons aussi les méthodes d'affaires (business methods) qui ont intégré le giron des brevets à  la fin des années 1990 et pour lesquelles les examinateurs étaient insuffisamment formés. Ce qui s'est produit à  nouveau avec les brevets sur les gènes. Dans tous ces cas, la mauvaise qualité est en germe dans la perversion d'un système initialement destiné à  protéger une invention technique unique et dans l'inadaptation des structures actuelles de contrôle et de régulation.

Enfin, nous devons souligner le cas des brevets « jumbo » en forte augmentation : ils représenteraient aujourd'hui 6 % des brevets totaux. Ces brevets XXL, qui peuvent atteindre plusieurs milliers de pages, plusieurs milliers de figures et compter jusqu'à  8900 revendications sont accusés de « noyer le poisson » et de délayer l'information en compilant des listes et des tableaux sans fin, bien éloignés de l'invention qui est censé être au cœur du brevet. Pourtant, la concision dans la description même est exigée par les règlements des offices des brevets — encore un abus et une manifestation des brevets de mauvaise qualité.

 

Conséquences pour le système des brevets

Cercle vicieux de la qualité

Le problème pourrait à  la rigueur ne concerner que les « mauvais » déposants, dont la faible qualité des brevets ne pénaliserait qu'eux à  travers le manque à  gagner financier de droits de propriété intellectuelle bancals ou invalides. Mais le système fonctionne en vase clos et c'est la somme des efforts et qualités individuels qui participe à  la robustesse totale. En oubliant à  nouveau l'incidence sur l'image et l'efficacité extrinsèque, le simple cycle de vie des brevets permet d'expliciter ceci. Comme l'indique la figure ci-dessous, le documentaliste ou spécialiste de l'information brevet rédige un rapport de recherche avant rédaction de la demande de brevet ; celle-ci est transmise à  l'examinateur qui l'examine par rapport à  l'état de l'art mais aussi selon sa conformité aux exigences réglementaires (nouveau, inventivité, applicabilité industrielle, description complète et concise, unité d'invention etc.) ; le brevet (le cas échéant) et la demande de brevet sont publiés, s'ajoutant alors à  l'état de l'art indexé et interrogeable dans les bases de données bibliographiques. Ainsi, les brevets de mauvaise qualité font les brevets de mauvaise qualité : si le brevet est mal renseigné, si l'information pertinente est noyée dans une masse de trivialités, si les revendications sont trop larges pour être trouvables lors d'une recherche dans les bases de données, il ne sera probablement jamais trouvé ni par le documentaliste ni par l'examinateur, d'où la délivrance de brevets douteux voire non valides. Ceux-ci ne seront d'aucune utilité pour l'entreprise et viendront alors « bruiter » un paysage technologique déjà  bien encombré. Si un brevet extrêmement complexe est délivré, il va aussi compliquer le travail des conseils en propriété intellectuelle forcés à  des circonvolutions et pourra dissuader un examinateur un peu pressé de délivrer un brevet sensiblement apparenté.

Ce cercle vicieux transparaît aussi quantitativement : la délivrance de brevets de mauvaise qualité signifie que la probabilité d'obtenir un brevet est forte, d'où une incitation au dépôt de brevets qui entraîne une augmentation du nombre de demandes de brevets, une surcharge de travail pour les examinateurs donc un examen plus superficiel et encore plus de brevets de mauvaise qualité délivrés.

Coût économique

Or qu'on ne s'y trompe pas : ces complications coûtent cher en temps, ressources et énergie. Les dépenses mondiales des entreprises de l'industrie pour leur information brevet (abonnements aux bases de données, outils et ressources nécessaires à  la recherche, dissémination et veille de l'information etc.) s'élèvent déjà  entre 2,5 et 3 milliards d'euros par an et l'on peut parier que cette somme devra croître dans l'avenir pour le même résultat. Si l'on jette juste un coup d'œil à  l'extérieur du système, il apparaît immédiatement que ces coûts d'information accrus — et ceux des départements de propriété intellectuelle en général — ont un impact négatif sur les capacités d'innovation des entreprises. De plus, des brevets même de faible qualité suffisent à  confisquer certaines recherches au secteur public, avec des répercussions à  terme sur la société dans son ensemble.

 

Remèdes possibles

Pour les déposants

Comme le souligne M. Philipp, les solutions résident d'abord au niveau des déposants : « quality in, quality out ». Des ingénieurs brevets plus scrupuleux systématiquement associés à  des spécialistes de l'information brevet efficaces devraient déjà  réduire le nombre de demandes-poubelles. On pourrait aussi éduquer le public sur la nécessité de se renseigner sur l'état de l'art avant même d'entreprendre toute innovation.

Pour les offices des brevets

C'est probablement au niveau des offices des brevets — qui seraient aussi les premiers perdants d'un système auto-destructeur — que l'on peut agir le plus facilement. Les contraintes de temps — quand ce n'est pas de l'expertise — des examinateurs et l'absence de prise à  bras le corps du problème sont majoritairement responsables de la situation actuelle. Ainsi, les offices des brevets pourraient encourager financièrement les déposants à  rédiger des revendications concises et précises, faire respecter les exigences les plus élémentaires du droit des brevets, laisser plus de temps aux examinateurs par brevet examiné et multiplier leur nombre, procéder à  un examen plus scrupuleux lorsque le coût social du brevet est plus élevé (cas des brevets sur les gènes humains) ou autre. Réformés plus profondément, ils pourraient remplacer le critère d'étape inventive (inventive step) par celui de degré d'inventivité suffisant (degree of inventiveness) déjà  mis en œuvre par l'Office allemand des brevets ou conditionner l'actuelle indexation des primes des examinateurs sur le nombre de brevets délivrés à  un critère de qualité.

Apport de modèles économétriques

Cependant, des modèles économétriques semblent indiquer qu'il serait moins coûteux et plus efficace de ne pas chercher à  dissuader ex ante les déposants de demander des brevets ni d'améliorer l'étape d'examen des brevets et de laisser l'examinateur faire des erreurs, selon le principe de l'« ignorance rationnelle » de l'office des brevets. A la place, les déposants pourraient être pénalisés ex post si leur brevet est rejeté sur la foi de l'art antérieur et une procédure d'opposition calquée sur celle en vigueur à  l'OEB viendrait remplacer l'inefficace ré-examen de l'Office américain des brevets (USPTO). On peut évidemment critiquer cette solution qui favorise les grandes firmes possédant les ressources nécessaires pour mener les recherches de brevetabilité et supporter le coût des opposition et litige, à  l'inverse des petites et moyennes entreprises, et qui ne prend pas en compte le « bruitage » du paysage technologique que cela entraîne. Mais elle montre que si l'on cherche à  intégrer tous les coûts, la réponse est peut-être moins évidente et intuitive qu'il n'y paraît.

Cas particulier des brevets logiciels et informatiques

Notons que pour l'informatique et les brevets logiciels, la mauvaise qualité est souvent due au fait qu'il est difficile de faire un examen exhaustif au vu de la masse et de la dispersion de l'état de l'art (contenu de fait dans les milliards de lignes de code passées et présentes). C'est pour cela qu'une solution intelligente résiderait dans la mise en commun des ressources et expertises pour l'examen ouvert des brevets logiciels et informatiques. C'est le but de l'expérience de Community Patent Review sur laquelle planchent depuis 2005 l'USPTO et IBM : elle propose depuis 2007 à  tous les acteurs et experts volontaires d'être alertés en temps réel de la publication des demandes de brevets qui satisfont certains critères de leur choix (nom du déposant, mots clés, classification thématique etc.), de prendre part ensuite à  des discussions permettant d'enrichir l'examen et d'apporter des informations sur l'état de l'art et enfin de profiter d'un retour sur la procédure et le devenir des informations échangées. En parallèle, dans une perspective claire d'amélioration de la qualité des brevets, l'USPTO en collaboration avec l'Université de Pennsylvanie devait lancer en 2007 un indicateur expérimental, le Patent Quality Index. Celui-ci est destiné à  fournir une mesure quantitative de la conformité des brevets avec les exigences réglementaires et sera calculé à  partir d'indices mesurables comme le nombre de citations d'autres publications, la taille et le nombre de revendications ou l'adéquation entre la description et les revendications. L'algorithme de calcul et l'indicateur lui-même seront rendus publics et pourront être améliorés, critiqués, discutés dans une démarche de construction par la communauté. La finalité de cet indicateur est de servir l'office des brevets autant que les acteurs publics et privés du secteur tout en sensibilisant à  la question de la qualité des brevets.

 

Perspectives : la faillite d'un système ?

Est-ce que cette menace des brevets de mauvaise qualité suffit à  mettre en cause un système qui en a vu d'autres ? Cela se pourrait bien, oui, à  moyen ou long terme. Notamment en comparaison d'un système ouvert et décentralisé, alternatif au système des brevets. Par exemple, la licence BIOS promue par le Centre pour l'application de la biologie moléculaire à  l'agriculture mondiale (CAMBIA) — même si elle est limitée aux biotechnologies — laisse aux inventeurs la propriété de leurs inventions et autorise toute utilisation et modification par quiconque à  condition que les technologies modifiées soient aussi sous licence BIOS. De ce fait, les technologies s'enrichissent les unes les autres et tout les acteurs ont intérêt à  la qualité, de la même façon que la qualité des publications scientifiques émerge naturellement de l'auto-organisation de la communauté scientifique. Seul l'avenir nous dira la viabilité comparée des deux système mais la question étant brûlante et d'importance, il est de toute façon essentiel qu'elle soit traitée avec la volonté nécessaire au plus haut niveau.

Partage

Chercher ou valoriser, dilemme du chercheur ?

Rien de tel qu'une prof parlant de "l’excellente thèse d’Erwan Lamy" au détour d'un e-mail pour inciter à  lire une thèse de 374 pages, lecture plutôt rebutante habituellement. Bien m'en a pris !

Cette thèse intitulée La fragmentation de la science à  l'épreuve des start-ups montre que l'on peut faire de l'épistémologie appliquée en testant empiriquement des hypothèses qui vont puiser leurs racines dans les visions différentiationniste vs. antidifférentiationniste de la science ; en l'occurrence, il s'agit de savoir si, oui ou non, la science est un champ autonome, "différent" des autres champs d'activités humaines[1]. Si oui, sachant que c'est à  leur niveau que cela se construit, les chercheurs qui créent des entreprises et s'engagent dans la valorisation devraient conserver leur singularité et rester des chercheurs à  part entière. Si non, ils deviendraient des chercheurs-entrepreneurs imprégnés par l'esprit de commerce et se fondant parfaitement dans le paysage industriel.

Qu'en est-il ? De son étude de 41 cas de création d'entreprise par des chercheurs du CNRS, Lamy distingue trois profils de chercheurs-entrepreneurs :

  • les Académiques, pour qui la création d'entreprise se fait au service de leurs travaux de recherche, sans incompatibilité mais avec facilitation mutuelle ; ils ne se soumettent guère aux réquisits de la logique marchande et n’adhèrent que marginalement au modèle de l’entrepreneur et, même si leur productivité scientifique académique n'est pas nécessairement augmentée, ils bénéficient de la reconnaissance scientifique et professionnelle de leur expertise et d'un étoffement de leurs réseaux de collaboration (l'un a par exemple reçu la médaille d'argent du CNRS, un autre a été nommé professeur de classe exceptionnelle) ;
  • les Pionniers, qui récusent la différence entre activité scientifique et monde de l'entreprise, veulent s'impliquer en tant que véritables entrepreneurs ; ils sont portés par une forte volonté de s'écarter du modèle universitaire, se mettent au secret industriel, publient moins ou plus etc., et en sont pénalisés largement par le monde académique ; bref, ils en viennent à  perdre leur identité scientifique ;
  • les Janus, qui échappent à  toute classification hâtive car ils sont la preuve qu’un fort engagement entrepreneurial n’est pas toujours synonyme de brouillage des frontières : ils ne considèrent pas que la validité des travaux scientifiques est absolue, ils se réfèrent aux pratiques et aux contextes particuliers ; ils s'éloignent moins du laboratoire que les Pionniers, continuant de s'investir dans la vie scientifique, et ce sont ceux qui constatent le plus une augmentation de leur productivité. Des trois classes, ce sont les Janus qui ont la production la plus fondamentale, et elle le reste pendant et après la création, comme si le produit de leurs activités de recherche et leur implication entrepreneuriale était déconnectée, alors qu’elles sont au cœur de la création, et qu’ils adaptent leurs pratiques scientifiques aux circonstances.

D'où il apparaît qu'en majorité, la singularité du scientifique est préservée, notamment par un attachement bien réel à  la science comme communauté auto-régulée basée sur l'universalité (Merton) — et ce malgré la mercantilisation avancée à  l'échelle institutionnelle. Avec le conseil suivant donné aux politiques de recherche :

L'importance de cette division du travail révélée par l'analyse des Janus et des Académiques n'appelle nullement une condamnation de la mobilité intersectorielle: il ne s'agit pas d'empêcher la mobilité du public vers le privé, ni du privé vers le public. Mais il importe d'organiser ces échanges en sorte qu'ils respectent les contraintes qu'imposent les spécificités des identités scientifiques. (…) Ce que montre cette étude, c'est qu'il n'est pas nécessaire de sacrifier l'autonomie des chercheurs sur l'autel de son utilité économique et sociale. Il est nécessaire que chacun de ces deux mondes se connaissent mieux, non pas qu'ils se ressemblent.

Cette thèse a évidemment un intérêt épistémologique et permet d'avancer, par des arguments expérimentaux, dans des débats en cours. Mais aussi, elle ne nous fait plus lire de la même façon cet article du Monde daté du 1er décembre dernier qui rapporte la politique de valorisation du CNRS et la position de son nouveau Directeur de la politique industrielle, Marc Jacques Ledoux :

"Nous aimerions que les industriels nous disent ce dont ils ont besoin en matière de recherche fondamentale", insiste ce chimiste de renom, auteur de 160 articles et livres, créateur d'entreprise, et dont les recherches sur la catalyse et les catalyseurs ont eu des applications directes dans l'industrie. "Mon laboratoire a toujours travaillé avec des industriels et ça ne m'a pas empêché de publier, bien au contraire", explique-t-il." (c'est moi qui souligne)

Effectivement, on peut valoriser et publier en même temps quand on est un Janus. Et bien que ce soit la classe la plus minoritaire (11 chercheurs sur 41), il est intéressant de voir que son modèle s'impose aujourd'hui comme modèle-type de l'entrepreunariat scientifique en Fance.

Notes

[1] Ce qui se rattache au débat entre constructivisme et réalisme, car s'il n'y a rien dans l'identité scientifique qui lui soit intrinsèque, alors elle est un pur construit, et doit être rapportée dans son entier à  son contexte institutionnel et/ou socio-économique

Partage

Encourager les logiciels libres ? Oui, mais...

Le 4 décembre dernier, Maurice Lévy et Jean-Pierre Jouyet rendaient leur rapport sur l'économie de l'immatériel. A cette occasion, le Ministre de l'économie constatait que "nous avons parfois manqué certaines opportunités majeures de ces 20 dernières années" et annonçait :

Compte tenu de l’importance majeure de l’industrie du logiciel dans l’économie de l’immatériel, et du dynamisme de notre recherche, des entreprises et des communautés françaises du logiciel libre, je souhaite que ces talents et ces compétences se fédèrent dans le cadre d’un pôle de compétitivité du logiciel libre et de l’« open source ».

Mais quel rapport avec la sociologie des sciences ?

Eh bien, ces constats du Ministre rejoignent le diagnostic d'un historien et sociologue des sciences, Christophe Bonneuil :

Dans le domaine informatique, plusieurs analystes estiment ainsi qu’une politique industrielle qui aurait misé, à  la fin des années 1980, sur le développement du logiciel libre en favorisant la naissance d’un tissu d’associations et de PME aurait été plus créatrice d’emplois et de richesses que les millions d’euros alors engloutis dans Bull.

Sauf que les remèdes diffèrent. Là  où Bonneuil veut favoriser le "tissu d'associations" et constate que dans ce nouveau contexte d'une "société de la connaissance disséminée" "la recherche institutionnalisée et professionnalisée, tout en conservant un rôle clé, est appelée à  abandonner sa posture hégémonique et à  apprendre à  se faire animatrice et catalyseur de dynamiques ascendantes de productions de connaissance et d’innovation", le Ministre répond (comme toujours) par "pôle de compétitivité", grosse structure, organisation complexe et tutti quanti. Alors que l'économie même du logiciel libre remet en cause certains de nos mécanismes (fordistes) les plus profondéments ancrés, le ministère se contente d'appliquer sa recette habituelle, certes à  la sauce XXIe siècle (un pôle au lieu d'une entreprise publique).

D'où cette taraudante question : le pôle de compétitivité du logiciel libre et de l'open source sera-t-il un Bull 2.0 ?

Partage

- page 1 de 2