Prédicteurs de succès

[illustration]

On se plaint souvent des décisions incohérentes et contre-productives des dirigeants de la recherche française, mais ces gens-là doivent avoir un bon fond, et parfois, ils semblent sincèrement essayer de nous aider. Cette année, confrontés à l'éternel problème de l'évaluation des chercheurs, les membres du cabinet du ministre ont décidé de mettre au point de nouveaux critères d'évaluation: les critères précédents avaient tous échoué parce que, chaque fois qu'on avait décidé de juger les chercheurs sur un critère donné (le nombre d'articles publiés, le nombre d'étudiants encadrés, le nombre de changements thématiques au cours de sa carrière,…), les chercheurs s'étaient arrangés pour maximiser ce score au lieu de maximiser leur réelle production scientifique, et on s'était retrouvés avec des articles délayés et redondants, des étudiants recrutés en nombre et laissés à l'abandon dans les labos, et avec des gens qui avaient passé leur carrière à sauter du coq à l'âne sans jamais vraiment prendre le temps de bien comprendre leurs sujets successifs.

Cette fois, nous annonçait-on, les choses allaient changer ! Le ministère allait organiser de grandes « assises de la recherche », les chercheurs eux-mêmes seraient appelés à se prononcer, et, de ce grand effort collectif, on tirerait des principes qui permettraient de mettre au point de nouveaux critères d'évaluation, plus justes et plus efficaces.

Cette initiative, qui aurait pu sembler vertueuse, n'a pas soulevé l'enthousiasme de mes collègues. Chaque institut devait envoyer un délégué à ces « assises », et dans mon institut, on ne se bousculait pas: « Tu sais, on nous a déjà fait le coup si souvent ! Je me souviens des “états généraux de la recherche”, il y a dix ans, et du “Grenelle de la recherche”, cinq ans plus tard. On nous a fait parler dans le vide pendant des jours et des jours, et au final, on nous a imposé des décisions d'en haut, qui avaient certainement été prises avant de convoquer tout le monde ! Alors, cette fois, merci, mais ce sera sans moi ! »

Il se trouve que j'étais le moins acerbe, peut-être le plus naïf, et je prétendais vouloir y croire — et c'est comme ça qu'on a collectivement décidé que je serais le délégué de notre institut, qui irait perdre son temps dans des assemblées générales cacophoniques dans un amphithéâtre parisien.

Dans sa conférence d'ouverture des assises, le ministre, après nous avoir remerciés de notre participation à « cet exemple inédit de concertation bottom-up par et pour les chercheurs », nous a expliqué ce que devraient être les objectifs de ces assises:

« Jusqu'ici, vous avez été habitués à être évalués sur votre passé. On a regardé votre parcours universitaire, on a compté les articles que vous avez publiés,… Mais à bien y réfléchir, sélectionner sur le passé, c'est peut-être, aussi, se contraindre à travailler comme dans le passé; inciter la communauté scientifique à continuer à labourer des domaines et des techniques déjà éculés. Mais ce que nous attendons de vous, ce sont des avancées disruptives, des innovations qui sortent des schémas de pensée habituels ! Le chercheur doit être un game changer, et à ce titre, il ne doit pas être optimisé pour la science du passé. Favoriser le passé, c'est, peut-être, défavoriser l'avenir ! »

La logique était imparable, et tout l'amphithéâtre était séduit par son argumentaire.

« C'est pourquoi il est indispensable que la communauté scientifique se dote de nouveaux outils d'évaluation, qui lui permettront désormais d'identifier celles et ceux qui deviendront les meilleurs scientifiques — et pas seulement ceux qui l'ont été par le passé ! Il nous faut des indicateurs qui permettent de prédire la qualité d'une carrière scientifique future; parce que ce sont les futurs scientifiques de talent, qu'il faut identifier, pour pouvoir les recruter, leur donner les moyens dont ils ont besoin, promouvoir leur carrière,… Et c'est donc la mission qui sera la vôtre pendant ces assises: forts de votre expérience professionnelle, vous devriez pouvoir proposer de nouveaux indicateurs, dont vous vérifierez l'efficacité. Et vos recommandations seront écoutées avec une grande attention par mes services — parce que nous avons des intérêts convergents: je veux, comme vous-mêmes, que notre système de recherche favorise les véritables grandes découvertes. »

Le ministre s'est ensuite éclipsé, en nous promettant de venir nous retrouver pour la remise de nos conclusions, une semaine plus tard. Dans l'intervalle, nous allions constituer des groupes de travail, et organiser chaque soir une conférence plénière où les différents groupes viendraient exposer au reste de l'assemblée le résultat de leur réflexion.

Pendant les cinq premières journées, nous avons un peu tourné en rond. Chaque soir, au moment du rendu des conclusions, les exposés étaient décevants, on en revenait toujours aux mêmes poncifs (« on en a marre du publish or perish ») et aux mêmes idées irréalistes (« il faudrait un entretien personnalisé de 10 heures avec chaque chercheur, tous les six mois, pour déceler les signes avant-coureur d'une nouvelle révolution scientifique »). L'assemblée commençait un peu à se lasser, et je constatais une évaporation progressive des effectifs, de jour en jour. Ces assises de la recherche étaient en train de tourner au fiasco… Au matin de la sixième journée, l'oratrice en charge de l'organisation des groupes de travail du jour a bien insisté sur l'importance de trouver enfin une idée utile: « Ce soir, il faut que nous ayons une idée claire des facteurs qui déterminent le succès d'une carrière scientifique ! ».

Dans mon groupe de travail, nous avons donc décidé d'analyser les choses méthodiquement. Nous étions sept (la taille des groupes de travail avait fondu à mesure que les effectifs des assises se réduisaient), et parmi les plus motivés.

« Alors, si on se retourne sur nos propres carrières scientifiques: quels ont été les circonstances qui ont pu, par moments, nous rendre plus productifs ? »

Chacun y est allé de sa petite anecdote, de sa petite auto-analyse, et finalement, nous sommes arrivés à la conclusion que, chaque fois que nous avions pu réussir un projet un peu ambitieux, ç'avait été parce que, à la suite de circonstances favorables, on nous avait donné les moyens financiers de le mettre en œuvre. Après tout, il y avait une certaine logique à ça: on passait tout notre temps à courir après les financements, et pendant les quelques périodes où, lauréats d'un appel d'offres, ou bénéficiant de reliquats d'un autre financement, nous pouvions vraiment nous consacrer à notre métier, les résultats commençaient à tomber.

C'est donc avec le sentiment de contribuer au progrès collectif que, le soir, l'un des membres de notre groupe de travail est monté sur l'estrade pour résumer nos réflexions:

« Alors, selon nous, le facteur qui détermine le plus sûrement le succès d'un projet scientifique, c'est son financement. Si un projet n'est pas financé, il a peu de chances d'aboutir. »

La salle n'a pas semblé prendre au sérieux le résultat de notre journée d'efforts; à l'entendre, notre conclusion relevait de l'évidence. Quelqu'un a crié:

« Ça ne casse pas trois pattes à un canard ! Évidemment, que les chercheurs font plus de découvertes si on leur donne les moyens de travailler ! »

Le représentant de mon groupe de travail ne s'est pas démonté:

« Eh bien alors on est d'accord ! On a donc trouvé ce qui prédisait, avec la meilleure fiabilité, le succès futur d'un chercheur ! »

Un silence soudain s'est fait dans l'amphithéâtre. Tout le monde était en train de réfléchir aux implications de ce qui venait d'être dit, et tout le monde était en train, en même temps, de tomber d'accord: oui, c'était donc ça ! Ce qui distingue un bon futur chercheur d'un mauvais futur chercheur, c'est que le bon futur chercheur, il est financé !

Par rapport aux jours précédents, la réunion plénière de ce jour-là a duré beaucoup plus longtemps: nous étions collectivement en train d'explorer les conséquences de notre découverte, les interventions fusaient, la théorie se raffinait, le consensus était en train de se faire sous nos yeux. Nous avons quitté l'amphithéâtre, ce soir-là, avec l'impression d'avoir enfin progressé dans notre réflexion. Il était temps: le lendemain, dernier jour des assises, nous allions devoir formuler nos recommandations pour le ministre, qui viendrait les écouter en fin de journée. Surtout, il nous avait demandé de vérifier l'efficacité des critères que nous allions lui proposer: il ne faudrait pas chômer, pendant cette dernière journée de travail commun…

C'est donc avec la conscience de l'ampleur et de l'importance de la tâche qui nous attendait, que nous nous sommes réunis le dernier jour. Cette fois, la mission dévolue aux différents groupes de travail était d'imaginer, et de mettre en application, des méthodes permettant d'évaluer la justesse du critère que nous avions trouvé. Nous allions faire le bilan de ces évaluations en début d'après-midi, pour ensuite nous mettre d'accord sur un texte à lire au ministre en fin d'après-midi.

J'ai été chargé de la coordination du groupe de travail auquel je participais. J'ai donc lancé nos travaux:

« Bon, alors, il faut qu'on se constitue une petite base de données, où on indiquerait si un projet a été financé ou non, et à quelle hauteur, et on verrait si ces données corrèlent avec des indicateurs de succès… »

Une collègue m'a interrompu:

« Si on veut avoir le temps de faire tout ça d'ici ce midi, on ne va pas vraiment pouvoir collecter une grosse base de données ! Ce que je propose, c'est qu'on fasse chacun le bilan de nos propres projets, et on fera nos recherches de corrélation là-dessus ! »

Nous nous sommes donc tous mis à essayer de faire la liste des différents projets que nous avions imaginés au cours de nos carrières. Ceux d'entre nous qui étaient les mieux organisés avaient gardé, dans leurs archives, les dossiers de demande de financement qu'ils avaient déposées, et, en se connectant péniblement à leurs postes de travail du labo à partir de leurs téléphones portables, ils reconstituaient la liste de tout ce qu'ils avaient, un jour ou l'autre, eu envie de faire — en notant aussi si ces projets avaient été financés. Les moins organisés d'entre nous s'en remettaient à leur mémoire, et à la fin, nous avons pu constituer une petite liste de quelques dizaines de projets scientifiques. Notre liste était largement biaisée en faveur des chercheurs qui avaient pu accéder à leurs archives, et elle s'étendait sur une période de plus de vingt ans — quelques montants dans notre liste étaient libellés en francs. Il serait difficile de comparer les valeurs entre elles (fallait-il tenir compte de l'inflation ?), mais nous n'avions plus le temps de peaufiner: on garderait les valeurs non corrigées, et on tâcherait de corréler ça avec… avec quoi, au fait ?

Un membre du groupe a tranché, sentencieusement: « eh bien, avec le nombre de publis qui a résulté du projet ! »

« Ah non ! On vient de passer six jours à dire que l'évaluation bibliométrique était infondée, on ne va pas l'utiliser nous-mêmes ! »

« Alors tu as mieux à proposer ?… »

Nous étions piégés. Comment allions-nous pouvoir mesurer le succès des projets scientifiques en fonction de leur financement, si nous ne savions même pas définir le succès ?

« Dites, les gens, il ne nous reste plus qu'une heure avant la réunion de rendu, en début d'après-midi. Donc on ne va pas s'embêter à chercher un consensus. Tout le monde prend un bout de papier et un crayon, et note les idées qui lui passent par la tête, pour mesurer le succès ou l'échec d'un projet de recherche. Notez tout, et à la fin on verra si un de ces trucs veut bien corréler avec la hauteur du financement du projet. »

Nous nous sommes mis à griffonner frénétiquement tout ce qui pouvait, de près ou de loin, ressembler à une mesure du succès (ou, de manière équivalente: une mesure de l'échec) d'un projet scientifique. Après une dizaine de minutes, nous avons compilé nos listes (qui étaient largement redondantes), et j'ai sorti mon ordinateur portable pour faire l'analyse de corrélation.

J'ai entré toutes les valeurs, et lancé les calculs de corrélation. Le résultat était très décevant: les tests donnaient des corrélations quasiment nulles, et jamais significatives. Je lisais en direct, pour mes collègues, ce que m'affichait mon ordinateur:

« Alors, dans notre petite base de données, le nombre de publis… ne corrèle pas avec le financement. Le nombre de brevets… ne corrèle pas non plus. Le nombre de thèse soutenues… non plus. La somme des impact factors des publis… non plus. »

Une collègue s'en est étonnée:

« C'est quand même bizarre, ton truc ! Un projet non financé, et un projet financé, se publient autant ? Mais si le projet n'est pas financé, comment est-ce qu'il a même pu être réalisé, avant d'être publié ?… »

C'est vrai que, dans ma base de données, de nombreux projets étaient annotés « non financés », mais avaient donné lieu à des publications. Les membres de notre groupe, qui m'avaient fourni ces données, nous ont expliqué la situation:

« Tu sais, quand un projet n'est pas financé, on arrive souvent à gratter des sous à droite à gauche, en rognant sur les projets financés, ou en empruntant aux budgets des collègues, et au final on a souvent un petit quelque chose à raconter à la fin… »

Pendant ce temps, les calculs continuaient sur mon ordinateur, et je me suis soudain écrié: « Ah, ça y est ! Une corrélation significative ! Et elle est magnifique, cette corrélation ! Le coefficient est presque à 1… »

Tout le groupe s'est dressé: « C'est pour quelle mesure ? ».

J'ai dû relire deux fois ce que m'indiquait mon ordinateur:

« C'est pour… le montant dépensé ?!? »

Silence gêné dans le groupe. L'une des membres du groupe s'est dénoncée:

« Oui, c'est moi qui ai proposé ça, comme mesure de l'échec d'un projet scientifique. Je me suis dit que, si un projet dépensait beaucoup d'argent, d'une certaine manière, c'était un peu un échec… »

« Eh bien en tout cas, ça corrèle super-bien avec le financement ! »

« Bah oui, quand on décroche un financement, c'est sûr que, dans les années suivantes, on le dépense dans sa totalité… C'était plutôt attendu, comme corrélation… »

Il n'était plus temps de chercher autre chose. Il était 13h, on était en train d'appeler tous les coordinateurs de groupes de travail à venir présenter, sur l'estrade, le résultat de leurs travaux.

Les autres groupes n'avaient pas fait mieux que nous, ils ne s'étaient même pas donné la peine de faire une analyse de corrélation; ils s'étaient contentés de sélectionner de grandes découvertes scientifiques, puis de vérifier que ces projets avaient bien été financés a priori. Il n'y avait pas grand'chose d'utile à tirer de leurs observations…

Quand mon tour est venu de présenter nos résultats, j'ai commencé par détailler notre méthode. La salle a beaucoup apprécié le principe de notre analyse de corrélation (« Très bien, très rigoureux ! »), mais elle s'est montrée déçue d'apprendre que ni le nombre de publications, ni le nombre de brevets, ni quoi que ce soit d'autre de vaguement gratifiant, n'avait bien voulu corréler positivement avec le montant des financements. Dans la salle, un collègue a crié avec véhémence:

« Moi, ça ne me surprend pas ! Dans ma carrière, les projets qui ont le mieux marché, c'étaient souvent ceux que les agences de financement avaient refusés ! Et je devais me débrouiller pour aller piquer des sous à mes collègues pour pouvoir les réaliser… »

Une autre a ajouté:

« Oui, c'est une vraie loterie, ces agences de financement ! Moi, j'ai même l'impression qu'elles ont toujours préféré mes projets les moins imaginatifs… »

Quelqu'un a tenu à nuancer:

« Oui, mais si on arrive à piquer des sous pour réaliser nos projets non-financés, c'est justement parce qu'il y a des projets nuls qui sont financés, et qu'on peut aller y piocher les budgets qui manquent. Donc d'une certaine manière, les financements finissent bien par alimenter les bons projets… »

La salle commençait à s'agiter, tout le monde parlait en même temps. Je sentais qu'il fallait que je calme mes collègues en finissant sur une note plus optimiste:

« Celà dit, on a bien fini par trouver un truc qui corrélait très bien avec le financement… »

La salle, qui sentait l'heure tourner, et qui imaginait le ministre sur le point de nous rejoindre, a laissé entendre un murmure de soulagement.

« Ce qui corrèle très bien avec le montant des financements obtenus, c'est… le montant qui sera dépensé dans les années suivantes. »

Silence glacial. On n'a pas osé me le dire, mais visiblement, tout le monde trouvait que notre conclusion était nulle, tellement attendue, tellement évidente… Gêné, j'ai voulu compléter:

« En fait, c'est ça… les projets les mieux financés, ce ne seront pas les projets qui se publieront le plus, ce ne seront pas les projets qui formeront le plus de thésards. Ce seront les projets qui dépenseront le plus d'argent… »

C'était affreux, aucun autre groupe de travail n'avait trouvé quoi que ce soit d'intelligent à dire, et notre groupe à nous, avait redécouvert ce que tout le monde savait déjà. Pire: si, avec la meilleure volonté du monde, on voulait bien accorder un peu d'intérêt à notre conclusion, il fallait en déduire que les projets financés seraient, avant tout, des projets dépensiers — si on disait ça au ministre, il serait tenté de conclure qu'il faut financer encore moins la recherche ! Mais c'était la dure réalité des chiffres; en bons scientifiques, nous ne pouvions pas nous dérober devant les conclusions de nos analyses…

Il était 14h, nous n'avions pas encore mangé, tout le monde avait faim. Nous avons décidé d'aller casser la croûte, et de revenir ensuite pour rédiger, comme on le pourrait, un texte de recommandations pour le ministre.

À notre retour dans l'amphithéâtre, une petite surprise nous attendait: le directeur de cabinet du ministre, avec trois collaborateurs, avait décidé de venir un peu en avance, pour nous assister dans la rédaction des recommandations. Il nous a salués d'un jovial:

« Bonjour ! Je vois que vous avez travaillé dur, on m'a dit que vous avez fini très tard la session de ce matin. C'est appréciable, de travailler avec des gens qui ont le goût du travail bien fait… Bon, alors, parlons de ce que vous avez trouvé. Bien sûr, je ne voudrais certainement pas interférer avec vos travaux, et c'est vous qui donnerez au ministre les recommandations que vous aurez imaginées. Mais, sans me mêler de ré-écrire votre rapport, je me disais que je pouvais peut-être vous aider à choisir les formulations, ou aplanir à l'avance les difficultés que votre rapport pourrait provoquer… Voyons ça ensemble, voulez-vous ? »

Nous faisions plutôt grise mine. Le modérateur de notre dernière session de travail s'est avancé, pour résumer aux émissaires du ministre ce que nous avions trouvé:

« C'est à dire que… c'est un sujet complexe. Nous ne sommes pas sûrs d'avoir réussi à vraiment trouver des choses très utiles… En nous basant sur nos expériences personnelles, nous nous sommes aperçus que, souvent, un bon indicateur du succès futur, c'est le niveau de financement du projet. »

Le directeur de cabinet a pris un air soucieux: « Hmm, oui, je vois… ».

Notre collègue a repris:

« Nous avons voulu vérifier statistiquement si c'était le cas, en regardant si plusieurs marqueurs mesurables de succès corrélaient avec le montant des financements… »

Le directeur de cabinet l'a à nouveau interrompu:

« Hmm, d'accord, je vois où vous voulez en venir. Figurez-vous que nous avons, nous-mêmes, réalisé ce genre d'analyse, au ministère, et effectivement les conclusions sont frappantes. »

Nous avons tous regardé la pointe de nos chaussures, nous savions que, dans sa phrase suivante, le directeur de cabinet nous dirait qu'il n'y avait pas de corrélation entre le montant d'un financement et le succès du projet financé, et nous savions très bien que cet argument servirait à de futures coupes budgétaires. Le directeur de cabinet a poursuivi:

« Oui, il y a un effet très net, quand un institut reçoit de nombreux financements, il publie mieux, il forme davantage de thésards, et eux-mêmes ont de meilleures perspectives d'avenir ensuite. Nous avons vu tout ça nous aussi. »

Nous étions stupéfaits. Le modérateur de notre session matinale, soucieux d'honnêteté intellectuelle, a tenu à nuancer les conclusions de notre interlocuteur:

« Oui, enfin, dans nos analyses à nous (réalisées sur un tout petit échantillon, mal normalisé), l'effet n'était pas si net… Il est vrai que nous n'avons pas travaillé à l'échelle de l'institut, mais à l'échelle du projet. Ça pourrait peut-être expliquer des différences de résultats entre votre analyse et la nôtre… En tout cas, nous avons observé que les projets les mieux financés étaient aussi ceux qui généraient le plus de retombées économiques. »

(ce qui était effectivement une manière comme une autre de dire que cet argent attribué aux labos avait été intégralement dépensé sans s'y accumuler, et qu'il avait profité aux entreprises qui nous fournissaient des réactifs, et aux jeunes chercheurs qui y avaient trouvé un revenu)

Le directeur de cabinet ne comprenait pas ce que nous voulions dire, il avait l'air de s'excuser:

« Ah, vous avez regardé à l'échelle du projet scientifique ? Nous, nous avons regardé à l'échelle de l'unité de recherche: vous comprenez, ce sont les seules données que nous puissions collecter facilement. On regarde l'argent qui entre dans une unité, et on regarde la production scientifique qui en sort… »

C'est vrai que nous n'avions pas vu les choses sous cet angle. Dans nos cas personnels, les projets financés n'avaient été ni moins bons, ni meilleurs que les projets non financés. Mais effectivement, nous avions constaté que, si un institut entier recevait davantage d'argent, ses équipes travailleraient mieux, même celles qui n'avaient pas directement reçu un financement pour l'un de leurs projets: les frontières entre les budgets des différentes équipes n'étaient pas étanches. Nous avons laissé parler le directeur de cabinet, qui avait visiblement des idées très arrêtées sur la question:

« De toute façon, puisque nous avons montré que c'était vrai à l'échelle de l'institut, ça doit aussi l'être à l'échelle du projet de recherche: vous savez que les crédits sont fléchés, et que ce qui est attribué à un projet ne peut pas être utilisé par le reste de l'unité. Je pense que si vous aviez utilisé un jeu de données aussi complet que le nôtre, vous auriez trouvé les mêmes coefficients de corrélation que nous… »

Il était là, le malentendu ! Les agences de financement avaient effectivement mis en place des procédures pénibles pour garantir que l'argent attribué à un projet ne pouvait pas servir aux autres. Et nous de notre côté, nous devions déployer au moins autant d'efforts à contourner ces procédures, que les agences en avaient déployé pour les inventer… Parce que même avec la meilleure volonté du monde, il était impossible de tenir exactement un budget qui avait été calculé au moment de déposer une demande de financement: pendant les trois ou quatre ans qui s'écoulaient entre la demande et la fin du contrat, les prix des réactifs avaient évolué, les grilles salariales aussi, on ne savait pas a priori quel serait le niveau d'expérience professionnelle, donc le salaire, des postdoctorants qu'on allait pouvoir trouver, on ne savait pas s'ils pourraient obtenir une bourse externe, et bien entendu, on ne pouvait pas prévoir à l'avance l'évolution des techniques ni celle du domaine scientifique. Devant les changements perpétuels auquel nous étions soumis, nous étions systématiquement amenés à modifier le contenu du projet ou sa mise en œuvre, pour nous adapter à ce que la communauté scientifique avait publié depuis le dépôt de la demande de financement. Alors il y avait quelque chose d'un peu risible à ce que les agences de financement nous demandent des budgets précis à l'euro près, et des calendriers de déroulement précis au mois près… Les chercheurs, avec le soutien peu enthousiaste de leurs services de gestion, étaient donc passés maîtres dans l'art de zigzaguer entre les contraintes de cloisonnement des budgets. Les projets qui étaient finalement moins coûteux que prévu servaient donc à boucler ceux qui étaient finalement plus coûteux que prévu — mais ça, il ne fallait pas le dire devant le directeur de cabinet, qui semblait croire qu'un projet de recherche était prévisible dans son déroulement. Nous nous sommes donc contentés d'opiner de la tête pour le conforter dans ses idéaux comptables.

« Bon, puisque c'est la conclusion des assises, il va falloir le synthétiser dans un document qui sera remis au ministre. Souhaitez-vous que je vous assiste ? »

Un petit groupe de volontaires, chargé de la rédaction du document, s'est donc assis à une table avec les membres du cabinet du ministre, et, sous la surveillance courtoise, mais un peu pesante, de ces hauts fonctionnaires, ils ont rédigé un petit rapport de deux pages. Quand le ministre est finalement arrivé, le rapport lui a été lu dans l'amphithéâtre. Nous y déclarions que les précédentes méthodes d'évaluation des chercheurs, préconisées par l'ancien ministre, étaient sous-optimales, et qu'elles avaient tendance à juger les chercheurs sur leur passé plutôt que sur leur avenir (le ministre a hoché la tête avec satisfaction). Que les nouvelles méthodes d'évaluation, qui seraient mises en place sous le nouveau gouvernement, semblaient plus efficaces (le ministre affichait un sourire reconnaissant). Et que les moyens financiers qui étaient attribués aux laboratoires permettaient de produire davantage de retombées économiques, preuve que le monde de la recherche n'était pas déconnecté de la société civile, et qu'il contribuait à sa prospérité (le ministre a eu l'air agréablement surpris de ce paragraphe, le seul, visiblement, qu'il n'avait pas anticipé).

Dans la salle, nous nous regardions avec étonnement: nous avions du mal à reconnaître le résultats de nos réflexions dans cette petite déclaration. Quand il a été question de la différence d'efficacité de l'ancien ministre avec le nouveau, j'ai jeté un coup d'œil interrogateur au modérateur de notre session matinale, qui avait participé à la rédaction du rapport. Son visage a pris une expression d'impuissance, et il m'a montré, d'un mouvement de menton, le directeur de cabinet et ses trois collaborateurs, assis un peu plus loin, et qui contemplaient avec satisfaction le sourire du ministre.

Le ministre a salué l'intervention de notre collègue:

« C'est très bien, très finement synthétisé. Et donc, quelles seraient vos recommandations, dans l'identification des succès à venir ?… »

L'orateur a été un peu gêné, il a bafouillé, puis il a répondu:

« Eh bien, il nous semble que les chercheurs qui réussiront le mieux, ce sont ceux dont les projets sont financés, mais sans que ce soient systématiquement les projets qui ont été sélectionnés par les agences de financement… »

Le ministre a eu l'air surpris:

« Financés, mais sans avoir été sélectionnés par les agences de financement ? Mais comment sont-ils financés, alors ? Vous avez inventé la pierre philosophale, dans vos labos ?… » (il s'est retourné vers son directeur de cabinet, pour constater avec plaisir l'hilarité que provoquait son trait d'esprit)

« Non, non, bien sûr… Non, en fait, c'est que parfois, les financements attribués à certains projets ne sont pas utilisés en totalité, alors nous pouvons les utiliser pour les projets qui n'avaient pas été sélectionnés… Et ces projets-là se trouvent être aussi productifs que les autres. »

Le ministre a perdu le sourire, il était doublement choqué d'apprendre que l'on remettait en cause l'efficacité de la sélection par les agences de financement, et que les labos réussissaient à contourner les règles de fléchage des financements.

« Ah mais, ça ne va pas du tout ! Si une agence finance un projet, c'est ce projet-là qui doit être financé, et certainement pas les autres ! Il va falloir qu'on mette bon ordre à tout ça ! Qu'est-ce que c'est que ces gens qui se mêlent de décider de ce qui doit être financé, contre l'avis des agences ? »

Une voix dans la salle a lancé: « Ces gens, ce sont justement ceux qui s'y connaissent le plus ! »

Le ministre s'est levé, rouge de colère, rapidement imité par son directeur de cabinet et ses collaborateurs. Nous n'étions pas très fiers du résultat de nos assises, et chacun de nous est rentré dans son labo, avec un sentiment de culpabilité confuse.

La réplique du ministre ne s'est pas fait attendre: deux semaines plus tard, il publiait ses nouvelles directives, « suivant en celà les conseils des assises de la recherche, organe démocratique représentatif de la diversité des acteurs du monde de la recherche ». Il annonçait que les chercheurs qui méritaient le plus de soutien, ceux qui étaient amenés à produire la meilleure science dans le futur, étaient ceux dont les projets étaient financés, malgré les détournements dont ils étaient victimes de la part de leurs collègues. Et que, pour garantir une meilleure « efficience », il fallait s'assurer que ces fuites cessent immédiatement. Il exigeait donc de chaque institut de recherche d'embaucher, à plein temps, un comptable pour chaque chercheur de l'institut. Les effectifs des instituts allaient donc à peu près doubler, et leur masse salariale avec, mais, concluait-il, c'était le souhait qui avait été exprimé par les chercheurs eux-mêmes — et il n'avait pas de priorité plus haute que celle de suivre nos recommandations.

Fin

Épisode précédent
Épisode suivant