Pour une science au ralenti

Yves Gingras défend une science qui fait primer réflexion et qualité sur vitesse de publication.

20 Février 2017 à 8H30

Le nombre d'erreurs et de rétractations de la part de scientifiques s'est accru de manière importante depuis le début des années 2000, notamment dans les sciences biomédicales, souligne Yves Gingras. Photo: Istock

Dans The Slow Science Manifesto, un document publié en 2010 sur Internet, un groupe de chercheurs lançait un cri du cœur. «La science nécessite du temps pour réfléchir, écrivaient-ils. Elle ne sait pas toujours, tout de suite, vers quoi elle va. La société doit donner aux scientifiques le temps dont ils ont besoin, mais, plus important, les scientifiques doivent prendre leur temps.»  Deux ans plus tard, dans une tribune libre de la revue Nature Chemistry, le chimiste français Jean-François Lutz reprenait leur appel pour une science au ralenti. Plusieurs chercheurs s'y sont reconnus.

Yves Gingras, professeur au Département d'histoire et titulaire de la Chaire de recherche du Canada en histoire et sociologie des sciences, appuie le mouvement en faveur d'une slow science. En octobre dernier, il a accordé une entrevue au magazine Savoirs, de l'Université de Strasbourg, dans le cadre d'un article qui défendait l'idée d'une science où la réflexion et la qualité de la recherche primeraient sur la vitesse de publication.

«La preuve que l'on publie trop vite, c'est que le nombre d'erreurs et de rétractations de la part de scientifiques s'est accru de manière importante depuis le début des années 2000, notamment dans le domaine des sciences biomédicales, souligne le professeur. Un article paru en juillet 2013 dans la revue scientifique américaine PLOS ONE, intitulé Why Has the Number of Scientific Retractations Increased ?, décrit bien le phénomène.»

Pression institutionnelle

Certains chercheurs prétendent que la croissance du nombre de rétractations serait attribuable au fait que l'on détecte mieux aujourd'hui les erreurs et les fraudes scientifiques. Yves Gingras n'est pas d'accord. «Il est certain que la pression institutionnelle venant des universités et des organismes subventionnaires pour accroître la production scientifique – le fameux publish or perish – s'est accentuée depuis les années 1980, entraînant avec elle une hausse de la déviance, dit-il. Cette pression conduit certains chercheurs à proposer des interprétations plus radicales que ce que les données disponibles permettent de soutenir, de façon à présenter leur recherche sous un angle plus favorable.»

Un débat a surgi récemment autour d'un article publié en janvier dernier par la revue Science, dans lequel des scientifiques de l'Université Harvard ont affirmé avoir enfin obtenu de l'hydrogène métallique, recherché depuis 80 ans. Or, des experts de l'Institut de chimie Max-Planck, en Allemagne, du Commissariat à l'énergie atomique, en France, et de l'Université d'Édimbourg se sont aussitôt montrés sceptiques à l'égard de cette annonce. «Ils ont réagi en soulignant, notamment, que les chercheurs de Harvard avaient publié leurs résultats trop rapidement, à la suite d'une seule expérience», note l'historien des sciences.

Une pression à la visibilité s'exerce par ailleurs sur les organismes scientifiques. L'automne dernier, l'Organisation européenne pour la recherche nucléaire (CERN) a annoncé la découverte d'une nouvelle particule élémentaire. «Quelque 200 articles scientifiques ont été écrits pour interpréter cette soi-disant découverte, rappelle Yves Gingras. Un éditorial de Nature a souligné que l'annonce des résultats était prématurée.»

Dès les années 1950, le sociologue des sciences américain Robert K. Merton a montré que trop d'importance accordée à l'originalité peut amener des chercheurs à falsifier des données ou même à les inventer. «Pour certains d'entre eux, c'est la seule façon de répondre à une demande excessive d'originalité ou de productivité», observe le professeur.

Des revues prédatrices

Un autre effet pervers de la course aux publications est celui de la multiplication de revues dites prédatrices, lesquelles promettent aux chercheurs une visibilité accrue dans des délais très rapides en publiant leurs articles en libre accès, moyennant un paiement. «Ces revues pseudo scientifiques communiquent par courriel avec des chercheurs en leur disant qu'elles seraient disposées à publier leurs travaux. Plusieurs chercheurs désireux d'alimenter leur cv et de montrer qu'ils sont actifs se laissent piéger», souligne Yves Gingras

En 2010, le documentaliste Jeffrey Beall, de l’Université du Colorado, a été l'un des premiers à sonner l'alarme en créant le blogue Scholarly Open Access afin de recenser les revues prédatrices. En 2011, son blogue recensait 11 éditeurs soupçonnés de pratiques malveillantes, voire frauduleuses. En janvier 2017, il en comptait plus de 1 100 (le blogue a depuis été fermé pour des raisons qui ne sont pas encore très claires, possiblement à cause de poursuites d'éditeurs mécontents).

«Le phénomène des revues prédatrices peut être associé au développement d'un marché lucratif où les articles scientifiques sont transformés en de simples unités comptables, observe le professeur. Faisant partie d'une communauté, les universitaires devraient connaître, par expérience, les publications qui jouissent d'une crédibilité et d'une légitimité scientifiques. Il devrait être évident, par exemple, que Physical Review et Cell sont de bonnes revues pour publier des articles en physique et en biologie.»

Une évaluation purement quantitative

Dans un système de recherche focalisé sur l'évaluation quantitative, il est de plus en plus difficile pour un chercheur de prendre son temps. Un des outils les plus utilisés est la bibliométrie, une méthode de recherche consistant à utiliser les publications scientifiques – articles, ouvrages, thèses, rapports de recherche – et les citations qu'elles obtiennent comme des indicateurs de la production scientifique et de ses usages.

Dans son ouvrage Les dérives de l'évaluation de la recherche. Du bon usage de la bibliométrie, paru en 2014 aux éditions Raisons d'agir, Yves Gingras a montré que la bibliométrie constitue un outil indispensable pour analyser à l'échelle macroscopique la dynamique globale de la science, toutes disciplines confondues. Parce qu'elles couvrent une longue période temporelle et l'ensemble des champs du savoir, les données bibliométriques permettent d'étudier les transformations de la science, comme les phénomènes de la collectivisation et de l'internationalisation de la recherche.

Le hic est que l'on se sert aussi de la bibliométrie pour juger la qualité des travaux des chercheurs, expliquait le professeur dans son ouvrage. Le facteur d'impact des revues (FI), par exemple, soit le nombre moyen de citations obtenues par les articles d'une revue donnée, s'est transformé en un outil d'évaluation individuelle. Ce qui finit par devenir absurde. «Est-ce qu'un chercheur qui publie dans une revue de mathématiques, dont le facteur d'impact ne pourra jamais être celui d'une revue médicale, doit être considéré comme peu performant ?», interroge Yves Gingras. L'importance accordée à ce facteur a également pour résultat de dévaloriser l'étude de sujets locaux, marginaux ou peu à la mode. C'est particulièrement vrai en sciences humaines et en sciences sociales, dont les objets d'étude sont par nature plus locaux que ceux des sciences de la nature ou des sciences biomédicales.

Selon le chercheur, l'application mécanique de critères d'évaluation purement quantitatifs favorise le développement d'une logique de compétition entre les chercheurs et entre les universités. Ces critères servent d'ailleurs à l'établissement de classements mondiaux et nationaux des meilleures universités, tels ceux de Shanghai et du magazine canadien Maclean's, lesquels n'ont aucune valeur scientifique, soutient Yves Gingras.

Courant minoritaire mais nécessaire

Certes, le mouvement pour une slow science demeure marginal. Il faut néanmoins en faire la promotion, soutient l'historien des sciences. «Comme cela arrive souvent, un courant d'idées minoritaire peut finir par produire des effets importants. Les critiques envers les palmarès des universités ont débuté il y a une dizaine d'années environ. Aujourd'hui, de plus en plus de chercheurs ont cessé de croire à leur valeur scientifique. Même Nature a cessé d'accorder du crédit à ces classements.»

PARTAGER
COMMENTAIRES 0 COMMENTAIRE