Affichage des articles dont le libellé est bonnes pratiques. Afficher tous les articles
Affichage des articles dont le libellé est bonnes pratiques. Afficher tous les articles

samedi 2 mars 2024

Dans la famille « les bonnes pratiques en sciences » je voudrais « les ajustements ».

 
Supposons que l'on ait obtenu une série de résultats de mesure. Il arrive fréquemment, en sciences de la nature, que l'on cherche à voir comment cette série varie. 

Un exemple ? On cherche à connaître la quantité d'eau dans une viande : on met la viande dans une étuve, et l'on pèse à différents temps bien choisis, après l'introduction initiale dans l'étuve, en vue de voir quand la masse ne bouge plus.
Ou bien, on mesure le diamètre d'un grand accélérateur de particules, et l'on voit une variation périodique, due aux marées terrestres, ce qui peut conduire à des modifications des collisions de particules. 

Bref, il est quasi permanent, en sciences de la nature de faire des séries de mesures et de chercher comment les résultats varient. Ce que l'on obtient, ce sont des valeurs, des résultats de mesure, et l'on est habilité à présenter ces valeurs sur un graphique où le numéro ordre, par exemple, est indiqué en abscisses, et les valeurs mesurées en ordonnées. Par exemple, on pourra graduer les abscisses en secondes, et afficher les masses de viande en cours de séchage. 

Comme on se souvient qu'un résultat de mesure ne vaut rien sans une estimation de l'incertitude avec laquelle le résultat est connu, on sera donc habilité -je devrais même dire que l'on aura l'obligation- d'assortir chaque point correspondant à une mesure d'une petite croix : la barre verticale de cette croix aura la taille de l'incertitude de mesure, et la barre latérale montrera l'incertitude sur le temps auquel la mesure a été faite, par exemple. 

L’expérience ne nous donne que cela, et il serait donc, en quelque sorte, malhonnête d'afficher plus que cela. Parfois, les points de mesure, avec les croix évoquées, sont petits, et pas visibles, de sorte que l'on voudrait les faire apparaître mieux. C'est louable : on se préoccupe du confort visuel de nos interlocuteurs. 

Comment faire ? Il y a de nombreuses façons, mais l'une d'entre elles consiste à relier les points par des segments de droite : il est convenu que ces segments ne soient pas des résultats de mesure, mais seulement des façons de mieux faire apparaître les points. 

D'autre part, quand on n'en est plus à l'affichage des résultats de mesure, mais à leur interprétation, on peut chercher à savoir si les résultats des mesures suivent des lois particulières : les masses de viande diminuent-elles régulièrement ? linéairement ? exponentiellement ? C'est là une autre question, qui mérite un autre affichage, et une autre étude. Pourquoi, par exemple, se demander si les variations sont linéaires ? Il faut pour cela avoir une raison de poser la question, car il y a un nombre infini de décroissances possibles, de sorte qu'il serait parfaitement arbitraire de tester une linéarité. 

Bien sûr on pourrait dire qu'une décroissance linéaire est la "plus simple possible", mais "simple" est un adjectif, dont l'usage est donc interdit dans un laboratoire de bon aloi : tout adjectif, tout adverbe doit être remplacé par la réponse à la question "combien ?". Autrement dit, on comprend qu'il y a là tout un chapitre scientifique à ouvrir avant d'afficher une courbe qui passera plus ou moins bien par les points expérimentaux. Inversement, ce serait une immense naïveté, et une faute, que d'afficher la seule courbe que l'on connaisse, à savoir une droite, ou une exponentielle décroissante, par exemple. 

Le « modèle », c'est-à-dire l'équation retenue pour l'ajustement, doit être physique, ou chimique, ou biologique, c'est-à-dire fondé sur les phénomènes explicitement déterminés, et, en tout cas, c'est une faute de débutant que d'"ajuster" des points avec une courbe qui n'a pas de justification théorique. C'est inutile, tout d'abord, mais aussi nuisible, car cela nous conduit sur une voie qui est illégitime : nous sommes tentés de penser que cette variation particulière a une validité, un socle, et nous sommes tentés d'utiliser la courbe d'ajustement pour prévoir des résultats de mesure qui n'ont pas été faites. Ou bien, si la courbe retenue ne passe pas par un des points de mesure, nous risquons de penser que ce point correspond à une valeur anormale... alors que c'est la courbe qui n'a pas de raison d'être. 

 

Bref, nous utiliserions à des fins de prévision des lois qui sont littéralement "insensées". Et l'on comprend que cela n'est pas souhaitable, formulation qui est évidemment une litote !

vendredi 10 mars 2023

Il faut justifier ses dires, ou être capable de le faire.


Je fais ce billet parce que cela fait quelques plusieurs fois en quelques jours que des correspondants me soumettent des récits sans justification et que je vois ainsi des personnes qui sont extérieures à la production de connaissance et qui délivrent des informations douteuses (ou manifestement fausse), et cela sans référence.

Par exemple, un de mes correspondants me signale qu' "un chimiste, vers 1930, aurait découvert la molécule qui fait synthétiser le récepteur de l'amertume des légumes" (je le dis tout de suite : la phrase est insensée !).

On passera sur la confusion entre la "molécule" et le composé", mais on aura lieu de s'étonner... parce que la physiologie humaine est si évoluée qu'il est vraiment très incertain (et en réalité faux) qu'un composé (plutôt qu'une seule molécule) puisse faire synthétiser un récepteur à l'organisme humain, car, en réalité, c'est l'ADN qui fait synthétiser les récepteurs que sont les protéines.

D'autre part, l'expression "le récepteur de l'amertume des légumes" est faux, et je renvoie à  de nombreux articles que j'ai écrits pour expliquer qu'il n'y a pas une amertume, mais des amertumes, et donc plusieurs  des amertumes. Voir, par exemple, mon livre Casseroles et éprouvettes où j'ai rapporté les résultats d'études de marquage fluorescent des calcium pour détecter de tels récepteurs.

Bref, l'expression que mon interlocuteur n'a pas de sens, et elle conduit à douter de la phrase où elle se trouve et plus généralement du texte où se trouve cette phrase.

Bref, je doute de toute l'information qui m'est envoyée, dans ma réponse à mon interlocuteur, je commence par lui conseiller de bien citer ses sources.

J'ai en arrière-pensée le fait que, dans nombre de mes billets de blog ou de mes articles de vulgarisation scientifique je ne cite pas moi-même mes sources... Mais cela ne signifie pas que je ne les ai pas. Au contraire !

D'ailleurs, souvent, dans mes conférences, la deuxième diapositive que je présente indique mon adresse email, et je discute le fait que, pour ne pas encombrer mes présentations, je ne cite pas mes sources mais que je les tiens à la disposition de toute personne qui me les demandera.

Tout ce que je dis, tout ce que j'écris, se fonde sur des références. Et des références primaires : je cite ceux qui ont établi les faits. Pas des sources secondaires, dont il y a lieu de douter.

Chaque fait que je délivre doit être fondé sur une référence solide qui établit le fait.

D'ailleurs, dans mes articles scientifiques, toutes les personnes qui ont publié avec toi pourront témoigner du fait que je réclame "une phrase = une référence ou plus ».

Oui, tout ce qui est écrit dans un article scientifique doit être sourcé, référencé, et avec des règles très particulières que j'ai exprimées dans des nombreux billets et texte sur les bonnes pratiques en sciences.

Je sais qu'il y a des groupes humains où des adultes sont poussés à s'améliorer, notamment par la production de textes sur des sujets qu'ils choisissent, réalisant ainsi ce que l'on pourrait nommer des mémoires, mais la qualité de ses textes ne peut se limiter au bon usage de l'orthographe, de la grammaire, voire de la rhétorique : il y a surtout lieu de bien considérer que la formation doit conduire celui qui s'exprime a bien référencer ses assertions, à chercher de telles références, à les comprendre, à les lire in extenso, mieux même à les évaluer, car si l'on cite une référence médiocre sans la critique, alors on en endosse la médiocrité.

La question des références est absolument essentielle en sciences, et l'on ne répétera jamais assez que cela doit concerner des références primaires :  on ne doit pas citer un auteur qui cite un auteur qui, etc. Car citer un auteur, cela signifie lire que cet auteur a publié, et s'assurer qu'il a correctement établi le fait que l'on citera !

Parfois, on peut hésiter, car on a le sentiment que plusieurs auteurs doivent être cités.
Par exemple, si une méthode d'analyse a été mise au point par le chercheur A, et que le chercheur B a utilisé cette méthode pour obtenir un résultat d'analyse particulier, alors on citer à la fois B, pour le fait établi, mais aussi A, parce que c'est sous sa plume que se trouve la méthode d'analyse, qui doit être bonne.

Ce que je viens de dire là n'est pas anodin, car la science demande des "moyens de la preuve", à savoir comment un résultat a été établi et si l'équipe A a cité l'équipe a pour la méthode qu'elle a mise en œuvre, alors il devient obligatoire de citer A ainsi que B.

J'en profite aussi pour signaler que nous n'avons pas le droit de choisir entre plusieurs publications que l'on cite. Il y en a une qui a établi le fait :  c'est celle-là qui doit être citée et nul autre, même si nous avons des amis que nous à qui nous voudrions faire plaisir les citant, même si un article de synthèse nous a mis sur la piste de l'établissement du fait.  

jeudi 9 mars 2023

Profitons de tout pour en faire notre miel

 Profitons de tout pour en faire notre miel

À propos de bonnes pratiques, je m'aperçois qu'il y a sans doute lieu de nous mettre en position de montrer l'exemple.

Je sors d'un questionnaire de l'école doctorale, qui discutait la question des conduites en laboratoire,  sexistes par exemple. Le questionnaire avait peu d'intérêt, et il n'était pas très bien conçu, mais j'en ai surtout profité pour m'assurer que mes pratiques étaient conformes à mes valeurs.

Au fond, je me moque des recommandations de l'école doctorale si  ma conscience les contredit, et l'important est surtout que mon comportement, au laboratoire, soit bien telle que je le décide, sur la base de valeurs qui sont principalement l'honnêteté et la droiture.

Autrement dit,  ce questionnaire m'a seulement servi d'évaluateur, en ce sens que j'ai utilisés ses données comme des questions que je me suis posées... en faisant d'ailleurs, au passage, quelques critiques à l'école doctorale elle-même, qui doit s'améliorer sur certains points (les observations leur ont été poliment adressées).

Qu'ai-je répondu ? La première des choses, c'est quand même ce trio de termes, sécurité, qualité, traçabilité (dans cet ordre), et je crois que c'est une bonne pratique de les afficher et de les mettre en oeuvre sans faille.

Oui, dans les laboraoire, les plus avancés doivent montrer l'exemple, être d'une rigueur scientifique et humaine aussi parfaite que possible. Cela n'est pas toujours facile, car nous sommes pris entre des injonctions variées, de nos collègues, de nos institutions, de nos gouvernements... Et il y a lieu évidemment de ne pas suivre des règles édictées qui nous feraient déroger à la droiture.

Au contraire, nous devons gagner en humanité, en bienveillance, en révisant sans cesse les injonctions qui nous arrivent, en les évaluant, en les filtrant,  afin de retenir les comportements les plus collectivement utiles, intéressants, humains...

mardi 7 mars 2023

Une bonne pratique en matière d'expérimentation, c'est de s'assurer par avance, avant une expérience, que l'on a quelque chose d'obtenir un résultat.

Considérons, par exemple,  l'étude d'une émulsion par résonance magnétique nucléaire, et supposons que nous nous intéressions au composé tensioactif qui assure l'émulsification. Si l'on utilise un spectromètre RMN domaine fréquence de 300 MHz, alors le minimum dosable pour un composé, sans cryosonde, est d'environ 0,1 mg pour 1 g d'échantillon.

Or il suffit de très peu de molécules tensioactives pour obtenir une émulsion. Il serait donc idiot, et peut-être pire, d'utiliser la RMN dans l'objectif considéré, si la quantité de tensioactif est inférieure à la quantité détectable.

C'est donc une bonne pratique que de s'assurer, avant une expérience,  que nous aurons les 0,1 mg nécessaires pour faire le dosage.

Sans quoi, nous gaspillons du temps scientifique, de l'argent (pour le fonctionnement de l'appareil,  pour les consommables, pour l'électricité, le chauffage...).

Nous sommes comptables de l'argent qui nous est confié pour nos études, et c'est donc une bonne pratique que de ne pas nous lancer dans des études inutiles.

Faisons-nous maintenant l'avocat du diable en disant que rien est inutile et que la chance sourit aux esprits préparés. Serait-il possible, par exemple, que, lors de cette expérience inutile, nous apprenions des faits qui correspondent à une découverte ? Bien sûr, à partir des résultats de l'expérience ratée, nous pouvons essayer d'aller voir plus plus loin que le phénomène qui n'a pu être mesuré. Bien sûr, nous pouvons profiter des données qui ont été obtenues pour faire des calculs qui n'étaient pas ceux qui étaient initialement envisagés. Mais c'est alors par un hasard très grand que nous pourrions vraiment faire une découverte scientifique.

Je connais des cas où cela est arrivé et, en particulier, quand Nicolas Kurti et ses collègues ont découvert la désaimantation adiabatique nucléaire, parce qu'ils ont augmenté -contrairement à toute rationalité apparente-  l'intensité du courant utilisé dans un montage expérimental qui ne fonctionnait pas, et qu'ils ont vu un tout autre phénomène que celui qu'ils étudiaient.

Il y a aussi tout un livre du chimiste Jean Jacques, L'imprévu, ou la science des objets trouvés, qui évoque des découvertes faites par sérendipité. Mais à bien lire Jean Jacques, on verra quand même que c'est l'attention à tous les détails, et l'intérêt pour le non-découvert, la focalisation sur les étrangetés du monde, et non pas la négligence, qui ont engendré des découvertes.

Il y a cette phrase ancienne selon laquelle "la chance sourit aux esprits préparés", et il y aurait lieu de discuter du mot "chance".



lundi 6 mars 2023

Le respect du contrat

 

A propos du choix du phénomène dont on va explorer  les mécanismes, il y a, en germe tout le débat de sur différence entre les sciences de la nature et la technologie.

Les sciences de la nature  explorent les mécanismes des phénomènes, tandis que la technologie veut améliorer la technique.

Ce sont des objectifs qui sont a priori très différents, même s'il est vrai que l'on peut explorer des phénomènes qui ont, par ailleurs,  un intérêt technologique.

Par exemple, on peut vouloir mettre au point des matériaux supraconducteurs à température ambiante,  et c'est là une étude technologique qui conduira à être capable de produire de tels matériaux, une fois qu'ils ont été identifiés.

Mais la science n'a pas cela pour objectif  :  elle a pour objectif d'explorer le phénomène de supraconduction. Et tant mieux si, lors de cette exploration, on arrive à des idées qui permettent aux technologues de trouver des matériaux supraconducteurs à température ambiante, mais ce n'est pas l'objectif.

Cet exemple que j'ai pris est absolument universel, car il y a une vraie différence entre chercher les mécanismes et chercher des applications, en dépit de tout ce qui a été dit du contraire et qui ne m'a jamais convaincu, à commencer par les théories épistémologiques idéologiques.

Si nous faisons de la science, il peut pratiquer de se concentrer sur la perspective des découvertes que nous allons faire alors que nous explorons un phénomène, mais ce serait une mauvaise pratique que de faire de la technologie, de viser l'invention.
En revanche, si nous faisons une étude technologique, alors ce serait une erreur, voire une faute,  que de lancer une étude scientifique au sens précédent, car ce n'est pas ce n'est pas cela le contrat qui nous a été proposé.

Je crois que  le respect du contrat qui a été proposé au scientifique est une bonne pratique scientifique.  

dimanche 5 mars 2023

Des bonnes pratiques à propos de la sélection des phénomènes que nous étudions

 
La première étape du travail scientifique est l'identification d'un phénomène que l'on étudiera.

A ce propos, on comprend que l'exploration de certains phénomènes serait condamnable  et, a contrario, il y a une bonne pratique qui consiste à explorer des mécanismes de phénomènes dans des conditions d'expérimentation qui sont parfaitement éthiques.

Par exemple, l'expérimentation humaine ne peut se faire que dans des conditions extraordinairement cadrées, et certaines explorations ne peuvent pas se faire.

Par exemple, il serait condamnable de priver des patients d'un traitement que l'on sait efficace, lors d'une étude d'un nouveau médicament, et c'est la raison pour laquelle on compare le nouveau médicament au plus efficace connu.

Il y a évidemment lieu, bien avant de commencer un travail, à s'interroger sur les conséquences d'une étude, et c'est ainsi qu'en 1984, des biologistes du monde entier avaient signé un moratoire pour arrêter les études de biologie moléculaire le temps d'une réflexion éthique suffisante.

Aujourd'hui, il y a heureusement des comités d'éthiques dans les institutions de recherche de la plupart des pays, pour rappeler à tous que nous devons avoir des pratiques éthiques, au sens très large : tout aussi bien dans le respect des personnes et des autres organismes vivants, mais, aussi, en relation avec l'environnement.


samedi 4 mars 2023

À propos de bonnes pratiques dans la vie scientifique

 À propos de bonnes pratiques dans la vie scientifique

Je me souviens d'une époque pas si  ancienne où, dans les laboratoires de chimie, le directeur (le "patron") signait toutes les publications scientifiques, et même celles qui décrivaient des travaux auxquel il n'avait pas participé.

Après la Révolution de mai 1968, le remarquable chimiste Guy Ourrisson fut l'un de ceux qui renversèrent la tendance, notamment à propos de la signature des publications scientifiques.

Aujourd'hui, les bonnes pratiques ont considérablement évolué à ce propos, et l'on en est même à s'interroger pour savoir si les membres du comité de thèse d'un doctorant, voire le directeur de thèse, doivent ou non consigner les publications des doctorants qu'ils "encadrent".

Certes, je discute ici par anticipation d'un point qui sera disputé plus loin, mais il me sert surtout à évoquer la question de la conduite des individus dans les laboratoires.

De même que le sexisme est bien plus condamné que par le passé (heureusement !), de même que les patrons peuvent être condamnés pour du harcèlement, sexuel ou moral (heureusement !), il y a lieu de considérer les bonnes pratiques en termes de comportement dans les laboratoires.

Les écoles doctorales ont eu pour bénéfice de mettre un peu d'ordre dans l'affaire, et cela n'est pas terminé,  mais c'est en bonne voie, au moins pour les thèses des sciences de la nature, où les doctorants, qui ne sont plus des étudiants puisqu'ils ont dépassé le stade de la deuxième année de master, doivent être payés, par le laboratoire, ou par le ministère, ou par un industriel.

Il y a donc une évolution considérable depuis 1968. D'ailleurs les directeurs de laboratoire n'ont plus droit qu'à deux mandats successifs, à la suite de quoi ils doivent retourner à la paillasse ou bien  où aller vers d'autres tâches.

Mais surtout, il y a lieu maintenant de considérer le comportement des individus dans les laboratoires, comportements individuels ou comportements en société, et toujours à mettre en regard des lettres de mission qui sont confiées et du Code national de la recherche.

De plus en plus, les activités scientifiques sont codifiées, et c'est ainsi que se sont ajoutées des lois qui protègent notamment les plus jeunes.

Par exemple, tout stage de plus de 8 semaines doit donner lieu à une indemnité.  Cela concerne essentiellement les étudiants en deuxième année de master.

Pour les doctorants, je milite pour qu'on ne les confonde plus avec des étudiants, ce qu'ils ne sont pas en vertu d'un accord européen, mais qu'on les considère plutôt comme des jeunes scientifiques qu'ils sont. Certes ils ont une carte d'étudiant qui leur donne des avantages associés à leur salaire limité, mais en réalité, ce sont des jeunes scientifiques qui doivent maintenant progresser dans la carrière scientifique ou technologique.

Pour les étudiants en stage, le travail est codifié à savoir que la réglementation nationale indique bien que les stages sont des séquences d'études, donc sous la responsabilité de leurs institutions qui les envoient en stage.
Et la réglementation nationale veut que les stages permettent aux étudiants de transformer des connaissances en compétences.

De sorte qu'il est anormal que certains étudiants en stage soient réduits à faire des photocopies ou à observer les actions du personnel qu'ils suivent.

D'ailleurs, à propos de ces stages, je propose d'être honnête quand on est encadrant, ce qui signifie d'une part que l'on doit permettre aux stagiaires de transformer leurs connaissances en compétences, sans quoi on ne doit pas accepter l'étudiant en stage.

Ce qui signifie aussi que l'on s'engage à évaluer ce travail de transformation des connaissances en compétences, ce que ne pourra pas faire le professeur responsable vu qu'il n'est peut-être pas compétent dans l'activité que l'étudiant va découvrir.

Ce qui a pour corollaire que s'il y a un rapport (écrit, donc) et une présentation orale, cela relève d'un exercice qui est donné à l'étudiant par son institution, par ses professeurs, et qu'il est tout à fait anormal que la structure d'accueil du stagiaire révise le document écrit, ou fasse la présentation orale.

Il y a lieu de dire cela explicitement, car je vois beaucoup trop souvent des encadrants de stage qui réécrivent les rapports des stagiaires, de sorte que ce ne sont pas les stagiaires qui sont notés mais les encadrants.

Je vois aussi les encadrants invité aux soutenances, mais je ne crois pas bon qu'ils y soient présents, car l'évaluation d'une présentation orale relève de la compétence de l'institution d'enseignement, et pas de l'entreprise où le stage a été fait. C'est l'exercice oral qui est  (doit être) jugé, et pas le travail scientifique, dont l'évaluation revient à l'encadrant.

Personnellement, je signale explicitement aux professeurs des stagiaires qui me rejoignent que je ne participe en aucune manière au rapport... sans que cela m'empêche de conseiller beaucoup mes jeunes amis à ce propos.
Oui, je donne de nombreux documents très détaillés sur la façon de faire, mais  je laisse à l'étudiant la responsabilité de son travail. Je ne refuse évidemment pas de donner des conseils, mais, vu la précision des documents de cadrage que je donne aux étudiants à propos de communication orale et de communication écrite, les étudiants n'ont qu'à faire le travail qui n'est pas difficile.

Par exemple, quand je dis que, dans un texte, il faut faire la chasse aux adjectifs et aux adverbes pour  les remplacer par la réponse à la question "Combien ?", je vois mal ce que je peux dire de plus, sauf renvoyer l'étudiant à son travail dès que je vois un adjectif ou un adverbe :  un étudiant qui ne supprime pas les adjectifs et les affaires alors que je le lui ai conseillé ne mérite pas que je perde du temps à le lui redire.

D'ailleurs, j'ajoute qu'il est très important que les professeurs et les encadrants des stagiaires ne mettent pas ces derniers en porte-à-faux.
Imaginons que j'insiste pour que l'on écrive "en revanche" plutôt que "par contre" ; un professeur qui corrigerait cet "en revanche" non seulement serait fautif, mais, en plus, ne serait pas éthique.

Evidemment le cas du "en revanche" peut sembler sans intérêt, mais on pourrait en prendre d'autres : par exemple, très peu de mes collègues savent qu'il n'y a pas de virgule après un complément circonstanciel réduit à un mot en tout début de phrase, avant le sujet. Un correcteur de rapport qui ajouterait cette virgule, serait à la fois ignorant et fautif.

Ce que je dis de la forme vaut aussi pour le contenu. Je me souviens d'un étudiant au laboratoire qui avait décidé d'exprimer les incertitudes en indiquant la valeur minimum et la valeur maximum des dosages qui avaient été faits :   cela est parfaitement légitime... à condition d'avoir expliqué ce qu'on fait et pourquoi on le fait comme ça.
Bien sûr, le minimum est maximum ne disent rien de la distribution des mesures, mais si l'on donne la myenne, pourquoi pas une méthode plutôt qu'une autre.

Bref, nous ne devons pas mettre nos amis en porte-à-faux, et nous ferons bien de nous surveiller nous-mêmes avant de critiquer autrui, qu'il s'agisse d'un étudiant ou d'un collègue.

vendredi 25 novembre 2022

 Une bonne pratique : ne pas interpréter abusivement



C'est une bonne pratique que d'interpréter correctement,  et, inversement, c'est une mauvaise pratique que de tirer des conclusions quand les résultats expérimentaux sont insuffisants.

Expliquons cela plus en détail. Quand on fait un travail scientifique,  on met en œuvre des matériels et des méthodes (qui doivent être identifiés aussi précisément que possible pour donner des résultats répétables), et l'on effectue des expériences, qui doivent être aussi bien caractérisées que possible, donnant des résultats aussi proches que possible lors de la répétition d'une même expérience (ce qui, d'ailleurs, s'estime par un écart type sur le résultat).

Ainsi une série d'expériences conduit à des résultats que l'on exprime notamment par des équations, et l'on cherche ensuite à interpréter ces équations, c'est-à-dire à les exprimer en langage naturel, afin de tirer des conclusions sur les mécanismes du phénomène que l'on explore.

Lors de ce processus d'interprétation, il est essentiel de ne pas aller plus loin que ce que les résultats nous donnent,  et les limites de validité,  en particulier, sont tout à fait fondamentales.
Quand un résultat est insuffisant, on ne peut pas en tirer une loi générale, et même quand ils sont en quelque sorte suffisants, la loi que l'on peut tirer doit être validée, car, sans validation, le résultat n'est pas suffisamment établi.

Autrement dit, il y a lieu d'être extrêmement prudent quand on arrive à l'étape des interprétations, et il s'agit d'une bonne pratique que de ne pas interpréter plus que les résultats ne nous disent.

Bien sûr, on a le droit de faire des hypothèses : des résultats peuvent nous faire proposer des idées, mais quand des hypothèses sont des hypothèses, il n'est pas bien de les faire apparaître comme des mécanismes établis.

Cette discussion doit entrer en correspondance avec celle que j'ai déjà eu à propos des de la "'démonstration scientifique' :   on ne pourra jamais démontrer qu'une interprétation est juste ; on pourra seulement la corroborer.

Cela dit, il s'agit là d'une question de principe, car, en pratique, des corroborations multiples renforcent une hypothèse au point qu'elle peut mériter d'apparaître comme une interprétation.

mercredi 27 avril 2022

Manuscrits retirés, articles publiés



Je m'étonne de voir certaines revues qui se disent "scientifiques" publier des articles dont les manuscrits qui ont été soumis à des revues scientifiques dont je m'occupe, et pour lesquels les rapporteurs ont fait des remarques pertinentes dont il n'est tenu aucun compte dans les publications que je vois paraître.

Le cas s'est hélas produit plusieurs fois, avec toujours le même mécanisme :
1. un manuscrit est soumis,
2. il est envoyé (de façon anonyme) à des rapporteurs qui font des commentaires et appellent des corrections du manuscrit (parfois, il y a lieu de corriger des erreurs graces, comme par exemple quand des auteurs confondent de la toxicité et de l'immunité);
3. les auteurs font une première révision du manuscrit
4. cette révision est envoyée aux rapporteurs, qui dépistent des corrections encore bien insuffisantes;
5. et les auteurs retirent leur manuscrit et le publient sans rien modifier de plus dans une autre revue minable,  qui accepte le texte tel qu'il est, avec ses fautes, ses erreurs, ses insuffisances.

Il y a là une très mauvaise pratique, à la fois pour les auteurs et pour les revues qui publient finalement les articles fautifs.

Il faut dénoncer de telles revues, et sans doute écrire pour commenter négativement les articles qu'elles publient.  

Bien sûr, il n'est jamais agréable d'avoir à fournir un travail supplémentaire après la production d'un manuscrit, ce qui demande beaucoup de temps et d'énergie, mais l'objectif des textes n'est-il pas de produire des résultats de qualité ?

Personnellement, je suis très reconnaissant aux rapporteurs qui m'aident, qui m'aident à comprendre, qui m'aident à apprendre, et quand les rapports sont bien fait, c'est un véritable atout pour la qualité finale des publications.

On ne dira jamais que  l'évaluation par les pairs, bien conduite, est une pratique merveilleuse de notre communauté scientifique.

lundi 24 janvier 2022

Recherche scientifiques et relations humaines : les bonnes pratiques ?

 
Il y a quelques années, le titre de "distinguished member" d'une société savante de chimie a été retiré au directeur d'un laboratoire où un accident avait eu lieu.

Bien sûr, il y a des cas où le directeur du laboratoire n'est pas responsable des accident qui ont lieu dans son laboratoire.
Et je peux témoigner que malgré des visites de sécurité des stagiaires, malgré une insistance extrêmement lourde sur nos trois mots clés "sécurité, qualité, traçabilité", j'ai vu des comportements individuels complètement  ahurissants !

On pourrait alors conclure que des stagiaires ne doivent rien faire dans un laboratoire de chimie, à part regarder.
Mais leurs institutions leur demandent précisément de faire quelque chose !

Le faire avec le tuteur juste à côté ? Le risque zéro n'existe pas, et j'ai vu des comportements ahurissants même en dehors de ces pièces que sont les laboratoires. Non, il n'est pas possible de surveiller des étudiants chaque seconde, et s'ils ont des comportements idiots, ils auront des accidents.

Manifestement, c'est donc un état d'esprit que les tuteurs doivent établir : un état d'esprit de responsabilité, en conscience.

Et il faut évidemment que les étudiants apprennent les règles de sécurité qu'ils ne connaissent pas. Il y a tant de choses à faire bien, à ne pas faire mal !
Car le risque toxique n'est pas le seul ; il y a des verreries qui coupent, des systèmes de chauffage qui brûlent, des appareils électriques qui électrocutent... Et nos amis doivent découvrir cela, sans quoi ils sont exposés.

Bref, les responsables de laboratoire, les chimistes doivent mettre en oeuvre des bonnes pratiques, et ces pratiques ne sont pas seulement techniques, mais humaines : évidemment, il y a le respect des personnes, physique évidemment, mais aussi moral.

Depuis quelques années, l'éthique professionnelle est discuté dans les institutions de recherche, dans les revues, et cela est essentiel... même si l'on ne peut imaginer que tous agiront correctement. Mais, au moins, on aura identifié les comportement à éviter, et l'on minimisera la probabilité que ces comportements puissent être mis en oeuvre par "mégarde".

Au fond, j'y reviens : tout cela converge vers mon "Le summum de l'intelligence, c'est la bonté et la droiture".
Oui, bonté et droiture vis à vis de tous, dans les laboratoires.

Et je termine en répétant nos trois mots clés : sécurité, qualité, traçabilité !

mercredi 18 mars 2020

Les bonnes pratiques de la citation, dans les articles scientifiques

Préparant un guide de la rédaction d'articles scientifiques, je fais (évidemment) ma bibliographie, et je trouve ce conseil  : "Citer des publications du journal où vous publiez".

Ne le suivons surtout ce conseil scandaleux de malhonnêteté. C'est de la basse stratégie de communication, qui déroge aux bonnes pratiques de la citation. On ne doit pas citer des auteurs au hasard, mais bien plutôt parce qu'ils sont à l'origine des travaux ! Ceux qui ont donné ce pernicieux conseil ignorent-ils donc tout des règles de la profession de scientifique ? Ignorent-ils tout des consensus tels qu'énoncés par l'Association européenne pour les sciences chimiques et moléculaires (The European Association for Chemical and Molecular Sciences), qui a émis un  “Ethical Guidelines for Publication in Journals and Reviews” (voir http://www.euchems.eu/publications.html), ou encore des règles (identiques) données par l'American Chemical Society, avec ses   Ethical Guidelines to Publication of Chemical Research (http://pubs.acs.org/page/policy/ethics/index.html).
Mais c'est de “On Being a Scientist: Responsible Conduct in Research”* que je tire ce conseil plus juste :
"Researchers have a responsibility to search the literature thoroughly and to cite prior work accurately. Implied in this responsibility is that authors should strive to cite (and read) the original paper rather than (or in addition to) a more recent paper or review article that relies on the earlier article.“

*Committee on Science Engineering, and Public Policy; Institute of Medicine; Policy and Global Affairs; National Academy of Sciences; National Academy of Engineering. “On Being a Scientist: A Guide to Responsible Conduct in Research”: 3rd ed., Washington, DC, 2009.

jeudi 7 novembre 2019

Dépassons les corrélations

La science est  la recherche des mécanismes de phénomène, ce qui passe bien souvent par la recherche de relations entre des séries de mesures : ayant identifié un phénomène, on le caractérise quantitativement, et vient ensuite, à partir de toutes les données, de chercher des équations à partir de séries de données. Les données sont "ajustées", ce qui ne signifie pas que l'on trafique quoi de quoi que ce soit , mais plutôt que l'on cherche des variations d'une variable  en fonction d'une autre. Par exemple, quand on s'intéresse à la résistance électrique, on cherche les variations de l'intensité du courant en fonction de la différence de potentiel.

Et c'est là que survient la question de la causalité, si bien décrite par Émile Meyerson dans son Du cheminement de la pensée. La question est de savoir si deux variables varient régulièrement l'une en fonction de l'autre parce qu'il y a causalité, ou bien si elles varient simplement simultanément, peut-être même par hasard, ce qui relève d'une corrélation sans causalité. Pour expliquer la différence, j'aime cette observation d'attroupements sur le quai des gares avant que les trains arrivent. Si l'on est  Martien et que l'on ignore tout du phénomène, on peut donc mesurer le nombre de personnes sur le quai en fonction du temps, d'une part,  et l'heure d'arrivée des trains, d'autre part, mais il serait insensé de considérer que les attroupements sont la cause de l'arrivée des trains, car c'est en réalité l'inverse.
Il y a donc lieu d'être attentif quand on calcule des coefficients de corrélation et de bien s'empêcher de penser à des causalités quand il n'y en a pas. Ce qui doit nous conduire à réfléchir sur le statut de corrélations. D'ailleurs, il faut ajouter que des corrélations ne sont jamais parfaites, et que c'est précisément ce défaut de corrélation qui doit nous intéresser. Cette imperfection peut évidemment se mesurer par un nombre. Ainsi, quand on fait -de façon extrêmement élémentaire- des droite de régression, alors on apprend à afficher la somme des carrés des distances des points à la droite, un nombre que l'on note souvent R2. Mais c'est une façon rapide de se débarrasser du problème et elle ne dit d'ailleurs rien d'autre que ce que l'on voit.
Ce qui commence à être plus intéressant, c'est quand on calcule les résidus, c'est-à-dire quand on affiche la courbe de tous les écarts à la droite. Là, on peut commencer à se poser des questions, sur la  répartition de ces résidus, aléatoire ou pas,  et  leur amplitude aussi, bien sûr,  doit nous intéresser. Surtout, considérer les résidus au lieu de pousser la poussière sous le tapis du R2, c'est décoller de la corrélation, et plonger davantage du côté du mécanisme, ce que l'on cherche absolument.

C'est cela la direction où l'on veut aller,  plutôt  que le paresseux coefficient de corrélation global. Cet affichage des résidus est une bonne pratique, car c'est un fil que l'on peut être intéressé de tirer si l'on veut y passer du temps au lieu de se débarrasser rapidement du problème.
C'est là l'endroit où toute notre intelligence est nécessaire pour imaginer de véritables causes.

samedi 23 mars 2019

Recherche scientifique et relations humaines : les bonnes pratiques

En matière de relations humaines, il y a de bonnes et de mauvaises pratiques, pour ceux qui font de la recherche scientifique. Le plus souvent, dans mes billets, j'ai considéré les bonnes pratiques du point de vue "technique", mais la pratique de la science est une façon de vivre,  et il y a des comportements humains  qui font que la société des savants est si importante à préserver. Examinons la chose.

Pour Michael Faraday, la science rend aimable. Je ne sais si cela est vrai, et je crois que non, mais qu'importe : ce qu'il faut retenir, quand on n'est pas du mauvais côté des choses, c'est que nous avons là un objectif, que nous atteignons d'autant plus facilement que nous sommes plus passionnés par les sciences de la nature. A part découvrir soi-même quelque chose, lever un coin du grand voile, quoi de plus émerveillant que de découvrir la beauté du résultat obtenu par un ou une collègue ? Que de plus merveilleux qu'un mécanisme de plus ? Ce sentiment d'éblouissement s'accompagne d'un immense bonheur, qui ne laisse la place à aucune mesquinerie, à aucune bassesse. Jorge Luis Borgès évoquait l'envie, qui peut être noire (on détruit ce que l'on n'a pas), ou blanche : de l'émulation. Oui, l'exposé d'un beau résultat par un ou une collègue, c'est une émulation splendide.
Et puis, l'objectif : la rationalité ; ce n'est pas rien !

Pour faire bien cela, il faut une collaboration internationale : je revendique que les scientifiques puissent traverser le monde pour aller rencontrer ceux ou celles qui font bien. Dans le temps, on avait des cartes de visite pré-imprimées pour demander des tirés-à-part des articles de nos collègues. L'esprit est le même, et tout cela est un héritage du début des académies, par exemple quand le père Marin Mersenne, à Paris, écrivait aux "savants" pour échanger des nouvelles des découvertes.
Bien sûr, il y a eu des querelles de priorité, qui sont nées de ces échanges. Mais, inversement, il y avait ce but commun, merveilleux, de production scientifique, de communauté du savoir ou de l'étude.
Aujourd'hui, alors que les scientifiques sont payés par les États, on pourrait se dire qu'il se doivent à la communauté qui les paye :  les scientifiques français devraient réserver leurs résultats aux Français, les scientifiques allemands aux Allemands... mais ne voulons-nous pas construire l'Europe ? Et le monde ? Ne voulons-nous pas, aussi, abattre les frontières ? Réunir les hommes et les femmes dans une  collectivité animée d'une même mission ?
Parfois, les institutions scientifiques émettent, à l'attention de leur personnel,  des messages d'alerte à propos d'espions qui seraient dans leurs laboratoire pour le compte d'un pays étranger... Est-ce vraiment ainsi que l'on parviendra à lutter contre la malhonnêteté ? Je ne crois pas.

Mais pour en revenir à la question des bonnes pratiques en relations humaines, plus je m'interroge, plus je converge vers cette conclusion à savoir que le sommet de l'intelligence, c'est la bonté et la droiture. Laissons l'ambition aux ambitieux... et l'on voit bien quel mépris j'ai pour ces gens-là.






vendredi 25 janvier 2019

Rapporter un manuscrit scientifique ? Le summum de l'intelligence, c'est la bonté et la droiture


Rapporter un article ? Les scientifiques qui ont déjà publié des articles scientifiques sont ensuite souvent sollicités par des revues scientifiques pour être rapporteurs de manuscrits  : il s'agit... de quoi, au juste ?

La principale mission est de s'assurer que le manuscrit est digne de figurer dans le corpus des articles scientifiques publiés, à savoir des points solides de la pensée. Cela impose que le manuscrit soit rigoureux, bien fait, bien écrit, et, surtout, que le travail scientifique soit bon.
Un bon travail scientifique ? On aura raison de se reporter à la méthode des sciences de la nature, qui passent par cinq étapes essentielles, réunies ici sur la figure :




Le phénomène est-il bien, clairement, identifié ? Les caractérisations quantitatives sont-elles bien faites ? Les "ajustements" sont-ils rigoureux ? Les interprétations sont-elles prudentes ? Les expériences sont-elles validées ?
Pour chacune de ces questions, il y a mille points à vérifier, et, comme on peut se reporter aux règles des bonnes pratiques en science, je n'en prend qu'un  : la description des expériences (partie "Matériels et méthodes") est elle suffisante pour que l'on puisse refaire l'expérience ? Et chaque matériel, chaque opération sont-ils justifiés ? Là encore, on pourra s'aider des "DSR" que nous avons proposés.

Mais passons sur tout cela, pour revenir à une autre perspective : l'état d'esprit avec lequel l'évaluation du manuscrit soumis doit se faire. On n'aura pas de difficulté à admettre que le travail d'évaluation doit se faire avec un état d'esprit positif et rigoureux, mais avec pour objectif l'avancement des sciences.

J'ajoute que  je suis partisan d'une évaluation complètement anonyme. C'est une position personnelle, mais fondée sur l'expérience : quand un ami soumet un manuscrit,  on est trop indulgent si l'on sait que c'est un ami et que l'on a un a priori favorable (parce que, évidemment, nos amis sont de bons scientifiques) ; inversement, quand on reçoit un manuscrit de quelqu'un que l'on n'aime pas ou dont on sait qu'il fait souvent du travail médiocre, on a un a priori négatif, et l'on risque d'être trop sévère. D'autre part, je crois que l'anonymat inverse, des éditeurs vis-à-vis des auteurs, permet que l'on puisse dire les choses telles qu'elles doivent être dites.

D'autre part, dans ces évaluations, l'objectif n'est pas de "soumettre à des pairs", comme on le dit trop souvent dans une formule trop vague pour être utile, mais de soumettre à des pairs en vue d'une amélioration du travail finalement publié. Oui, j'insiste : les rapporteurs doivent aider les scientifiques à améliorer leurs manuscrits.
À une certaine époque, quand les revues scientifiques étaient submergées et qu'elle n'avaient pas la place de tout publier, les rapporteurs avaient pour consigne d'être sévères et de proposer des raisons de rejet des manuscrits ; et, quand cette consigne n'était pas données, les éditeurs eux-mêmes étaient chargés de répondre aux auteurs que le manuscrit était en dehors du champ d'intérêt de la revue. C'était terrible pour les auteurs, qui, ayant parfois soumis de bons manuscrits, se voyaient obligés d'aller de revue en revue, changeant le format (du travail inutile), pour arriver à être publié... et en recevant parfois des conseils contradictoires, des rapporteurs qui n'étaient ni toujours bons, ni toujours bienveillants. Je me souviens, personnellement, avoir eu le même manuscrit refusé deux fois, d'abord au motif qu'il était verbeux, puis au motif qu'il était trop concis !

Mais, aujourd'hui que nous avons des documents en ligne, la place n'est plus limitée que par la nécessaire concision de la publication scientifique, par la clarté, avec de surcroît la possibilité de fournir les données par ailleurs, en "matériel supplémentaire" ou sur des sites de "données ouvertes".

Reste donc la question de l'évaluation des manuscrits, pour ce qu'ils sont, et non plus en fonction de circonstances extérieures. L'expérience de la revue "Notes Académiques de l'Académie d'agriculture de France" (N3AF) m'a montré que les rapporteurs ont tout intérêt à être mesurés dans leurs propos, et à ne pas outrepasser leurs droits. On ne leur demande pas de juger, mais de rapporter, à savoir commenter ce qui est écrit en vue de l'amélioration. On ne leur demande plus d'être des bourreaux, mais, au contraire, d'aider les auteurs à améliorer leurs manuscrits jusqu'à ce que ces derniers soient de qualité scientifique, publiables.
L'arbitraire, le goût personnel, ne sont pas de mise. La question est de savoir si l'argumentation est solide, si le texte est clair, si les données sont bien produites, si les interprétations sont prudentes, si les résultats sont validés... Bref, si le travail scientifique a été bien fait.
Et j'ajoute que la relation, qui doit changer, doit encourager le dialogue scientifique anonyme, en vue, donc, de la publication de manuscrits améliorés par ce dialogue.

Une nouvelle ère s'ouvre !

jeudi 24 janvier 2019

> Bonnes pratiques : à propos des "points aberrants"

En sciences de la nature, il y a la question très compliquée des points aberrants, ce que l'on nomme en anglais des outlyers. De quoi s'agit-il ? Je propose de partir d'un exemple simple, puis de tirer les leçons de l'analyse de ce cas élémentaire.

Un exemple imaginaire

Imaginons le physicien allemand Georg Ohm qui met en série une pile et une résistance électrique.




Il applique une différence de potentiel (une "tension électrique") et mesure l'intensité du courant. Puis il applique une autre différence de potentiel, à l'aide d'une autre pile, et obtient une autre intensité électrique. Et il fait cela pour plusieurs différences de potentiel, mesurant chaque fois l'intensité électrique.
Ayant ces données, il trace un diagramme, où les deux mesures forment les coordonnées de points... et il observe que ces points semblent s'aligner, qu'il y a une proportionnalité entre l'intensité électrique et la différence de potentiel (quand on double la différence de potentiel, on double l'intensité, par exemple).



Jusque là, tout va bien... sauf que les points ne sont pas parfaitement alignés, en réalité. Mais comme les mesures sont (toujours) imprécises, il se dit que la "loi" de proportionnalité est valable, et il la publie.
Oui, mais imaginons qu'il y ait eu une circonstance quelconque qui, pour une mesure, fait une perturbation qui engendre un point de mesure très éloigné des autres. Que faire ?



Évidemment, la première chose à faire est de répéter l'expérience particulière qui étonne, et, alors, deux cas se présentent :
- soit on retrouve la valeur bizarre
- soit on trouve ensuite des valeurs qui correspondent mieux à la loi de proportionnalité qui semble s'imposer expérimentalement.

Le cas le plus simple est celui où l'on retrouve la valeur bizarre. Si cette valeurs apparaît expérimentalement plusieurs fois,  ce n'est pas à nous de dire que l'expérience est mauvaise et que la loi de proportionnalité s'impose; nous devons nous interroger sur la raison de cet écart à la proportionnalité, en imaginant soit que l'expérience particulière que nous avons faite ne permet pas de voir cette proportionnalité, soit que  la nature n'a pas mis là de proportionnalité.
Ainsi, au cours  de mes recherches, je me souviens avoir mesuré la viscosité d'un sirop de sucre à l'aide d'une bille que nous laissions tomber et dont nous mesurions la vitesse. La variation était régulière... mais quand le sirop était très visqueux, le comportement de la bille de venait bien différent de celui décrit par la loi classique, un peu comme pour le point aberrant indiqué ci-dessus. A l'analyse, il était facile de voir, pour ce cas très simple, que le récipient, étroit, ne permettait pas aux écoulements de se faire librement, ce qui modifiait le résultat.

Les valeurs bizarres sont en réalité très intéressantes, car il y a cet adage qui stipule que lorsqu'on fait une expérience et que l'on obtient le résultat qu'on attendait, on a une confirmation,  mais si l'on a un résultat que l'on n'attendait pas, alors on a peut-être une découverte.  

Considérons maintenant le cas où, répétant l'expérience, au moins celle particulière qui a fait apparaître le point aberrant,  on trouve une valeur qui correspond mieux à la loi de proportionnalité. Là, c'est ennuyeux, car on est en réalité face à deux valeurs tout aussi probables (même s'il y a cette présomption de proportionnalité qui semble donner plus de poids à une valeur bien alignée), de sorte que l'on doit faire une autre répétition.
Ici, il faut quand même que j'observe, pour ceux qui l'ignorent, que l'expérience décrite pour la mesure de l'intensité et du potentiel électrique se fait en quelques instants, mais que, souvent, la répétition d'une expérience ne se fait pas en un claquement de doigts : certaines expériences prennent des mois, voire des années, de sorte qu'il est essentiel de bien choisir la stratégie que l'on utilise. Pour des expériences comme la détection du boson de Higgs ou des ondes gravitationnelles,  il hors de question de décider légèrement de répéter une expérience, et l'on doit avoir une stratégie très intelligente -dans le cadre des bonnes pratiques-,  c'est-à-dire de ne pas céder à ses croyances ou à ses fantasmes. Admettons ainsi que deux mesures semblent correspondre, alors qu'une troisième valeur est bizarre ; il y a lieu de mettre en œuvre des statistiques et d'afficher des résultats avec des probabilités, pas plus
Et l'on retrouve ici cette idée que la science n'est pas en train de démontrer des théories, mais plutôt de les réfuter :  les valeurs bizarre que l'on ne retiendra pas doivent être conservées, et elles doivent notamment être signalées lors de la publication d'un résultat.


Un exemple

A titre d'exemple, le cas le pire  que nous ayons rencontré dans notre groupe était à propos de la dégradation d'un composé, dans des conditions particulières très rigoureusement définies :  nous utilisions des matériels très propres, des produits très purs, des conditions très exactement contrôlées. Lors d'une première expérience (3 semaines de travail), nous avons mesuré la vitesse de dégradation du composé. Puis, quand nous avons répété l'expérience (nous répétons toutes nos expériences au moins trois fois), nous avons obtenu une dégradation beaucoup plus lente.
Évidemment la première chose à faire était de répéter encore l'expérience et nous avons retrouvé la dégradation plus lente. Je répète que ce qui se dit ici en quelques mots correspond à des semaines de travail... pour donner à évaluer le sentiments des chercheurs face à ces points aberrants, que seuls les malhonnêtes occultent (la poussière sous le tapis).  Bref, nous n'avons jamais réussi à retrouver la première vitesse de dégradation, qui semble donc être aberrante, mais que faire, devant une telle situation ? On se doute que nous avons tout analysé en détail : repris les cahiers de laboratoire pour voir comment les choses avaient été faites, par exemple... mais rien. 

Dans un tel cas, la bonne pratique s'impose : valider les mesures ultérieures par une autre expérience, différente, ce qui correspond à des "validations". Mais, aussi, lors d'une publication du résultat, évoquer ce premier résultat qui peut découler de causes innombrables : n'a-t-on pas vu, au centre de recherches d'études des particules de Genève, une oscillation d'un signal électrique due au passage du TGV près de l'anneau de collision ?

lundi 21 janvier 2019

Encadrer des stages : des bonnes pratiques ?


Dans la série des bonnes pratiques relatives aux études, il y a certainement à s'interroger sur l'encadrement des stages.

Il est très rare que les encadrants de stage reçoivent des universités des recommandations concernant lesdits stages. Du moins cela vaut pour la France : je n'ai jamais reçu de consignes ou de conseils d'aucune université, à ce jour. L'étudiant arrive donc en stage, et, là,  on lui confie un travail. Quelle responsabilité ! Ne s'agit-il pas, lors du stage, d'aider l'étudiant à transformer des connaissances en compétences ? C'est en tout cas ce qu'indique la réglementation, en ligne sur le site du ministère de l'enseignement supérieur.

Comment les encadrants doivent-ils  donc se comporter ? Peuvent-ils demander la même chose aux étudiants qu'à leurs collègues  ? Certainement non, puisque l'expérience prouve que les étudiants n'ont pas encore les compétences pour faire les travaux qu'on leur demande : ils viennent précisément pour les obtenir, pour transformer leurs connaissances en compétences... et s'ils les ont, alors le stage est inutile, puisqu'ils sont mis en position de production, et non d'apprentissage ; or ils sont en phase d'apprentissage, puisque les stages sont un élément de leurs études.
Bref, en France, on est  dans un flou que je condamne, et chacun fait comme il veut, en réalité. Ce qui a d'ailleurs que les stages sont très inégaux, et que les étudiants tombent parfois très mal, ce qui n'est pas admissible.
Je m'étonne d'ailleurs que le gouvernement ait réglementé à propos du nombre de stagiaire par entreprise ou des gratification, c'est-à-dire sur la forme, mais pas sur les questions de fond, les questions de contenu. D'ailleurs ledit gouvernement serait bien en peine d'imposer quoi que ce soit aux encadrants... sans quoi les entreprises ne prendraient plus de stagiaires ! 

Est-ce une raison pour baisser les bras ? Je ne crois pas car à défaut d'imposer des comportements aux encadrants, on peut leur soumettre des propositions, proposer des réflexions. Pourrions-nous en identifier l'amorce ?

Tout d'abord, il faut donc confier des tâches aux stagiaires qui permettent de transformer des connaissances en compétences. Les stagiaires ne sont pas en stage pour faire des photocopies. D'autre part, il faut des conditions de travail décentes, telles qu'on en donne à de jeunes collègues : pas de cagibi bruyant, sans air, sans lumière, sans avoir même de quoi s'asseoir.
Mais cela est élémentaire. Ne pourrions-nous pas admettre que l'encadrant doit doser les demandes pour que l'objectif du stage soit atteint ?
Récemment, j'ai reçu un stagiaire auquel son université  demandait de s'intéresser aux questions de sécurité en chimie : cela n'aurait-il pas dû figurer initialement, dans le "contrat" que l'on aurait établi ?

Mais je vois que ma réponse est bien insuffisante, pour cette question difficile, et j'invite les collègues, les étudiants, les encadrants à me soumettre des propositions, critiques, etc. à icmg@agroparistech.fr

samedi 31 mars 2018

Jamais de mesures sans estimation des incertitudes

Ce matin, je reçois une revue qui milite pour une filière alimentaire, et, notamment, intervient dans un débat public à propos d'un de ses produits. On comprend que, dans une telle circonstance, les arguments doivent être particulièrement forts.

Or voici le genre de schémas qui figurent dans un article, où un scientifique est invité à venir à l'appui de la profession qui se défend  :

 


C'est contre productif... parce que les données ne sont assorties d'aucune intertitude, mesurée ou estimée.
Expliquons.

Quand on donne une valeur, on s'expose évidemment à ce que nos interlocuteurs, s'ils n'ont pas un pois chiche à la place du cerveau, commencent par s'interroger sur la validité de la valeur, avant d'en chercher la signification. La question est la même qu'à propos de la "couleur d'un carré rond", discutée dans un autre billet : ne cherchons pas à caractériser ce qui n'existe pas !
En l'occurrence, les mesures ont été... mesurées, et c'est l'instrument de mesure qui détermine leur précision. Oui, précision, car le plus souvent, et surtout dans des débats tels que celui que j'évoque, il y a une estimation, et non pas une valeur exacte. Par exemple, dans l'article évoqué, il est question du nombre de fractures évitées : cela ne se mesure pas, mais s'estime seulement. Pour d'autres cas, on peut avoir des mesures, telle la mesure d'une masse, à l'aide d'une balance nécessairement imprécise. Ou bien des estimations à partir de déterminations sur des échantillons.

 Bref, la science veut que tout nombre soit assorti d'une estimation de l'incertitudes, soit que cette estimation soit égale à l'incertitude de l'instrument de mesure, soit qu'elle soit déterminée par la répétition de plusieurs mesures.

Evidemment, quand on communique les résultats des mesures, il y a lieu de donner ces estimations des incertitudes, sans quoi, d'ailleurs, il y a mensonge : on laisse penser que la précision est celle que l'on affiche. Et, d'ailleurs, c'est une bonne pratique que celle des chiffres, et que j'invite mes amis à découvrir sans tarder s'ils ont quelques doutes à leur propos.
Sur un diagramme, les points doivent avoir une taille égale à l'incertitude. Sur un histogramme, on doit faire figurer  des valeurs hautes ou basses. Et ainsi de suite.

Sans quoi, nous sommes en position de considérer sur les données fournies ne valent rien : imaginez qu'elles aient été obtenues par un incapable !