Espèces en voie d’extinction : le compte n’y est pas

The Conversation

Un Mautodontha de Tahiti. Les invertébrés sont les grands absents des évaluations de la crise d’extinction qui affecte la biodiversité. Benoît Fontaine/MNHN

Ces trente dernières années, des scientifiques de plus en plus nombreux tentent d’alerter sur la période d’extinction de masse du vivant que nous traversons.

Principalement causé par les activités humaines, ce phénomène a été qualifié de « sixième crise d’extinction », en référence aux cinq grandes crises qui ont émaillé l’histoire de la vie sur Terre. La cinquième, la plus célèbre, avait conduit à l’extinction des dinosaures, bien avant l’apparition de l’homme.

Officiellement pourtant, seules 859 espèces sont aujourd’hui recensées comme éteintes si l’on s’en réfère à la liste rouge de l’Union internationale pour la conservation de la nature (UICN). Ce qui représente moins de 0,05 % des deux millions d’espèces répertoriées. Ce chiffre pourrait jeter un doute sur la réalité de la crise : si la situation est si grave, où sont les espèces éteintes ?

Il s’explique pourtant. Tout d’abord par la difficulté qu’il y a à prouver qu’une espèce a disparu : si on ne la trouve plus, c’est peut-être parce qu’on a mal cherché, au mauvais endroit, à la mauvaise période ou avec des moyens inappropriés.

Ensuite, les espèces dont l’état de conservation est bien connu – à savoir les vertébrés et quelques autres petits groupes tels que papillons de jour, les coraux bâtisseurs de récifs ou les libellules – ne constituent qu’une infime partie de la biodiversité globale ; ainsi, ce sont moins de 5 % des espèces connues qui ont été évaluées dans le cadre de la liste rouge de l’UICN.

Des millions d’espèces non évaluées

Autre fait marquant : la plus grande partie de la biodiversité – composée d’invertébrés tels que les insectes, mollusques, arachnides ou nématodes – est pratiquement absente des évaluations de la crise d’extinction.

Faute de données quantifiées sur les tailles des populations, les aires de répartition ou la démographie de ces espèces, il est impossible d’utiliser les méthodes classiques, telles que celle utilisée par l’UICN pour les comptabiliser.

Dans ce contexte, puisque les informations manquent pour la grande majorité des espèces (sans parler des cinq à dix millions d’espèces encore inconnues !), comment mesurer avec exactitude l’ampleur de la crise ?

Plusieurs approches, basées sur de grands jeux de données, sont disponibles.

Il est ainsi possible de comparer les taux d’extinction actuels et passés pour les groupes évalués par l’UICN, de projeter les futures modifications d’habitats provoquées par le réchauffement climatique ou d’évaluer l’impact de l’agriculture et de la surexploitation.

Une autre façon de mesurer la crise consiste à mesurer non pas les extinctions, mais les réductions de population et d’aires de répartition, préludes à l’extinction. C’est l’approche qui a été utilisée dans une étude publiée en juillet 2017 qui a reçu un fort écho médiatique.

En utilisant les données de la liste rouge sur les contractions d’aires de répartition et les extinctions de populations pour 27 600 espèces de vertébrés, les auteurs de cette étude ont montré que près de la moitié des espèces de l’échantillon ont perdu des populations ou ont vu leur aire de répartition diminuer au cours du siècle dernier. La plupart des 177 espèces de mammifères d’un sous-échantillon pour lequel des données détaillées sont disponibles dans la littérature scientifique ont perdu plus de 40 % de leur aire de répartition depuis 1900 et la moitié en ont perdu plus de 80 % !

Si cette étude est remarquable, elle s’appuie cependant, comme la plupart des travaux sur le sujet, sur les seules espèces pour lesquelles les données démographiques ou géographiques existent (grands vertébrés en tête).

Une nouvelle approche pour les espèces mal connues

Est-ce à dire qu’il est impossible de mesurer la crise à travers le prisme des petites espèces peu étudiées et mal connues ? Certainement pas. Nous avons proposé une nouvelle approche, qui permet de prendre en compte toutes les espèces, et notamment les invertébrés.

Souvent, les seules données existantes sur ces espèces sont contenues dans la description originale (article scientifique qui relate la découverte de l’espèce, donne sa description et lui attribue un nom), et très peu de choses sont connues de leur biologie ou de leur aire de répartition, sans même parler de leur démographie !

Mais il existe pourtant des sources de données très fiables : les spécimens conservés dans les collections des muséums, accompagnés d’étiquettes mentionnant le lieu et la date de la collecte.

L’idée est donc la suivante : la quantité de spécimens en collection doit, dans une certaine mesure, refléter l’état des populations de l’espèce dans la nature. Cela n’est certes pas vrai pour des espèces rares et remarquables ou ayant une valeur marchande, comme certains cônes par exemple : celles-ci seront paradoxalement surreprésentées dans les collections, car davantage recherchées.

Mais pour les espèces banales, peu connues et sans valeur, nous pouvons faire l’hypothèse que leur rythme d’apparition dans les collections traduit directement leur abondance dans la nature. Une espèce collectée rarement mais jusqu’à une date récente est probablement vivante. Une espèce ayant été collectée à un rythme soutenu mais seulement jusqu’à une date ancienne est probablement éteinte.

De manière générale, le rapport entre le rythme de collecte et le temps écoulé depuis la dernière collecte nous permet d’estimer la probabilité que l’espèce soit toujours présente.

Des maths et des experts

Pour un échantillon aléatoire de 200 espèces de mollusques terrestres (escargots et limaces) du monde entier, nous avons ainsi recherché et rassemblé toutes les dates de collecte provenant de la littérature scientifique, de données fournies par des experts et des spécimens des collections de plusieurs grands muséums d’histoire naturelle.

Le premier enseignement de cette compilation de données illustre bien le manque de connaissances sur les invertébrés : 30 % des espèces de l’échantillon ne sont connues que par leur description originale, et 33 % n’ont été observées que dans une seule localité ! Nous avons analysé ces données par deux approches complémentaires.

Premièrement, nous avons construit un modèle mathématique probabiliste qui repose sur l’hypothèse que les espèces se sont éteintes à un taux très faible jusqu’au début du XXe siècle, où leur probabilité d’extinction par année a littéralement explosé. Pour chacune des 200 espèces, à l’aide de la dernière date à laquelle elle a été observée, l’effort de collecte estimé pour cette espèce et la probabilité estimée de la trouver lorsqu’elle est vivante, nous avons comparé la probabilité qu’elle soit éteinte avec celle qu’elle soit encore vie pour proposer un « statut de conservation statistique » : « probablement éteinte », « probablement vivante » ou « sans avis ».

Parallèlement, nous avons sollicité 30 malacologues, experts reconnus d’une famille de mollusques ou d’une région biogéographique, et leur avons soumis les espèces de l’échantillon, en leur demandant s’ils pouvaient évaluer leur statut de conservation (« non menacé », « menacé », « éteint » ou « impossible à évaluer »), et quand ils avaient collecté des spécimens de ces espèces sur le terrain.

Une extinction sans précédent

Suivant la méthodologie de l’UICN, 85 % des espèces de notre échantillon n’auraient pas pu être évaluées, faute de données suffisantes. En revanche, seules 41 % sont impossibles à évaluer avec l’approche « à dire d’expert » ; dans ce cadre, 45,5 % ont été classées comme non menacées, 3,5 % comme menacées et 10 % comme éteintes.

Cette approche peut être critiquée, puisqu’elle se fonde sur des critères difficiles à quantifier, voire des ressentis. Pourtant, ses résultats sont remarquablement adéquats avec ceux obtenus par le modèle statistique ; ce dernier évalue lui aussi 10 % des espèces de l’échantillon comme éteintes, ce qui, rapporté à l’ensemble des espèces terrestres connues, représente environ 130 000 extinctions en 250 ans !

Deux méthodes indépendantes, l’une basée sur les connaissances des spécialistes, l’autre sur un modèle mathématique, convergent pour confirmer que sur un échantillon aléatoire d’espèces, la proportion d’espèces éteintes par rapport à la biodiversité connue est beaucoup plus importante que les 0,05 % recensés officiellement. La crise d’extinction actuelle est sans précédent dans l’histoire de la vie sur Terre.

Étendre l’évaluation

D’autres groupes d’espèces mériteraient également une évaluation de leur statut de conservation. Par exemple, certains insectes emblématiques, comme les abeilles sauvages, sont relativement bien étudiés. Pourtant, la liste rouge de ce groupe de pollinisateurs révèle que 57 % des 1965 espèces européennes n’ont pu être évaluées faute de données adéquates.

Le cas des syrphes et autres diptères, dont l’efficacité de pollinisation est pourtant largement reconnue, est remarquable puisqu’aucune évaluation à l’échelle française ou européenne n’a été effectuée à ce jour.

En tenant compte des spécificités d’échantillonnage propres aux différents groupes, il sera intéressant d’adapter l’approche développée pour les mollusques terrestres à d’autres groupes bien représentés dans les collections. Cela permettra d’évaluer l’impact de la crise d’extinction sur les différents compartiments de la biodiversité et d’orienter les efforts de conservation vers les régions et les espèces les plus touchés.

Car même pour des taxons peu connus, il est possible de mesurer l’impact de la crise, en mettant à profit la modélisation mathématique, le savoir des spécialistes et l’extraordinaire richesse des collections des muséums.

Deuxième article de ce jour : Comment les horloges moléculaires donnent l’heure de l’espèce humaine

Il y avait une fois la naissance de l’Homo sapiensMilan Nykodym/Flickr, CC BY

L’ADN est le support de notre histoire familiale et plus largement de l’histoire de l’évolution de notre espèce : comment sommes-nous liés à nos parents non-humains chimpanzés ; comment Homo sapiens a rencontré les Néandertaliens ; et comment les gens ont migré hors d’Afrique, s’adaptant à de nouveaux environnements et modes de vie au long de la route. Notre ADN contient également des indices sur le calendrier de ces événements clés dans l’évolution humaine.

Quand les scientifiques disent que les humains modernes ont émergé en Afrique il y a environ 200 000 ans et ont commencé leur expansion mondiale il y a environ 60 000 ans : comment estiment-ils ces dates ?

Traditionnellement, les chercheurs construisaient des chronologies de la préhistoire humaine en se basant sur des fossiles et des artefacts, qui peuvent être directement datés avec des méthodes telles que [ la datation par le Carbone 14 et la datation au potassium-argon. Cependant, ces méthodes nécessitent des vestiges antiques dans certaines conditions de conservation, ce qui n’est pas toujours le cas. De plus, des fossiles ou des artefacts pertinents n’ont pas été découverts pour décrire tous les jalons de l’évolution humaine.

L’analyse de l’ADN des génomes actuels et anciens fournit une approche complémentaire pour la datation des événements de l’évolution. Certains changements génétiques se produisent à un rythme constant par génération, ils fournissent ainsi une estimation du temps qui passe : une horloge moléculaire en somme. En comparant les séquences d’ADN, les généticiens peuvent non seulement reconstituer les relations entre différentes populations ou espèces, mais également déduire l’histoire de l’évolution sur des échelles très grandes.

Grâce à des techniques de séquençage d’ADN plus sophistiqués et à une meilleure compréhension des processus biologiques à l’origine des changements génétiques, les horloges moléculaires deviennent de plus en plus précises. En appliquant ces méthodes à des bases de données ADN toujours plus riches de diverses populations (d’aujourd’hui et du passé), les généticiens aident à construire une chronologie plus précise de l’évolution humaine.

ADN et mutations

Les horloges moléculaires sont basées sur deux processus biologiques clés qui sont la source de toute variation héréditaire : la mutation et la recombinaison.

Les mutations sont des changements dans le code de l’ADN, comme quand une base (nucléotide) : A, T, C ou G sont remplacés par une autre par erreur. Shutterstock

Les mutations sont des changements dans les lettres du code génétique de l’ADN – par exemple, un nucléotide guanine (G) devient une thymine (T). Ces changements seront hérités par les générations futures s’ils se produisent dans les cellules œufs issues de la fusion d’un spermatozoïde et d’un ovule. La plupart résultent d’erreurs commises lorsque l’ADN se copie au cours de la division cellulaire, bien que d’autres types de mutations surviennent spontanément ou à la suite de facteurs de risques tels que les radiations et les produits chimiques : des agents mutagènes.

Dans un génome humain, il y a environ 70 changements de nucléotides par génération – une paille quand l’on sait que notre génome est composé de six milliards de lettres. Mais globalement, sur plusieurs générations, ces changements entraînent une variation évolutive substantielle.

Les scientifiques peuvent utiliser les mutations pour estimer le moment où se créent des branches dans notre arbre évolutif, soit la différenciation entre deux espèces. D’abord, ils comparent les séquences d’ADN de deux individus ou espèces, en comptant les différences neutres qui ne modifient pas les chances de survie et de reproduction d’une personne. Puis, connaissant le taux de ces changements, ils peuvent calculer le temps nécessaire pour accumuler autant de différences.

La comparaison de l’ADN entre vous et votre fratrie montrerait relativement peu de différences mutations parce que vous partagiez des ancêtres – maman et papa – il y a seulement une génération. Cependant, il existe des millions de différences entre les humains et les chimpanzés : notre dernier ancêtre commun aurait vécu il y a plus de six millions d’années.

Des fragments des chromosomes de votre mère et de votre père se recombinent avant de vous être transmis. Chromosomes image via Shutterstock.

La recombinaison, également connue sous le nom de crossing-over, est l’autre principale façon avec laquelle l’ADN accumule les changements dans le temps. Il conduit à un brassage des deux copies du génome (une de chaque parent), qui sont regroupées en chromosomes. Au cours de la recombinaison, les chromosomes correspondants (homologues) s’alignent et échangent des segments, de sorte que le génome que vous transmettez à vos enfants est une mosaïque de l’ADN de vos parents.

Chez les humains, environ 36 événements de recombinaison se produisent chaque génération, un ou deux par chromosome. Comme cela se produit à chaque génération, les segments hérités d’un individu particulier se brisent en morceaux de plus en plus petits. Les généticiens peuvent donc se baser sur la taille de ces morceaux et la fréquence des croisements pour estimer à quel moment de l’histoire deux individus ont partagé un ancêtre commun.

Le flux de gènes entre des populations divergentes conduit à des chromosomes avec une ascendance en mosaïque. Comme la recombinaison se produit à chaque génération, les morceaux d’ascendance néandertalienne dans les génomes humains modernes deviennent de plus en plus petits au fil du temps. Bridget Alex, CC BY-ND

Construire une frise chronologique avec des mutations

Les changements génétiques issus de la mutation et de la recombinaison fournissent deux horloges distinctes, chacune adaptée à la datation de différents événements évolutifs et échelles de temps.

Les mutations s’accumulent très lentement donc cette horloge fonctionne mieux pour les événements très anciens, comme pour les différenciations entre espèces. D’autre part, l’horloge de recombinaison est utile pour dater des évènements ayant eu lieu ces 100 000 dernières années. Ces événements « récents » (en temps évolutif) incluent le flux de gènes entre des populations humaines distinctes, la montée d’adaptations bénéfiques ou l’émergence de maladies génétiques.

Le cas des Néandertaliens illustre bien comment les horloges de mutation et de recombinaison peuvent être utilisées ensemble pour nous aider à démêler des relations ancestrales complexes. Les généticiens estiment qu’il existe entre 1,5 et 2 millions de différences de mutation entre les Néandertaliens et les humains modernes. L’application de l’horloge de mutation à ce compte suggère que les groupes se sont séparés initialement il y a 750 000 à 550 000 ans.

À cette époque, une population – les ancêtres communs des deux groupes humains – s’est séparée géographiquement et génétiquement. Quelques individus du groupe ont migré vers l’Eurasie et au fil du temps ont évolué en Néandertaliens. Ceux qui sont restés en Afrique sont devenus des humains anatomiquement modernes.

Un arbre phylogénétique affiche les dates de divergence et de croisement que les chercheurs ont estimées avec des méthodes d’horloge moléculaire pour ces groupes. Bridget Alex, CC BY-ND

Cependant, leurs interactions n’étaient pas terminées : les humains modernes ont finalement colonisé l’Eurasie et se sont accouplés avec des Néandertaliens. En appliquant l’horloge de recombinaison à l’ADN néandertalien conservé chez les humains actuels, les chercheurs estiment que les groupes se sont croisés entre 54 000 et 40 000 ans. Lorsque les scientifiques ont analysé un fossile d’Homo sapiens, connu sous le nom d’Oase 1, ayant vécu il y a environ 40 000 ans, ils ont trouvé de grandes régions d’ascendance néandertalienne dans le génome d’Oase 1, suggérant que Oase 1 avait un ancêtre néandertalien il y a seulement quatre ou six générations. En d’autres termes, l’arrière-arrière-grand-parent d’Oase 1 était un néandertalien.

Comparaison du chromosome 6 du fossile Oase vieux de 40 000 ans à un humain d’aujourd’hui. Les bandes bleues représentent des segments d’ADN de Néandertal issus de croisements antérieurs. Les segments d’Oase sont plus longs parce qu’il a eu un ancêtre néandertalien juste 4-6 générations avant qu’il ait vécu, basé sur des estimations utilisant l’horloge de recombinaison. Bridget Alex, CC BY-ND

Des horloges instables

Les horloges moléculaires sont un pilier des calculs évolutifs, non seulement pour les humains mais pour toutes les formes d’organismes vivants. Mais il existe des facteurs rendant complexes les estimations.

Le principal défi provient du fait que les taux de mutation et de recombinaison ne sont pas restés constants au fil de l’évolution humaine. Les taux eux-mêmes évoluent, ils varient donc avec le temps et peuvent différer entre les espèces et même entre les populations humaines. C’est comme si l’on essayait de mesurer le temps avec une horloge qui tourne à différentes vitesses dans différentes conditions.

Un problème concerne un gène appelé Prdm9, qui détermine l’emplacement des cross-overs de l’ADN. Il a été montré que la modification des endroits de l’ADN où ont lieu les recombinaisons est due à la variation de ce gène, et cela chez les humains, les chimpanzés et les souris. En raison de l’évolution de Prdm9, les taux de recombinaison diffèrent entre les humains et les chimpanzés, et peut-être aussi entre les Africains et les Européens. Cela implique que sur des échelles de temps et des populations différentes, l’horloge de recombinaison varie légèrement à mesure que les zones de recombinaisons évoluent.

L’autre problème est que les taux de mutation varient selon le sexe et l’âge. À mesure que les pères vieillissent, ils transmettent quelques mutations supplémentaires à leur progéniture. Le sperme des pères plus âgés a subi plus de cycles de division cellulaire, donc plus de possibilités de mutations. Les mères transmettent moins de mutations (environ 0,25 par an), car les ovules d’une femelle sont formés globalement en même temps, avant sa propre naissance.

Les taux de mutation dépendent également de facteurs tels que le début de la puberté, l’âge à la reproduction et le taux de production de spermatozoïdes. Ces facteurs de vie varient chez les primates vivants et ont probablement aussi différé entre les espèces éteintes des ancêtres humains.

Par conséquent, au cours de l’évolution humaine, le taux de mutation moyen semble avoir considérablement ralenti. Le taux moyen sur des millions d’années depuis la séparation des humains et des chimpanzés a été estimé à environ 1 x10⁻⁹ mutations par site et par an – soit environ six lettres d’ADN modifiées par an.

Ce taux est déterminé en divisant le nombre de différences de nucléotides entre les humains et les autres singes par la date de leurs divisions évolutives, déduite à partir de fossiles. Mais lorsque les généticiens mesurent directement les différences nucléotidiques entre parents vivants et enfants, le taux de mutation est moitié moins important : environ 0,5×10⁻⁹ par site et par an, soit seulement environ trois mutations par an.

Pour la divergence entre les Néandertaliens et les humains modernes, le taux le plus lent fournit une estimation entre 765 000 à 550 000 ans. Le taux le plus rapide, cependant, suggérerait la moitié de cet âge : 380 000 à 275 000 ans.

Pour savoir quel taux utiliser, les chercheurs ont développé de nouvelles méthodes d’horloges moléculaires, qui répondent aux défis de l’évolution des taux de mutation et de recombinaison.

Une meilleure horloge

Une approche consiste à se concentrer sur les mutations qui surviennent à un rythme constant, indépendamment du sexe, de l’âge et de l’espèce. Cela peut être le cas pour un type particulier de mutation que les généticiens appellent les transitions CpG par lesquelles les nucléotides C deviennent spontanément des T. Les transitions CpG ne résultent généralement pas d’erreurs de copie d’ADN pendant la division cellulaire, leurs taux devraient ainsi être plus uniformes dans le temps.

En se concentrant sur les transitions CpG, les généticiens ont récemment estimé que la fracture entre les humains et les chimpanzés s’était produite entre 9,3 et 6,5 millions d’années, ce qui concorde avec l’âge attendu des fossiles. Même si ces mutations semblent se comporter plus comme une horloge, elles ne sont toujours pas complètement stables.

Une autre approche consiste à développer des modèles qui ajustent les rythmes d’horloge moléculaire en fonction du sexe et d’autres facteurs de la vie. En utilisant cette méthode, les chercheurs ont calculé une divergence chimpanzé-humain compatible avec l’estimation CpG et les dates des fossiles. L’inconvénient ici est que, en ce qui concerne les espèces ancestrales, nous ne pouvons pas être sûrs de certaines caractéristiques, comme l’âge à la puberté ou la durée de vie d’une génération, conduisant à une certaine incertitude dans les estimations.

La solution la plus directe provient des analyses de l’ADN ancien récupéré des fossiles. Les spécimens fossiles sont indépendamment datés par des méthodes géologiques, les généticiens peuvent alors les utiliser pour calibrer les horloges moléculaires pour une période donnée ou une population.

Cette stratégie a récemment résolu le débat sur le moment de notre divergence avec les Néandertaliens. En 2016, des généticiens ont extrait de l’ADN ancien de fossiles de 430 000 ans, ancêtres de Néandertal, après que leur lignée ait été séparée de l’Homo sapiens. Sachant où ces fossiles se situent sur l’arbre de l’évolution, les généticiens pourraient confirmer que pour cette période de l’évolution humaine, le taux d’horloge moléculaire plus lent de 0,5 x 10⁻⁹ fournit des dates précises. Cela place la fracture entre 765 000 et 550 000 ans.

À mesure que les généticiens comprennent les subtilités des horloges moléculaires et séquencent toujours plus de génomes, ils sont prêts à comprendre l’évolution humaine, directement à partir de notre ADN.

INFORMATION : CLAVAP MIRMANDE

La commission locale de l’AVAP se tient aujourd’hui, vendredi 19 janvier 2018 en mairie avec la présentation du diagnostic présenté par le cabinet INGETER.

 

En tant qu’association du patrimoine, notre association est invitée à participer à cette réunion après avoir reçu le dossier relatif à ce diagnostic.

 

Un certain nombre de remarques très importantes nous ont déjà alertés sur la réelle connaissance du dossier. Nous voulons avoir plus d’informations pour porter à votre connaissance toutes nos remarques qui nous alerterons sur les objectifs annoncés.

Le Président : Bernard Houal

  Vu du Moyen Âge : l’ire du prince, ou quand Donald Trump se prend pour Charles le Téméraire

La Bataille de Nancy par Delacroix, 1831. BnF

Paru le 5 janvier 2018 aux États-Unis, le livre Fire and Fury fait parler de lui et envahira nos librairies d’ici un mois. Son auteur, le journaliste américain Michael Wolff, y dresse un portrait au vitriol de Donald Trump, présenté comme un président colérique, capricieux et incapable. Ce dernier n’a pas manqué de réagir avec brutalité en voulant faire interdire ce brûlot – avec pour seul effet de créer un immense coup de publicité, sans doute espéré et attendu par les éditeurs. En tout cas, les mots du titre ne viennent pas de nulle part et nous renvoient à l’été dernier.

Le livre que Donald Trump tente de faire interdire. Amazon

Le 8 août 2017, Donald Trump menaçait en effet de frapper le régime nord-coréen d’une puissance « de feu et de fureur telle que le monde n’en a jamais vu ». Dans les semaines qui suivirent, aucun des deux belligérants ne désarma dans l’escalade de la provocation nucléaire. C’est ainsi que le 19 septembre, à la tribune de l’Organisation des Nations unies, le président américain déclara que si le régime de Pyongyang venait à abuser de la « grande patience » des États-Unis, ceux-ci se résoudraient à « détruire totalement la Corée du Nord ». Le décalage est frappant entre la violence des paroles, menaçant de mort plus de vingt-cinq millions de Nord-Coréens, et les principes de paix et d’entente censés être les mots d’ordre de toute réunion de l’ONU. Mais une année de présidence Trump nous aura appris que ce dernier, tout au long de sa carrière, a fait de l’agressivité verbale et physique son principal instrument de communication, tant en politique extérieure qu’intérieure.

On aurait sans doute en partie raison de dire qu’une telle violence dans les mots et les actes est le produit d’un homme colérique et complexé. Mais, au-delà des considérations psychologiques, on peut aussi donner un sens politique à cette violence. En effet, force est de constater que les logorrhées de Trump rencontrent une véritable audience, mais aussi que cette stratégie de communication politique pourrait être promise à un bel avenir ailleurs qu’aux États-Unis. Mais elle a aussi un riche passé, notamment au cours du Moyen Âge, où l’ira principis, c’est-à-dire la « colère du prince », fut une véritable manière de gouverner, du moins pour certains souverains.

Une bonne crise de colère vaut-elle mieux qu’un long discours ?

Si ce conseil ne vaut peut-être pas pour la vie conjugale, en revanche, il semble fonctionner plutôt bien en politique. Le prince, c’est-à-dire celui qui détient le pouvoir politique, est un personnage public, de sorte qu’il peut faire passer un certain nombre de messages par le biais de ses émotions, afin d’assurer ou de renforcer son pouvoir. En Angleterre, depuis 1164, le roi Henri II supporte de moins en moins son ancien chancelier, Thomas Becket. Il faut dire que ce dernier, archevêque de Cantorbéry et à ce titre personnage important du royaume, fait tout pour s’opposer à la mainmise du roi sur l’Église d’Angleterre. Aussi, Henri II s’arrange-t-il pour manifester sa colère contre Becket en public et, en décembre 1170, il passe un savon à ses barons pour ne pas avoir réussi à faire taire ce dernier. Or, la colère du prince qui éclate aux yeux de tous vaut comme une sentence de mort conforme à la loi : il s’agit d’un acte politique codifié et destiné à être interprété. C’est donc ce qui conduit les barons à commettre le meurtre de Becket. La réaction d’Henri II est toutefois surprenante : quand il apprend la nouvelle, il s’effondre accablé, affirmant qu’il n’aurait jamais voulu la mort de l’archevêque.

Il est délicat pour l’historien d’interpréter ce retournement, car on ne sait pas à quel point les sources historiques ont transformé les faits. Néanmoins, on peut supposer que le roi a su manier avec habileté les émotions pour mener à bien ses intentions politiques : il affiche d’abord la colère pour se débarrasser de son adversaire, puis il manifeste de la tristesse pour se dédouaner en désavouant ce qui est une atteinte à la puissante Église, en montrant des signes de rédemption. Il y a donc une véritable communication émotionnelle dans le cadre de la politique du royaume.

Dans la Bible, la colère est réservée à Dieu ; elle vient sanctionner l’injustice, tandis que chez les êtres humains, elle est considérée comme un vice – jusqu’à faire partie des sept péchés capitaux. Néanmoins, avec l’affirmation du pouvoir royal, qui cherche à se donner une dimension sacrée, la colère devient un des privilèges des rois. Il faut toutefois qu’elle soit exercée avec modération, non pas motivée par la haine mais par le désir de rétablir l’ordre et le droit. De la sorte, les rois tentent d’en faire un moyen d’affirmer leur autorité. Mais il est des situations où la colère mène à la haine incontrôlée – et la haine mène à la souffrance puisqu’elle fait perdre au roi tout pouvoir !

Charles le Téméraire portant le collier de l’ordre de la Toison d’or par Rogier van der Weyden, vers 1462. Huile sur bois, Gemäldegalerie, Berlin. Wikipédia, CC BY

Charles le Téméraire, têtu comme un bœuf bourguignon

Nous sommes au milieu du XVe siècle. Charles est un jeune garçon turbulent : il adore les sports de combat, le tir à l’arc et la chasse. En outre, il a été bercé par les prouesses des héros de l’Antiquité parmi lesquels le légendaire Achille, personnage principal de l’Iliade, le récit de la guerre de Troie, s’ouvrant sur ces mots : « Chante, déesse, la colère d’Achille ». Fils du duc de Bourgogne Philippe le Bon, le gamin a donc un CV parfait pour être un futur dirigeant des plus belliqueux – d’autant qu’à cette époque, les États bourguignons, rassemblant de nombreuses possessions éparpillées autour du Rhin, cherchent à s’étendre pour devenir un nouveau royaume, au détriment de la France qui sort affaiblie de la Guerre de Cent Ans (1337-1453).

Lorsque Charles succède à son père défunt en juin 1467, il récupère un très grand nombre de titres souverains dont celui de comte de Flandres, puisque les États bourguignons s’étendaient jusque dans cette région. Cependant, la cérémonie d’investiture qui a lieu à Gand le 28 juin se déroule d’une manière inattendue, que Trump n’aurait sans doute pas désavouée ! Les élites et le peuple de Gand choisissent en effet ce moment pour manifester un certain nombre de mécontentements au nouveau duc. Le chroniqueur bourguignon Georges Chastellain, contemporain des événements, rapporte que tout l’entourage du duc l’appelle à la prudence, comme l’aurait fait son père. Pourtant, Charles veut affronter la foule. Avec ses hommes d’armes, il va à la rencontre des rebelles. À l’un d’entre eux qui veut l’attaquer à coup de lance, Charles réplique en le frappant à coups de bâton et en l’injuriant « sans révérence », ce que notre chroniqueur juge indigne d’un souverain. Dans cette situation, la colère, loin d’être utilisée avec mesure et à bon escient, ridiculise le duc, ravalé au même rang qu’un homme du peuple, ce qui est impensable dans la société médiévale.

Les possessions bourguignonnes à leur apogée, sous Charles le Téméraire. Marco Zanoli/Wikipédia, CC BY-SA

Les guerres du dernier duc de Bourgogne

Poursuivant la politique d’expansion de ses prédécesseurs, Charles le Téméraire mène à la tête d’une puissante armée des offensives continues au-delà du Rhin, ce qui lui valut le surnom de « Travailleur », mais aussi d’être qualifié de « sang belliqueux ». Cette agressivité aurait causé sa perte, si l’on en croit les récits de l’époque.

L’ultime épisode de sa vie et de son règne semble en effet en témoigner. Fin octobre 1476, Charles assiège Nancy, alors même que son armée est épuisée par des années de combats et qu’elle souffre de gros problèmes de ravitaillement. L’hiver s’installe mais Charles ne veut pas entendre les recommandations de son état-major qui l’appelle à renoncer au siège. Il va jusqu’à clamer qu’il combattra seul si nécessaire. Selon le chroniqueur Molinet, contemporain et témoin des événements, ce geste fut « la totale perdition de son corps et de son honneur ». Le 5 janvier, une armée vole au secours de Nancy : elle est bien organisée et en pleine forme, tandis que les troupes de Charles sont amoindries par le froid et la faim, sans parler de la trahison d’un de ses lieutenants qui passe à l’ennemi. L’armée bourguignonne est écrasée et, deux jours plus tard, on retrouve la dépouille de Charles dans la boue du champ de bataille.

Le courroux sans fin, le « feu et la fureur » du duc ont précipité sa chute. Tel serait le message des chroniqueurs qui ont écrit sur Charles le Téméraire. L’historien doit bien sûr faire attention à ne pas prendre ce que disent les chroniques pour argent comptant : les raisons de l’effondrement des États bourguignons sont plus complexes et, dans la mesure où les chroniqueurs ont écrit après les événements, ils ont sans doute cherché à les expliquer par la seule conduite irrationnelle du duc.

La colère, à consommer avec modération

Il n’en reste pas moins que, de Charles à Trump, les émotions du prince prennent souvent une grande place dans sa pratique de la politique. Aujourd’hui, cette colère a su parler à une grande partie de la population américaine lassée par une classe politique qui donne l’impression par ses manières et son langage lisses d’être coupée du « commun des mortels ».

Plus largement, en jouant sur une gamme d’émotions qui va de la colère à la joie en passant par l’exultation, les princes d’aujourd’hui savent mettre en place des stratégies pour s’adresser au public et le convaincre. À nous d’apprendre à décoder cette grammaire émotionnelle pour comprendre le sens de leurs mots et ce qui se cache derrière.

Redéfinir l’entreprise et sa finalité : une révolution en marche ?

Redéfinir l’entreprise et sa finalité : une révolution en marche ?

Sociétés ? Entreprises ? Et pour quel objet ? Pexels

Lors de ses vœux, le Président Macron a annoncé que le rythme des réformes n’allait pas faiblir avec pas moins de dix projets de loi attendus pour les prochains mois. Parmi ces projets, une révolution semble en marche sur la question de la gouvernance des entreprises et la participation des salariés.

Le gouvernement a ainsi confié à Nicole Notat (Vigeo) et Jean‑Dominique Senard (Michelin) une mission de réflexion sur l’articulation entre la finalité de l’entreprise et l’intérêt général. Le gouvernement souhaite également inscrire dans la future loi PACTE (plan d’action pour la croissance et la transformation des entreprises), présentée au printemps, des éléments allant clairement dans ce sens.

Cette initiative est précédée de l’action d’un groupe de députés socialistes qui a déposé une proposition de loi novatrice, discutée dès le 18 janvier 2018 à l’Assemblée. Pour le résumer simplement, cette proposition de loi vise ni plus ni moins à redéfinir le but des entreprises françaises et introduit également le concept de société à objet social étendu. Décryptage des raisons et de la portée potentielle de cette proposition de loi et des éléments annoncés dans la future loi PACTE.

Sortir de la seule logique du profit

La première raison avancée tant par le gouvernement (dans la bouche de Bruno le Maire ou de Nicolas Hulot par exemple) est que le but (ultime) d’une entreprise ne pourrait se résumer à faire seulement du profit.

De nombreux observateurs ou experts ont eu l’occasion de dénoncer depuis de nombreuses années les dérives de cette idéologie largement répandue et qui consiste à ce que l’entreprise fasse le plus de profit possible (à le maximiser comme disent les économistes) : entreprises fermant des sites pourtant rentables, externalisation et focalisation sur le cœur de métier en vue de diminuer le coût du travail et d’augmenter les profits, focalisation exclusive sur la création de valeur actionnariale), stratégies d’optimisations fiscales et sociales, prolifération des externalités négatives dénoncées par une partie des patrons eux-mêmes…

Prenant acte de cette dérive qui remet en cause le pacte républicain et les équilibres écologiques, le gouvernement semble vouloir infléchir les pratiques et cette idéologie du tout profit en se faisant le promoteur d’un « capitalisme plus moral » qui ne se focaliserait plus uniquement sur le profit ou les dividendes des actionnaires mais qui aurait bien des objectifs plus larges permettant de prendre en considération d’autres parties prenantes (l’environnement, la société, les salariés).

Milton Friedman a écrit le 13 septembre 1970 une tribune dans le New York Times intitulée « The Social Responsibility of Business Is to Increase Its Profits ». Wikipedia, CC BY-SA

La défense habituelle des défenseurs de la valeur actionnariale est désormais bien connue : à quoi bon imposer un nouveau lot de contraintes, alors que l’entreprise se préoccupe déjà des salariés et de la société, en versant des salaires et en payant des impôts. Et leur argument semble imparable : c’est justement parce que l’entreprise cherche à maximiser ses profits qu’elle peut verser des salaires décents et des impôts conséquents.

Cette position est fort bien résumée depuis 1970 dans la fameuse tribune de Milton Friedman : « La seule responsabilité de l’entreprise est de faire des profits ». La position des partisans et des adversaires de cette position semble clairement irréconciliables comme l’explique par exemple Alex Edmans.

La remise en cause du « tout pour l’actionnaire » en trois actes

Depuis 1970, les mentalités et les idéologies sous-jacentes ont néanmoins évolué et une approche beaucoup plus inclusive de la gouvernance des entreprises se répand peu à peu. Elle dispose de très solides arguments pour rejeter dans un premier temps la mainmise des actionnaires sur l’entreprise et faire la promotion dans un second temps d’une approche plus partenariale de l’entreprise, sa performance et sa gouvernance.

Cette remise en cause s’effectue en trois actes.

Acte 1 : Le premier argument, connu des juristes depuis des décennies, est de dire que l’entreprise n’existe pas en droit. Pour le dire de façon imagée, le droit de l’entreprise n’existe pas, on parle seulement du droit des sociétés. Le droit ne connaît pas l’entreprise mais seulement la société : on parle en effet de société par actions, de société à responsabilité limitée ou de société anonyme mais jamais d’entreprise anonyme.

Or, le tour de force d’éminents économistes aura été de nous faire croire que l’entreprise (et non la société) appartenait aux actionnaires ! L’un des articles les plus célèbres et les plus repris en finance et en économie propage depuis 1976 cette vision simpliste et erronée d’une entreprise, simple coquille juridique, appartenant aux seuls actionnaires.

Acte 2 : L’entreprise n’existe pas, seule la société est reconnue en droit mais les actionnaires disposent-ils malgré tout de droits de propriété ? Là encore, la réponse des juristes est limpide. Les parts sociales ou les actions ne constituent et n’ont jamais constitué de titres de propriété en bonne et due forme. Il s’agit seulement de titres représentant des fractions de capital social offrant certains droits (droit de participer à l’assemblée générale, de pouvoir y voter, de toucher une partie des résultats de l’entreprise).

Les actions ou parts sociales ne constituent pas un quelconque titre de propriété. Un actionnaire ne pourrait en aucun cas rentrer dans une entreprise et en repartir avec une chaise ou un ordinateur au motif qu’il est propriétaire d’une fraction du capital. Ce serait assurément considéré comme de l’abus de bien social. Mais alors, à qui appartient l’entreprise ? Et bien justement à personne, comme nous l’expliquons dans un article publié en 2014, car les actionnaires ne sont propriétaires de rien et sûrement pas de quelque chose qui n’existe pas !

Acte 3 : Une fois que l’on a examiné sérieusement cette question et conclu que les actionnaires ne sont pas propriétaires de l’entreprise, il reste à en déduire que la société est un être juridique autonome à part entière. À ce sujet, ne parle-t-on pas de personnes morales (dont certaines se font d’ailleurs condamner) pour désigner ces entités abstraites qui existent en droit ? Dès lors, si l’on considère que la société, personne morale, peut avoir des intérêts potentiellement différents des membres physiques qui la composent, on peut tout à fait admettre que l’intérêt des sociétés ne rejoint pas nécessairement celui de ses actionnaires, de ses dirigeants ou de ses salariés.

Qui possède quoi ? Pixabay

Ainsi, des dirigeants peuvent verser des dividendes trop élevés alors que la situation de l’entreprise nécessiterait plutôt que la société investisse ! De la même manière, une entreprise trop généreuse avec ses salariés peut potentiellement se retrouver en difficultés dans le futur alors que ces ressources auraient pu être consacrées à l’investissement ou la recherche et développement. C’est donc l’intérêt de la société elle-même et la pérennité du projet économique de l’entreprise qui doivent orienter la gouvernance et en aucun cas l’intérêt d’une des parties prenantes qui dans cette situation réaliserait un hold-up sur la valeur créée collectivement.

Une proposition de loi qui remet en cause l’article 1833 du code civil

La proposition de loi discutée le 18 janvier défend clairement cette optique et propose ainsi de redéfinir la finalité et les objectifs de la société. C’est le sens de l’article n°1 qui entend compléter l’article 1833 du Code civil (« Toute société doit avoir un objet licite et être constituée dans l’intérêt commun des associés ») par la phrase suivante, lourde de conséquences : « La société est gérée conformément à l’intérêt de l’entreprise, en tenant compte des conséquences économiques, sociales et environnementales de son activité. »

En voulant modifier cet article du code civil, les promoteurs de cette proposition de loi entendent ainsi sanctuariser la notion d’intérêt social de l’entreprise qui agit comme un paravent à toute tentative d’accaparement de la société par une de ses parties prenantes. La société ne serait ainsi plus seulement gérée dans l’intérêt unique et corporatiste de ses seuls actionnaires mais dans un intérêt commun et nécessairement collectif faisant coïncider intérêt de l’entreprise et intérêt sociétal.

Au-delà de ce premier article, la proposition de loi avance également, au travers de son article 10, la proposition de société à objet social étendu, qui inclut ainsi les parties prenantes essentielles au développement des organisations. Cette autre proposition révolutionnaire vise à « mobiliser tous les acteurs de l’entreprise autour d’un objet social incluant un objectif social ou environnemental ». La « mission de la société devra être définie à la fois par les actionnaires (qui l’inscriront dans les statuts) et par les salariés (qui la valideront par voie d’accord d’entreprise) ».

Deux chercheurs français, Armand Hatchuel et Blanche Segrestin, ont directement inspiré la réflexion conduisant à proposer cette nouvelle forme de société. S’inspirant fortement des expériences étrangères (notamment la Social Purpose Corporation qui a succédé à la Flexible Purpose Corporation), ils avaient dès 2012, publié un ouvrage prémonitoire et visionnaire, Refonder l’entreprise, qui résumait à la fois l’ambition et la portée de cette évolution. Sous l’impulsion d’Emmanuel Faber ce statut a été récemment adopté par la filiale américaine de Danone en avril 2017.

Code civil Napoléon (Historisches Museum der Pfalz). DerHexer/Wikimedia, CC BY-SA

Une évolution à mener sous deux conditions

Si le gouvernement entend « moraliser » le capitalisme et offrir un autre horizon aux entreprises que la seule maximisation du profit, il faudra sans doute vaincre de nombreuses résistances, tant du côté du patronat que des salariés d’ailleurs. C’est à ce prix que l’on pourra véritablement faire entrer la société et l’entreprise dans l’économie du XXIe siècle, qui ne peut qu’être plus inclusive et plus responsable. Cette évolution de la loi appelle toutefois deux précautions qui si elles ne sont pas anticipées pourraient se retourner contre les promoteurs :

1. Certains commentateurs ont souligné les risques de modifier les articles du Code civil ou du Code Commerce, qui d’après certains juristes ne sont pas à l’origine des dérives que tentent de corriger cette proposition de loi. Corriger ou modifier les articles 1832 et 1833 du Code civil ne permet pas de s’attaquer fondamentalement à la racine du problème, qui, d’après une partie du patronat est la financiarisation extrême du capitalisme moderne. L’un des meilleurs experts de cette question précise que ce n’est pas tant les articles du Code civil qui posent problème que les impératifs de maximisation de la valeur actionnariale qui conduisent peu à peu à des dérives stratégiques, managériales et environnementales de plus en plus inacceptables. Pour le dire autrement, ce n’est pas le droit qui pose problème mais bien l’idéologie économique actuellement en vigueur qui conduit à ces dérives et qui s’incarne à travers les codes de gouvernance comme le code Afep-Medef pour le cas spécifique de la France.

2. Deuxième écueil possible : Le risque en s’attaquant au cœur du Code civil est d’assister à une levée de boucliers de la plupart des acteurs de ce dossier. Le patronat n’a objectivement aucun intérêt, hormis quelques voix « dissidentes », tel qu’Emmanuel Faber (Danone) ou Antoine Frerot (Veolia), à soutenir cette initiative. Les salariés pourraient également s’y opposer (et être sur la même ligne que le patronat), tant il peut apparaître dangereux pour eux d’être associés directement aux décisions stratégiques, comme celles consistant par exemple à licencier…

Revoir la loi… mais aussi les soft laws de la gouvernance

Réformer la gouvernance des entreprises françaises en s’attaquant à des articles essentiels du Code civil et du droit des sociétés est à la fois ambitieux mais potentiellement risqué. Reste que l’action conjointe de cette proposition de loi et de la future loi PACTE laisse de côté un élément essentiel de la gouvernance de nos entreprises. En effet, à aucun moment, il n’est envisagé de réécrire ou de réaliser une nouvelle mouture des principaux guides de gouvernance, dont le code AFEP-Medef qui fait autorité.

Or, c’est bien souvent cette « soft law » qui fixe des règles et des pratiques qui ont cours au sein de nos entreprises. Ainsi, 118 entreprises des 120 plus grandes entreprises françaises font explicitement référence dans les rapports annuels au code AFEP-Medef alors que plusieurs dispositions de ce code sont discutables, voire juridiquement fausses, mais profitent toujours in fine à certaines catégories d’actionnaires toujours plus préoccupés par la capture de dividendes que les projets stratégiques de long terme.

Ainsi les prochaines semaines peuvent marquer un tournant décisif pour notre modèle de gouvernance d’entreprise, à condition que de nombreuses résistances soient vaincues et que l’ensemble des acteurs comprend qu’un changement de logiciel est nécessaire pour renforcer en même temps la compétitivité et la responsabilité des entreprises !

Cancer : l’intérêt du jeûne n’est pas démontré

The Conversation
File 20180110 46700 1xfu3m.jpg?ixlib=rb 1.1

Cancer : l’intérêt du jeûne n’est pas démontré

Ne pas manger pour « affamer » la tumeur. Cette image, particulièrement forte, contribue à un certain succès du jeûne auprès des patients atteints d’un cancer. De manière plus large, la pratique se développe en France depuis une quinzaine d’années dans le but de prévenir ou guérir des maladies, parmi lesquelles le diabète ou l’hypertension.

Ainsi, la chaîne Arte a rediffusé une nouvelle fois, le 6 janvier, le documentaire à succès, Le jeûne, une nouvelle thérapie ? Si le film de Thierry de Lestrade et Sylvie Gilman n’est pas un manifeste militant mais une enquête solide, il faut noter qu’il est sorti en 2011, ce qui en fait une source… un peu datée. Les nombreux ouvrages grand public, articles de presse et sites web sur le sujet, à la fois témoignent de cet engouement et contribuent à l’amplifier.

Aussi il nous a paru utile de revenir sur le travail d’expertise collective réalisé par notre groupe de chercheurs spécialisés dans l’alimentation et le cancer, membres du réseau NACRe (réseau National Alimentation Cancer Recherche). Pour la première fois au monde, des scientifiques ont passé en revue l’ensemble des études publiées sur le sujet depuis la fin des années 1940. Le rapport, rendu public en novembre 2017, conclut qu’il n’existe pas de preuve scientifique des bénéfices du jeûne vis-à-vis du cancer.

De nouvelles attentes chez les patients

Des livres, mais aussi des cliniques ou des organisateurs de randonnées, font la promotion du jeûne dit « thérapeutique ». Ils allèguent des effets bénéfiques à l’égard du cancer, notamment sur la tolérance et l’efficacité des traitements anticancéreux. Ces allégations suscitent de nouvelles attentes chez les patients atteints de cancer.

Portés aussi par les résultats d’expériences récentes sur des cellules en culture ou des animaux de laboratoire – mis en avant par les chercheurs qui les ont obtenus et qui ont été largement médiatisés –, des patients espèrent que ces pratiques amélioreront le pronostic de leur cancer.

Certains malades sollicitent les professionnels des services d’oncologie pour mettre en pratique le jeûne pendant leur traitement. D’autres s’intéressent à des régimes restrictifs tels que le régime cétogène, qui repose sur la diminution des glucides avec maintien de l’apport calorique, ce qui en fait un régime hyperlipidique. D’autres encore s’engagent dans ces régimes sans que les professionnels de santé qui les suivent en soient informés.

Pourtant, les travaux de recherche ne permettent pas d’être affirmatif quant aux effets bénéfiques du jeûne et incitent, au contraire, à la plus grande prudence.

Plus de 220 études pertinentes analysées

Notre groupe de travail est constitué d’experts de différentes disciplines, développant des approches de recherche épidémiologique ou clinique, d’expérimentation animale et de sciences humaines et sociales. Il a effectué une recherche exhaustive, dans la littérature scientifique internationale, des données sur le jeûne, les régimes restrictifs (restriction en calories, en protéines ou en glucides) et le cancer. Au total, plus de 200 études réalisées chez les animaux de laboratoire ont été identifiées et analysées, ainsi qu’une vingtaine d’études cliniques réalisées chez l’Homme, auxquelles s’ajoutent deux études épidémiologiques.

Ce travail a été publié sous le titre « Jeûne, régimes restrictifs et cancer : revue systématique des données scientifiques et analyse socio-anthropologique sur la place du jeûne en France ». L’Institut national du cancer a publié dans le même temps une fiche synthétisant les données du rapport.

Pas de preuve d’un effet bénéfique du jeûne

La majorité des données scientifiques proviennent d’études chez les rongeurs (souris ou rats). Ces études fournissent des résultats hétérogènes : aussi bien des effets favorables, qu’une absence d’effet ou encore des effets délétères. Elles présentent des limites importantes dans leur méthodologie, qui ne permettent pas d’extrapoler directement les résultats à l’Homme.

Les données issues d’essais cliniques, à savoir menés sur l’Homme, sont peu nombreuses et de faible qualité :

  • le plus souvent, les essais cliniques incluent moins de 20 patients ;
  • ils ne sont pas « contrôlés » : si l’étude ne comporte pas de groupe « contrôle », c’est-à-dire sans intervention, on n’est pas en mesure de différencier ce qui relève d’une évolution naturelle ou de l’intervention ;
  • ils ne sont pas « randomisés » : en l’absence de tirage au sort des patients pour les répartir de manière aléatoire dans le groupe avec intervention et le groupe « contrôle », il n’existe pas de comparabilité entre les groupes.

Les résultats de ces essais cliniques n’apportent pas de preuve d’un effet favorable sur l’évolution de la tumeur. Par ailleurs, certains essais mentionnent une perte de poids et de masse musculaire chez les patients.

Hormis ces essais cliniques dont les résultats sont disponibles, d’autres ont été initiés ces dernières années. Deux d’entre eux ont été suspendus en raison d’un trop petit nombre de participants ou de leur difficulté à suivre les régimes restrictifs. Onze sont terminés, mais leurs résultats ne sont pas publiés. Vingt-quatre sont en cours, avec des résultats impossibles à prédire.

Actuellement, il n’y a donc pas de preuve chez l’homme d’un effet protecteur du jeûne et des régimes restrictifs en prévention primaire, c’est-à-dire dans le but d’éviter le développement d’un cancer. Il n’y a pas plus de preuve d’un effet thérapeutique pour les patients ayant déclaré la maladie, qu’il s’agisse d’un effet direct ou d’un effet sur l’efficacité des traitements anticancéreux administrés.

Au cours des traitements d’un cancer, la pratique du jeûne ou de régimes restrictifs présente par contre un risque d’aggravation de la dénutrition, avec une perte de poids, ainsi que de la sarcopénie, c’est-à-dire une diminution de la masse et de la fonction musculaire. Ces deux facteurs sont reconnus comme facteurs pronostiques péjoratifs. En effet, la dénutrition peut gêner ou empêcher le traitement. À pathologie égale, un patient dénutri a un risque de mortalité plus important qu’un patient non dénutri. La perte de masse musculaire entraîne une diminution de la tolérance des traitements de chimiothérapie, qui oblige à diminuer les doses utilisées.

Sensibiliser aux risques de ces pratiques

Ainsi, les allégations sur les effets préventifs ou curatifs du jeûne vis-à-vis du cancer ne correspondent pas à l’état actuel des connaissances scientifiques.

Pour la prévention des cancers, il n’est pas justifié de pratiquer le jeûne ou un régime restrictif. En revanche, les objectifs prioritaires de prévention des cancers par la nutrition sont de réduire la consommation d’alcool et d’avoir une alimentation équilibrée et diversifiée, tout en pratiquant une activité physique régulière.

Au cours de la prise en charge d’un cancer, il est recommandé de ne pas pratiquer le jeûne ou un régime restrictif. Ce choix relevant cependant de la liberté individuelle, il est important, si un patient souhaite le faire malgré tout, qu’il en informe son médecin traitant et son oncologue référent, afin de mettre en place une évaluation et une surveillance diététique et nutritionnelle. Dans le même temps, les professionnels de santé doivent être à l’écoute des attentes de leurs patients. Ils jouent un rôle essentiel dans leur information et leur accompagnement.

Journée truffe et marché aux arbres DIMANCHE 04 FEVRIER 2018

mille-feuille

mille-feuille

Journée truffe et marché aux arbres DIMANCHE 04 FEVRIER 2018

Le syndicat des trufficulteurs du Val de Drôme, Grâne initiative et Mille-Feuille vous invite à venir déguster la truffe et participer au marché aux arbres qui se déroulera sur la place du champ de Mars de Grâne toute la journée. Les bénéfices de cette journée seront reversées entièrement à trois associations : Les restos du coeur de Crest, la ligue contre le cancer de la Drôme et l’association Mélissa princesse des îles qui vient soutenir les enfants gravement malades dans les hôpitaux.

 

Au menu :

 

Toute la journée, à partir de 09h30 marché aux arbres, produits locaux, exposition de vieux tracteurs et vieilles machines, promenades en calèche dans le village.
Le matin :

Conférence sur la truffe à 10h dans le Temple, démonstration de cavage à 11h.

De 10h à 14h :

Dégustation de produits à la truffe : toasts beurre à la truffe, omelette à la truffe, chèvre chaud à la truffe.

De 12h à 14h :

Repas truffe dans le CRA (Centre Rural d’Animation) sur réservation (Attention il ne reste quasiment plus de places de disponibles) – Contact pour réservation : 0688360117 (prix : 18 €)

L’après-midi :

A 14h30 concours de jeu de boules carrées (boules fournies) en doublette (inscription 5€ par équipe)

Démonstration de cavage à 15h.

 

N’oubliez pas de participer à la TOMBOLA (2 € le billet) qui peut vous permettre de gagner truffes, arbres et produits locaux.

 

Pour tout renseignement : Grâne initiative 04 75 62 66 08  ou  06 85 42 02 68

 

Voyage au cœur de la matière : mesurer l’infiniment petit

Le LHC du CERN illustre bien la nécessité d’appareil de plus en plus grands pour sonder l’infiniment petit. Shellac/Flickr, CC BY-SA

Si je vous demandais de me dire ce qu’est un nanomètre, vous me répondriez sans doute qu’il s’agit d’une unité de mesure de longueur. Bon, le suffixe mètre peut mettre une petite puce à l’oreille.

Vous imagineriez peut-être une unité très petite, la taille d’un cheveu ? Vous seriez loin du compte. Un cheveu atteint 50 à 100 micromètres, presque un dixième de millimètre, on le voit à l’œil nu.

Nouvelle estimation : les poussières fines qui polluent l’air ambiant. Encore trop gros par plusieurs ordres de grandeur. On reste au-dessus du micromètre.

Descendons en parlant de la taille des nanoparticules. De plus en plus présentes dans les cosmétiques et l’alimentation, celles dont on nous promet monts et merveilles en médecine. Oui, on parle ici effectivement de dimensions entre 1 et 100 nanomètres : un milliardième de mètre.

Le tableau périodique des éléments : il représente tous les atomes connus. Scaler,Michka B/Wikipedia, CC BY

Zoomons encore un peu dans la matière jusqu’à l’atome. Encore plus petit, puisque le nom atome vient du grec qui signifie indivisible, le plus petit grain de matière en somme. L’atome représente un point limite de l’infiniment petit. Ou plutôt représentait. C’était le point de vue du XIXe siècle qui recensa dans la table de Mendeleiev tous les atomes existant dans l’univers. La taille se chiffre ici à quelques dixièmes de nanomètre : 100 picomètres. Ce n’est pas grand, mais on sait aujourd’hui disséquer l’atome, même si l’appellation devenue inappropriée a été conservée.

De l’atomique au nucléaire

Certes, l’atome est minuscule, mais l’exploration de l’infiniment petit ne s’arrête pas en si bon chemin. Dès 1911, Rutherford démontra que l’atome est structuré avec des électrons, portant une charge électrique élémentaire, qui gravitent autour d’un noyau, et ce noyau mesure quelques femtomètres (un millième de picomètre). Sa taille comparée à celle de l’atome équivaut à un petit pois au pied à la Tour Eiffel ! La matière est donc pleine de vide : il n’y a rien entre le noyau et les électrons de l’atome.

Aide mémoire des noms des sous multiples du mètre.

Allons plus loin. Le noyau lui-même n’est pas simple ; il se compose de particules appelées nucléons qui se présentent sous forme de protons de charge élémentaire +e (opposée à la charge -e de l’électron), et de neutrons, neutres bien sûr, ayant la taille du femtomètre.

Tous les éléments naturels se comprennent comme un assemblage compact de protons et neutrons en nombres croissants quand on gravit la table de Mendéleiev, et la physique nucléaire se cantonne à l’étude de ces noyaux.

Mais les nucléons sont eux-mêmes composés de constituants encore plus élémentaires qu’on nomme quarks. Les quarks u et d, qui portent des charges non-entières +2/3e et -1/3e respectivement, se retrouvent en triplets uud et udd pour former protons et neutrons, ce qui restitue bien les charges connues.

Des charges non-entières ne se détectent pas librement : les quarks existent mais toujours liés sous forme de particules « réelles » qui répondent à l’assemblage de trois quarks pour les nucléons déjà vus mais aussi d’autres particules similaires. Ils peuvent aussi se combiner en paires quark-antiquark et cela donne les particules appelées mésons.

Les quarks ont été introduits dans les années 1960 pour comprendre la multitude de particules révélées aux accélérateurs, on en répertoriait plus de 200 espèces et toutes s’expliquent simplement à partir de trois quarks différents u, d et s.

L’infiniment petit

Et ici s’introduit une nouvelle unité, l’attomètre : un millième de femtomètre. C’est la taille limite supérieure des quarks trouvés en bout de chaîne, ainsi que des électrons. Limite supérieure, c’est-à-dire que dans l’exploration de l’infiniment petit, on ne sait plus mesurer, on ne peut décider si la taille finale de ces objets est 10-21m ou 10-35m.

Le XXe siècle a donc vu une fantastique évolution dans notre connaissance de la matière. On distingue aujourd’hui des détails de la structure matérielle cent millions de fois plus fins qu’au début du siècle dernier. Ceci est remarquable, mais le progrès à venir pourrait être beaucoup moins rapide.

La règle d’or pour sonder la matière est simple : il faut la bombarder avec des sondes de plus en plus énergiques pour révéler des détails de plus en plus fins. Les progrès du siècle passé découlent du développement des accélérateurs. Aujourd’hui, le plus performant donne aux protons des énergies dix millions de fois supérieures à celle de la sonde qu’utilisa Rutherford en exploitant les désintégrations naturelles. On rêve de machines encore plus puissantes, mais un gain supplémentaire demanderait un effort gigantesque.

Les constituants élémentaires

Alors où en est-on ? Trois quarks différents u, d et s furent introduits dans les années 1960. Puis les physiciens augmentèrent peu à peu cette liste, on découvrit c en 1974, b en 1977 et t en 1995. Et accompagnant les six quarks, la liste des constituants se complète avec six autres objets appelés leptons. En effet l’électron est suivi de deux grands frères : le muon μ reconnu dès 1947 et le tau τ découvert en 1975. Ces trois leptons portent tous la charge –e, il faut leur associer trois leptons sans charge appelés neutrinos, chaque lepton chargé ayant le sien : νe, νμ et ντ. On a l’habitude de regrouper ces douze objets en trois familles :

u c t d s b e μ τ νe νμ ντ

Six quarks et six leptons, on sait aujourd’hui que la liste est complète, il n’y a plus rien à espérer sur ce front. Mais cette table amène à quelques commentaires.

Tout d’abord, seule la première colonne suffit pour rendre compte de toute la matière ordinaire qui compose l’Univers. La nécessité des autres constituants n’est pas entièrement élucidée.

Ensuite, ceci n’est qu’une partie de l’histoire car cette table des constituants se double de celle des anti-constituants. En effet, à côté de l’électron, on découvrit dès 1932 l’antiélectron ou positron. Les caractéristiques sont identiques à l’exception de la charge +e opposée. Ceci se généralise à tous les constituants. L’antimatière existe bien, mais dans notre Univers de matière, toute trace disparaît très rapidement car l’antimatière s’annihile en rencontrant l’objet antagoniste. Cela amène à un grave dilemme : où est passée l’antimatière, puisque le Big Bang qui est à l’origine de tout contenait autant de matière que d’antimatière.

Fin de partie ou prolongation ?

La recherche se poursuit activement et récemment le boson de Higgs s’est révélé. Car à côté des objets qui construisent la matière, d’autres objets élémentaires expliquent leurs interactions. Ces messagers sont les photons de l’interaction électromagnétique, les W± et Z0 des interactions faibles, les gluons des fortes et peut-être les gravitons après la découverte récente des ondes gravitationnelles.

Le boson de Higgs à l’origine des masses couronne la théorie sous-jacente qui explique dans les moindres détails les comportements réciproques entre tous ces objets.

On devrait être rassasié, néanmoins la recherche explore toujours l’inconnu et on aimerait trouver des signes de « Nouvelle Physique » qu’on soupçonne grâce à de vertigineuses énigmes détectées sur le front de la cosmologie. Mais jusqu’à présent, la quête reste infructueuse.

E-commerce : le fléau des fake-reviews

 

Savoir les reconnaïtre. Mompact

Les « fake-news » sont régulièrement sous les feux de la rampe, entre autres « grâce » à Donald Trump qui en aura fait le buzzword 2017 et au projet de loi annoncé par le président Macron. A contrario, les « fake-reviews », les faux commentaires en ligne ou les faux avis de consommateurs, jouissent d’une notoriété moindre auprès du grand public, tout en présentant « dans l’esprit » une certaine analogie.

« Fake-news » vs « fake-reviews »

Que cela soit sur les forums, les sites marchands, les plateformes, les consultations en ligne, les commentaires malhonnêtes se multiplient. Positifs ou négatifs, ils poursuivent des objectifs qui peuvent être distincts : pour certains individus, cela peut être pour le seul plaisir de déverser leur fiel gratuitement. Pour des professionnels, des « fake-reviews » peuvent viser à discréditer la concurrence, ou au contraire à vanter les mérites de leur propre entreprise, de leurs services, de leurs produits : n’est-on pas « jamais mieux servi que par soi-même » ? Les deux dernières situations soulignent une forme de professionnalisation des « faux commentaires » à des fins strictement mercantiles.

Si tous les secteurs d’activités peuvent être concernés, ceux de l’hôtellerie, les organismes de formation, et les services entre particuliers seraient les plus actifs dans cette pratique déloyale d’autovalorisation.

Méfiance… ! smallbusinessplanned.com

Un phénomène ni marginal ni sans effets

Si ce phénomène est quantitativement important et a un impact sur la vente de produit et de services, ses capacités de nuisances ne s’arrêtent pas là. Tout le monde a en mémoire les polémiques et les débats sur les « fake-news » lors des élections américaines. Il faut savoir que les « fake-reviews » sont tout aussi calamiteuses. Elles peuvent dénaturer des consultations en ligne supposées recueillir l’avis des populations. Vous apprendrez peut-être en lisant cet article que ce sont des « fake-reviews » qui ont eu des conséquences inattendues sur notre sujet : l’e-commerce !

Dans le cadre d’une consultation publique sur la neutralité du Net aux États-Unis à laquelle la FFC (Federal Communications Commission) a avancé le chiffre de 22 millions d’internautes ayant participé sur son site. Une étude réalisée sur des millions de commentaires en octobre 2017 par la société Gravwell (entreprise spécialisée dans l’analyse de données) révélait que seulement 17,4 % des commentaires émanaient de vrais usagers.

Il apparaît peu surprenant, devant de telles révélations, qu’en novembre 2017 le procureur de New York, (estimant que la consultation publique lancée par la FFC avait pu être intentionnellement biaisée) ait annoncé que son bureau allait mener une enquête. C’est tout à son honneur. Malheureusement, en attendant que cette enquête aboutisse éventuellement, une chose est devenue certaine : le jeudi 14 décembre 2017, les États-Unis abrogeaient la neutralité du net, un principe fondateur du net.

Pour un débat supposé public, transparent et démocratique, que dire ? Pas de commentaire ! Ces « fake-reviews » auront ici soutenu une abrogation qui pourra avoir des conséquences importantes en matière économique (libre concurrence et régulation des acteurs dominants du marché) : un vaste chantier en perspective pour l’Organisation de coopération et de développement économiques (OCDE) !

Pour revenir au « fake-reviews » concernant des produits et à des services, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) œuvre déjà depuis 2010 à recenser et agir contre les pratiques discutables.

Selon sa dernière enquête intitulée « Les faux avis de consommateurs sur les plateformes numériques ». publiée le 17 novembre 2017, 35 % des avis clients en ligne n’étaient pas conformes aux règles d’information du consommateur. Quand on sait que 80 % des acheteurs en ligne tiennent compte des avis sur le Net selon une étude réalisée par Nielsen, le problème est à prendre très au sérieux ; dans un souci de suivi du phénomène, cette enquête devrait d’ailleurs être reconduite en 2018.

Où trouver de l’aide pour repérer les faux ? www.revinate.com

Lutter contre les « faux commentaires »… Un effet d’annonce ?

Crier au loup est une chose, et le loup est bien là. Mais alors comment être en mesure, sans pour autant être un spécialiste, de trier le grain de l’ivraie ? Voilà une question légitime et à laquelle des réponses doivent être apportées. Outre la reconduite de l’enquête évoquée qui montre la détermination de la DGCCRF dans ce combat, dès le 22 novembre 2017, le site de la DGCCRF a mis en ligne une vidéo intitulée « Avis consommateur : attention aux faux commentaires sur Internet ». La DGCCRF tout en annonçant également le renforcement imminent du cadre légal. Ce renforcement est une réalité depuis ce 1ᵉʳ janvier 2018. Ce 1er janvier 2018, le décret n°2017-1436 visant à préciser le terme d’« avis en ligne » qui avait été publié le jeudi 5 octobre 2017 au Journal officiel est entré en vigueur. Indéniablement, une approche pédagogique formant les usagers à une plus grande vigilance est pertinente.

Nous pouvons raisonnablement émettre l’hypothèse qu’infléchir progressivement l’influence des « fake-reviews » avec des utilisateurs formés, informés et moins dupes aura pour effet à moyen terme de décourager les praticiens de la chose s’ils n’en tirent plus profit. La pédagogie sera probablement plus efficace que la loi.

Par le passé, des initiatives législatives analogues ont visé à sanctionner les pratiques considérées comme « déviantes » : Ce fut le cas de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet HADOPI. Dans son dernier rapport cette dernière indique qu’entre décembre 2011 et le 31 octobre 2017, 2 146 procédures avaient été transmises à l’autorité judiciaire. Il s’en suivra 583 réponses pénales, dont 189 condamnations. D’autres chiffres donnent à réfléchir :

« Le gendarme du Net, qui mise sur la prévention, a envoyé plus de 7,5 millions de “premières recommandations” aux internautes fraudeurs entre 2010 et 2016. [NDLA : durant cette période.] Seuls 72 ont finalement été condamnés ».

Je laisse au lecteur le soin de se faire sa propre opinion sur l’efficacité de l’approche.

Voilà pourquoi, à considérer les bénéfices escomptés au regard des risques encourus (rappelons qu’en 2016, six entreprises ont été condamnées pour pratiques commerciales trompeuses) je ne m’attends guère à une soudaine autodiscipline des coutumiers de cette pratique déloyale. Par contre, pour ce qui est du filtrage des commentaires afin de limiter la propagation des faux avis, l’approche d’Amazon (un exemple parmi les exemples, du fait de son histoire) montre les avancées qui peuvent être faites dans ce domaine : l’entreprise avait déjà limité en 2016 à cinq le nombre de commentaires par semaine qu’un utilisateur pouvait publier sans faire vérifier ses achats. Pour ce qui est de l’achat vérifié, il constitue un frein aux « faux commentaires » et se veut garant de véracité. Quand bien même il peut être contourné par des entreprises peu scrupuleuses * ce serait faire preuve de mauvaise foi que de considérer ce garde-fou comme une avancée « gadget ».

(*La méthodologie est simple : il suffit pour une entreprise d’acheter ou de faire acheter par le fabricant le produit sur Amazon. Une fois l’achat certifié, elle pourra procéder à une grandiloquente évaluation et d’élogieux commentaires.)

Cela ne veut pas dire qu’il faut se décourager. De nouveaux garde-fous seront inventés par les sites les plus exposés. Ces garde-fous finiront, probablement eux aussi par être contournés. À cela, rien de préoccupant, c’est ainsi que progresse Internet depuis toujours. C’est de cette façon que, pas à pas, « gruger » deviendra de plus en plus complexe*. (*tout du moins pour les sites soucieux de leur e-reputation et de l’importance de la qualité des commentaires clients qu’ils affichent)

Identifier les faux commentaires

Enquête du site The Hustle sur les faux avis sur Amazon en 2015. The Hustle

Dans la situation actuelle, les entreprises peuvent encore progresser. Cela ne signifie pas que l’usager soit exempt de sa part de responsabilité. Il est utile qu’il apprenne de son côté à distinguer le vrai du faux.

Pour les produits de la plateforme Amazon, Enrique Moreira propose ainsi six conseils pour identifier un faux commentaire, il précise que l’usager peut également recourir à des sites dédiés qui se sont emparés de ce phénomène pour l’aider à y voir clair :

« Avec le développement des avis frauduleux, des sites spécialisés dans l’analyse des sites de vente en ligne ont mis en place des outils pour aider les utilisateurs à s’y repérer. C’est le cas de « ReviewMeta » ou encore Fakespot. Il vous suffit de copier le lien du produit dans l’espace prévu à cet effet et un algorithme analyse l’ensemble des commentaires qui y sont liés. Il fait alors ressortir les commentaires les plus fiables et ceux qu’il vaut mieux éviter. Encore une fois, la machine n’est pas infaillible, mais elle peut, dans ce cas précis, aider un peu à défricher le vrai du faux. »

Un peu de bon sens

Dispositif de veille d’usagers de Trip Advisor contre les avis frauduleux des hôtels. Trip Advisor, CC BY-NC-ND

Internet est plus jeune qu’il n’y paraît. Il évolue continuellement avec les pratiques bonnes et mauvaises qui accompagnent son évolution. Chaque jour Internet apportent de nouveaux défis à relever tant par les entreprises que par les utilisateurs. De nombreuses pistes restent à explorer pour lutter contre les « fake-reviews ». Des pistes autres qu’une énième loi et/ou organismes dédiés, qui, si l’on s’en réfère aux expériences passées posent questionnement et apparaissent moins efficace que la pédagogie. Pourquoi, par exemple, les entreprises concernées n’intégreraient-elles pas sur leur propre site les outils du type de ceux développés par « ReviewMeta » ou « Fakespot » ? Ces outils seraient à même d’assister les modérateurs dans leur tâche difficile, de crédibiliser la plateforme, de décourager les falsificateurs. C’est là, une piste parmi d’autres.

C’est donc aussi à nous, usagers, de faire preuve de bon sens. Dans le doute, il ne faut pas hésiter à recourir à ces outils. De cultiver un bon sens de paysan du net. Il n’y pas de honte à se comporter comme un « Saint Thomas » des commentaires postés sur Internet. Alors seulement, une fois la fiabilité des commentaires dûment testée, se fier alors ce que l’on voit.

les richesses botaniques de la Drôme

mille-feuille

mille-feuille

Soirée à thème du VENDREDI 26 JANVIER 2018 : les richesses botaniques de la Drôme

Nouvelle soirée à thème, nous vous invitons à venir découvrir (ou redécouvrir) les richesses botaniques de la Drôme à travers un diaporama, en compagnie de Blandine de Montmorillon, botaniste et éducatrice à l’environnement.

 

Le temps d’une soirée et de quelques images, partons à la découverte de l’incroyable diversité végétale de notre département, avec sa mosaïque de milieux variés, ses familles emblématiques comme les Orchidéees, ses modes de vie insolites, ou encore l’entraide vitale entre animaux et végétaux.

 

Rendez-vous à 20h30 au centre Rural d’Animation (CRA) de Grâne.
Participation libre, tisane et petits gâteaux pour clôturer la soirée.
N’hésitez pas à faire connaître autour de vous !

 

Et reconnaissez-vous cette fleur rare et protégée ?