Le train, grand oublié de la transition énergétique ?

Depuis septembre dernier, l’actualité de la politique des transports et du ferroviaire est chargée : Assises de la mobilitérapport du Conseil d’orientation des infrastructures, préparation de la loi d’orientation des mobilités, rapport Spinettaréforme ferroviaire… sans oublier le long conflit opposant les cheminots de la SNCF au gouvernement.

L’ensemble des évolutions qui en découleront auront un impact à long terme sur les infrastructures de transport et l’aménagement du territoire.

Mais ni les lois en discussion, ni le rapport Spinetta sur « L’avenir du transport ferroviaire » ne s’interrogent vraiment sur la place que devrait occuper le train dans un monde décarboné et aux ressources énergétiques de plus en plus contraintes.

8 à 20 fois moins d’émissions de CO2 que la voiture

Et pourtant, le train apparaît comme un bon élève concernant les émissions de CO2. En effet, alors que le transport ferroviaire représente environ 10 % du trafic de voyageurs et de marchandises, il n’est responsable que de 1,6 % des consommations d’énergie et de 0,4 % des émissions de CO2 des transports.

À quoi cela est-il dû ? À une meilleure efficacité énergétique du mode ferroviaire par unité de marchandise ou par passager transporté, et à un mix énergétique peu émetteur de CO2.

Le transport par rail est en effet plus efficace et les trajets sont mutualisés : les trains de passagers en France transportent en moyenne 230 passagers ; contre 1,5 pour les voitures et une vingtaine de personnes pour les transports collectifs routiers.

De plus, bien que seule la moitié du réseau ferré soit électrifiée, il s’agit de la partie du réseau la plus utilisée : plus de 80 % des trains y circulent, représentant plus de 90 % des kilomètres parcourus par les voyageurs.

En moyenne, les émissions des trains opérés par la SNCF sont de l’ordre de 10 grammes de CO2 par kilomètre parcouru par voyageur, variant de 3,2g pour les TGV à quasiment 30g pour le TER moyen. Ceci est dû notamment aux différences en termes de taux de remplissage et d’énergie utilisée.

Ces valeurs sont à comparer avec des émissions de 85 à 205g de CO2 pour la voiture particulière, selon le nombre de passagers et les types de parcours.

Le train émet donc de 8 à 20 fois moins de CO2 que la voiture. Cet ordre de grandeur est également valable sur la comparaison entre transport de marchandises par train ou par poids lourds.

Émissions de CO₂ par kilomètre parcouru de différents modes de transport selon le type de trajet. ADEMEAuthor provided

La neutralité carbone d’ici 2050

Le ferroviaire est donc aujourd’hui peu émetteur comparé aux autres modes de transport. Et la place qu’il pourra jouer à l’avenir dans la transition énergétique doit être jugée au regard des objectifs très ambitieux que la France s’est fixée sur la réduction des émissions de gaz à effet de serre.

Le « plan climat » présenté en juillet 2017 vise désormais à atteindre la neutralité carbone en 2050. Une baisse des émissions au-delà des -75 % prévus par l’objectif de Facteur 4 est donc nécessaire afin que les émissions restantes soient compensées par du captage de CO2, via la séquestration du carbone par les sols et les forêts.

En 2016, la comparaison de 29 scénarios faisait apparaître un rôle fortement croissant du transport ferroviaire.

Pour illustrer cette tendance plus en détails, quatre études récentes permettent de mettre en évidence certains éléments structurants : l’étude réalisée à la demande du Commissariat général au développement durable (CGDD) et publiée en 2016, l’actualisation des visions de l’Ademe de 2017, le scénario négaWatt de 2017 ; et les scénarios de l’Institut du développement durable et des relations internationales (IDDRI) sur la mobilité des voyageurs en 2017.

Une place grandissante dans le futur ?

Le développement du transport ferroviaire dans ces scénarios peut se juger au moins sur deux critères, aussi bien pour les voyageurs que pour les marchandises : la croissance des trafics (mesurés en voyageurs.km pour les voyageurs et en tonnes.km pour les marchandises) et l’évolution de la part modale du train dans l’ensemble des modes de transport (chiffres en gras dans le tableau ci-dessous).

Comparaison des trafics et des parts modales du ferroviaire dans les 4 publications citées. Author provided (No reuse)

Concernant l’évolution des trafics, tous les scénarios voient une croissance du ferroviaire, de 23 à 102 % pour les voyageurs et de 68 à 263 % pour les marchandises. En fonction des scénarios, cette augmentation peut provenir simplement d’une augmentation de la demande de transport ; dans d’autres, elle s’explique également par une forte progression des parts modales.

C’est le cas pour les scénarios négaWatt et Ademe qui prévoient une progression des parts modales d’environ 10 % à 25 %, tant pour les voyageurs que pour les marchandises. Ces fortes hausses des parts modales du ferroviaire impliquent nécessairement un maillage important du réseau ferré sur le territoire pour capter des parts modales aux modes routiers.

De tels scénarios invitent ainsi à envisager sous un jour nouveau l’avenir des « petites lignes » régionales, qui devraient être développées et rendues plus attractives, notamment via l’amélioration de leur qualité de service et de leur fréquence, en organisant leur sortie progressive du diesel (électrification et train hybride, hydrogène ou gaz) ; ou encore par le développement de l’intermodalité train-vélo.

Cependant, tous les scénarios ne montrent pas une progression importante des parts modales : comme l’illustre le scénario TECH-first, les prévisions misant beaucoup sur la technologie ont tendance à se reposer essentiellement sur l’efficacité énergétique et les changements d’énergie pour baisser les émissions.

C’est aussi le parti pris des scénarios du CGDD qui semblent illustrer une politique des transports actuellement fortement focalisée sur la technologie, et qui manque d’ambition sur les leviers importants que sont la modération de la demande ou le report modal.

Comparaison des parts modales du ferroviaire pour les voyageurs et les marchandises. Author provided (No reuse)

Cinq leviers à activer

Le développement du ferroviaire apparaît comme une des évolutions nécessaires pour tendre vers une France neutre en carbone. Non suffisant à lui seul, il s’inscrit parmi les cinq leviers de la transition énergétique dans les transports.

Il doit également s’accompagner d’une modération de la demande (urbanisme durable, réduction des distances, consommations locales), d’un report modal global (vers le vélo, la marche, les transports en commun), d’une hausse du taux de remplissage des véhicules (covoiturage, optimisation de la logistique), d’une amélioration de l’efficacité des véhicules (baisse de leur poids, des vitesses sur les routes, progrès technique) et baisse de l’intensité carbone de l’énergie (via le biogaz, l’électricité, les agrocarburants ou encore l’hydrogène).

Le manque d’ambition des scénarios du CGDD, et donc de la politique actuelle des transports, sur les premiers leviers s’illustre dans les résultats finaux des réductions d’émissions de CO2. En effet, la décarbonation du secteur est quasi-complète pour négaWatt et la réduction est de 92 % pour l’Ademe, dépassant largement l’objectif de -70 %. Au contraire, le scénario SNBC n’atteint que 63 % de réduction et n’est pas compatible avec l’objectif de Facteur 4, et encore moins avec la neutralité carbone.

Les scénarios atteignant des réductions compatibles avec la neutralité montrent que nous ne pourrons nous passer d’aucun des cinq leviers ; c’est bien leur combinaison et leur complémentarité qui permettront au secteur des transports de faire sa part.

Alors que les ambitions du « plan climat » tardent à se matérialiser à la hauteur des enjeux dans les politiques sectorielles, et au moment de débats intenses sur l’avenir du ferroviaire, il serait utile de s’interroger davantage sur la place du ferroviaire dans l’atteinte des objectifs climatiques et plus globalement dans les enjeux énergétiques de long terme.

L’important

@Limportant_fr

Autriche : les trains fonctionnent déjà à l’énergie solaire

Ces orchestres qui donnent du souffle aux universités

A travers des concerts ouverts au grand public, les orchestres universitaires veulent démocratiser la musique classique. Joël Hellenbrand/Orchestre universitaire de Strasbourg – ESOFAuthor provided

Du 6 au 10 juin 2018, c’est une sorte de Fête de la musique avant l’heure qui s’est déroulée à Strasbourg. Venus de Suède, de Suisse, d’Allemagne ou encore d’Italie, près de 500 jeunes musiciens s’y sont retrouvés pour la quatrième édition du festival des orchestres universitaires européens (ESOF). En quatre jours, ils ont donné neuf concerts, partageant des œuvres du patrimoine commun, de Wagner et Sibelius à Debussy, en passant par Brahms ou Prokoviev. Un programme qui a fait quasiment salle comble chaque jour, avec près de 5000 spectateurs au total, issus de toutes les générations.

A l’heure où les orchestres s’interrogent sur le renouvellement de leur audience – particulièrement en France, voilà qui dément les préjugés et montre que le vieillissement des publics n’est pas une fatalité. Mais quelle place la pratique symphonique tient-elle vraiment pour les étudiants ? Peut-elle jouer un rôle fédérateur dans la vie d’un établissement ou d’une ville ? En remontant l’histoire de la musique et en analysant le fonctionnement d’un orchestre universitaire, nous trouvons quelques éléments de réponse.

Un modèle « citoyen » en héritage

Lorsqu’elles créent des orchestres académiques, les universités cherchent-elles à se doter d’ambassadeurs capables de les représenter lors de manifestations internationales, comme c’était le cas début juin à Strasbourg ? La réalité des intentions est bien plus complexe, ne serait-ce que par l’éclatement des établissements en différentes facultés ou disciplines. Mais les orchestres symphoniques ont un indéniable potentiel de porte-paroles. Il suffit de jeter un œil sur leur histoire pour mieux le percevoir.

Faisant dialoguer les quatre familles d’instruments – cordes, bois, vents et percussions, le genre symphonique est défini à ses origines comme « l’expression du sentiment d’une foule tout entière » (Koch, Musikalisches Lexikon, 1802). De quoi s’imposer rapidement comme l’image d’une république citoyenne, dans laquelle chaque voix prête son concours à l’édifice collectif. Beethoven a concrétisé cet idéal dans sa Neuvième Symphonie, dont le choral final n’est pas devenu par hasard l’hymne européen. Plus généralement, le XIXe siècle est celui de la naissance des nations modernes, fondées sur un modèle parlementaire dans lequel la loi émane des citoyens.

Cet idéal promu par les Lumières a très tôt été expérimenté en musique. C’est ainsi que le genre symphonique connaît ses premiers développements à Mannheim (Allemagne), dans les années 1750, puis sous la plume de Haydn (1732-1809), Mozart (1756-1791) et Beethoven (1770-1827), à Vienne (Autriche). L’adhésion politique des trois grands classiques aux idées de la franc-maçonnerie et à celles, très proches, de la Révolution française les a confortés dans leur volonté de créer une forme musicale mettant sur un même plan les différents pupitres de musiciens et qui serait l’émanation d’une expression collective.

Les orchestres universitaires réunissent des étudiants d’horizons différents. Joël Hellenbrand/Orchestre universitaire de Strasbourg — ESOFAuthor provided

Un vecteur d’intégration

Il serait tentant de penser que les universités ont conçu les orchestres avec un but premier, celui de traduire en musique l’identité de leur communauté étudiante. Mais l’existence de ces formations artistiques dans l’enseignement supérieur n’est en fait pas si ancienne. La composition par Brahms de son Ouverture académique en 1880 peut induire en erreur. Car si, à leur création, les conservatoires ont rapidement intégré les cours de pratique collective et promu la constitution d’orchestres symphoniques comme d’ensembles de musique de chambre, cela n’a généralement pas été le cas des universités, à de rares exceptions près.

A Berlin, la Friedrich-Wilhelms-Universität (aïeule de l’actuelle Humboldt-Universität) fait figure de pionnière, en 1907. Ailleurs, les orchestres universitaires modernes voient le jour bien plus tardivement : en 1954 à Leipzig, en 1968 à Munich, en 1993 à Vienne, 1961 à Strasbourg. Alors que se profile une nouvelle ère, celle de la massification de l’enseignement supérieur, ces créations sont portées par une forte demande étudiante : celle d’une pratique et de projets communs. Comme ils constituent évidemment un vecteur d’intégration dans la communauté universitaire, ils ont rapidement reçu le soutien des établissements eux-mêmes. L’histoire de l ‘Orchestre universitaire de Strasbourg illustre cette évolution.

Dès sa création en 1961, celui-ci réunit les étudiants de différentes facultés de l’université. Passant au statut associatif en 1973, il inscrit au cœur de ses missions son rôle d’intégrateur social. À chaque rentrée, une partie de ses effectifs se renouvelant, l’orchestre procède en effet au recrutement d’amateurs dans toutes les filières d’études et tous les services administratifs. Pour nombre de participants, c’est l’occasion de poursuivre une activité culturelle qui les passionne, tout en tissant des liens dans un établissement qu’ils découvrent et une ville où, souvent, ils viennent de s’installer.

La constitution en association permet une certaine indépendance. L’université laisse alors l’orchestre libre de sa ligne artistique, et joue surtout un rôle de soutien financier, et logistique. Ce sont les membres du comité, élus par l’assemblée générale, et le directeur musical qui définissent les projets de chaque saison, alignée sur le calendrier universitaire. Mais d’autres orchestres ont fait le choix d’une administration directe de leur université : c’est le cas du Royal Academic Orchestra d’Uppsala, qui était présent du 6 au 10 juin à Strasbourg. Même configuration pour le Chœur & Orchestre de Sorbonne Université qui joue d’ailleurs un rôle pédagogique plus officiel, avec des sessions d’orchestre intégrées aux cursus.

Un répertoire à démocratiser

Au-delà de la cohésion qu’ils peuvent créer, l’autre ambition des orchestres universitaires, c’est bien sûr la promotion du répertoire symphonique. Par des concerts à entrée gratuite, ou à bas tarifs, l’Orchestre Universitaire de Strasbourg espère ainsi mettre la culture classique à la portée de tous, étudiants et grand public. Une mission d’accessibilité comparable à celle dont l’université est investie pour l’accès à la connaissance.

Par ailleurs, la musique contribue à ouvrir l’université sur son environnement proche et international. En donnant chaque année des concerts au Palais universitaire, l’Orchestre Universitaire de Strasbourg invite le public à pousser les portes de ce joyau de son campus et à prendre place dans un lieu emblématique qui accueille régulièrement séminaires et colloques. Par des échanges étudiants et des tournées dans d’autres pays – par exemple en Chine en 2001, ou aux Pays-Bas en 2014, il contribue aussi au rayonnement de l’établissement.

En accueillant en 2018 la première itinérance de l’European Student Orchestra Festival, lancé en 2015 à Leuven (Louvain) en Belgique, il montre également que la pratique musicale étudiante ne s’inscrit plus seulement dans un établissement mais dans un réseau plus vaste. Un effort soutenu par la fondation en 2012, à l’Université d’Uppsala, de l’European Network of University Orchestras. Alors que l’on fête les 20 ans de la Déclaration de la Sorbonne, qui initiait la construction d’un espace européen de l’enseignement supérieur, ces partenariats montrent que la musique classique est un terrain d’échanges. Et que, même plus de deux cents ans après sa création, le genre symphonique n’a rien perdu de son dynamisme.

Le déclin des droits de l’Homme, un mouvement qui vient de loin

Au siège des Nations unies à Genève, la salle où se réunit le Conseil des droits de l’Homme. Ludovic Courtès/WikimediaCC BY-SA

L’abandon par les États-Unis de leur participation au comité des Droits de l’Homme des Nations-Unies met au grand jour une évolution discrète observable depuis quelques années. Que Donald Trump suive en cela les idéologues les plus durs de son courant (Steve Bannon est resté dans l’ombre), qu’il s’affranchisse de toute contrainte légale opposable au niveau internationale dans l’optique de sa politique migratoire et, plus encore sans doute, prive d’une gamme de possibilité de recours son opposition interne est évident. Mais les États-Unis ne font finalement que prendre un train déjà lancé.

Les promesses non tenues des années 2000

Le recul progressif de l’importance de la Déclaration universelle s’observe en fait au moins depuis les années 80 et la consolidation politique des ex-colonies occidentales. Il s’est renforcé au fur et à mesure de la perte d’hégémonie de l’Occident sur le corpus de normes du droit international. L’émergence économique (et son instrumentalisation politique) de la Chine et d’autres a accéléré le mouvement.

Pour preuve, l’évolution de la formulation des stratégies du développement au sein même des Nations unies. Lors du lancement des Objectifs du Millénaire pour le Développement (OMD), en 2000, ceux-ci sont affichés comme ayant comme conditions et comme but le renforcement des droits humains. La mention figure dans tous les paragraphes, rappelant que le développement ne peut pas être qu’économique et que sa réalisation implique la mise en œuvre des principes de la Déclaration Universelle.

Les années 2000 sont une époque de promesses. Les émergents sont perçus comme convergents vers les standards européens, et beaucoup pense que cette convergence dans les modes de vie et de consommation initie une démocratisation généralisée.

Le réveil progressif d’une vieille critique

Les textes finaux du programme sont d’une autre nature. Lors de la clôture du programme en 2015, et dans les textes annonçant la stratégie suivante (affichant une priorité plus grande pour le développement responsable), les droits de l’Homme se font plus discrets. En cause ? L’influence croissante de la Chine, de la Russie, de l’Inde et des coalitions de pays du Sud dans les négociations, la prise de leadership de la CNUCED (plus influencée par les Sud) sur le PNUD dans l’élaboration des stratégies, et le réveil d’une vieille critique quant à la Déclaration universelle : celle de véhiculer une vision occidentale colonialiste, ignorante des réalités et des valeurs sociales en dehors de la vieille Europe et de l’Amérique du Nord.

Ce n’est d’ailleurs pas tant le principe des droits de l’Homme qui est rejeté que sa formulation dans la Déclaration universelle. L’Organisation de la Conférence islamique en propose, dès les années 70, une autre version, et le Mali revendique dans les années 2000 l’antériorité des sociétés africaines dans la définition d’une philosophie des Droits de l’homme, se basant sur un texte du XVème siècle dont on ignore s’il a eu, à l’époque, une réelle influence.

Dans la même période, Monique Ibundo, ministre du Développement du Burkina Faso, affirme dans une interview, en février 2007, que « le premier des droits de l’Homme, c’est le développement », rejetant en bloc toute idée d’une conditionnalité de l’aide (néanmoins plus ou moins mise en œuvre par les donateurs).

L’usure du temps

L’affaiblissement de la norme des droits de l’Homme n’est cependant pas uniquement le fruit d’une géopolitique des normes dans le champ de laquelle se joue aussi la compétition pour le leadership mondial, mais dans sa relative usure avec le temps.

Ecrit en réponse aux abus de l’absolutisme monarchique, le texte est aujourd’hui interprété à l’aune exclusive de l’individualisme moderne, déviant de plus en plus de sa signification première. Celle-ci, rappelons-le, cherche à fonder les droits des communautés de colons américains face à la Grande-Bretagne. Etendue au-delà de ses intentions initiales, mobilisée par tout un ensemble d’organisations dans un processus de recours croissant à la justice en son nom, la charte est devenue envahissante et le consensus qu’elle incarnait s’est perdu parmi les multiples interprétations particulières.

L’ambassadrice des Etats-Unis à l’ONU, Nikki Haley, le 14 mars 2018 au Conseil de sécurité. Spencer Platt/AFP

L’abandon (sans doute momentanée) par les États-Unis d’un comité chargé de mettre en œuvre un texte dont ils sont l’origine marque aussi ce constat d’une dérive. Ne simplifions pas, quitter le comité des droits de l’Homme de l’ONU n’est pas abandonner toute prétention à incarner les principes du texte. Cela correspond totalement à la position affichée par Donald Trump vis-à-vis du système international.

D’une part, il s’agit de redire qu’il souhaite un retour à une Amérique idéalisée plus proche de ses origines (et le texte était destiné à asseoir les droits de petites communautés plutôt rurales isolées à définir leurs propres règles) ; d’autre part, il réaffirme son souci de ne pas soumettre les Américains à des règles établies ailleurs (réaffirmation de souveraineté).

La conséquence sera sans nul doute une nouvelle dévaluation de l’image internationale des États-Unis. Cela ne changera pas grand-chose dans de nombreuses parties du monde, pour qui ce pays n’incarne plus depuis longtemps les principes qu’il affiche.

C’est même la fin d’une politique de contrôle des activités du comité par les États-Unis, qui laisse le champ libre à d’autres pour reprendre le flambeau. C’est plus dommageable vis-à-vis des opinions européennes, qui dans l’ensemble associent l’Occident aux valeurs de la déclaration.

En Europe, prudence

Alors l’Europe prendra-t-elle le relais dans la défense du projet onusien de diffusion des droits de l’Homme ? Rien n’est moins sûr. Les démocraties européennes se heurtent à des opinions publiques ressentant leur société comme étant en crise profonde, leurs États comme impuissants, et leurs droits à choisir leurs valeurs bafouées, entre autre sous la triple injonction de se plier aux normes européennes, à celles de la mondialisation, et à s’ouvrir à une vague migratoire sans précédent qui challengent leurs consensus identitaires et sociaux.

Le sentiment que les principes doivent céder la priorité à l’action et à l’efficacité pour répondre aux doutes et problèmes se répand. Les populismes prospèrent, et peu d’entre eux sont compatibles avec les principes de la Déclaration tels qu’on les conçoit aujourd’hui.

Le véritable défi, pour les Nations unies comme pour les démocraties, ne serait-il pas, dès lors, non pas de défendre coûte que coûte les principes des droits de l’Homme, que de re-questionner leur signification, de les adapter aux contingences contemporaines, de reconstruire un consensus sur leur sens pour le monde moderne et celui à venir.

L’ambivalence du cannabidiol, produit récréatif ou thérapeutique ?

 Auteur

Depuis quelques mois, fleurissent en France des boutiques de vente de dérivés du cannabiset plus particulièrement des produits riches en cannabidiol, le CBD. Les vendeurs l’appellent le « cannabis légal » : une formule pour dire le faux, lourde de sens et de conséquences. En effet, cette dénomination se veut rassurante pour les usagers mais incite probablement aussi à la consommation de ces produits. Elle laisse croire qu’il y aurait un cannabis légal non dangereux et un cannabis illégal. Vanté pour son absence de risque de dépendance, en oubliant ou en méconnaissant ses effets psychoactifs, le cannabidiol vendu dans ces boutiques « soulage, apaise mais ne soigne pas », un peu « comme de la camomille » rapporte une vendeuse d’une de ces boutiques.

Au-delà des questions réglementaires, récemment clarifiées par les autorités, et des intérêts commerciaux évidents, il est utile de faire le point sur ce que la science sait du CBD et permettre ainsi aux usagers de faire un choix éclairé.

Dérivé psychoactif de Cannabis sativa

La molécule du CBD en 3D.Gotgot44/WikimediaCC BY-SA

Il existe plus de 100 composés cannabinoïdes dans un plant de Cannabis sativa. La molécule chimique dite cannabidiol ou CBD, identifiée en 1963, est la deuxième dans la plante en termes de concentration après le delta-9-tetrahydrocannabinol ou THC. On peut l’obtenir par extraction des fleurs mais aussi par synthèse, connue depuis 1969. Le mode d’action du cannabidiol n’est pas encore parfaitement connu mais il semble être différent du THC. Il module l’action dans le cerveau de nos propres substances endocannabinoïdes. Il va aussi interagir avec des systèmes impliqués dans la transmission de la douleur et activer certains récepteurs comme ceux de la sérotonine impliqués dans l’anxiété et l’humeur.

Son absorption par voie orale semble très mauvaise, d’où la multiplication des formes fumées ou « vapotées », qui permettent par ailleurs un effet plus rapide. Tout comme le THC, le CBD est très lipophile : il s’accumule dans les tissus gras, au premier plan desquels le cerveau. Ainsi, il faut être vigilant sur le risque d’accumulation de la substance dans le système nerveux, d’autant plus que son élimination est lente. Il peut, de même, modifier l’élimination de certains médicaments associés, avec des risques d’accumulation et de toxicité.

Le cannabidiol, avec ou sans THC

La cannabidiol n’est pas inscrit en France sur les listes des stupéfiants, des psychotropes ou des substances vénéneuses. Face à la multiplication des informations contradictoires, et souvent erronées, sur la réglementation du cannabis ou de certaines molécules cannabinoïdes en France, La Mission Interministérielle de Lutte contre les Drogues et les Conduites Addictives (MILDECA) a publié une mise au point sur la réglementation relative au cannabidiol. Il y est rappelé que tout produit contenant du cannabidiol extrait de la plante de cannabis est interdit. Sauf si celui-ci ne contient pas de THC, est extrait uniquement des graines et des fibres des plants de cannabis autorisés par le code de santé publique (feuilles et fleurs interdites), ne revendique aucune vertu thérapeutique et ne font pas l’objet d’une publicité sur de tels arguments. Le taux maximal de 0,2 % de THC très souvent évoqué par les vendeurs de CBD ne s’applique pas aux produits issus de la transformation des plants de cannabis autorisés. Or, des contrôles réalisés dans certains produits présentés comme contenant du CBD ont révélé la présence de THC.

Cannabis sativa. Dessin de Koehler/Wikipedia

L’Organisation Mondiale de la Santé doit analyser plus en détails la question du cannabidiol et des dérivés du cannabis lors de la prochaine réunion de son comité d’experts en pharmacodépendance. Elle s’était déjà prononcée dans un rapport préliminaire en novembre 2017, ne recommandant ni le classement du cannabidiol, ni son usage à des fins médicales.

Quelles preuves d’efficacité thérapeutique ?

Le site international clinicaltrial.gov qui recense les études cliniques sur les médicaments rapporte actuellement 130 études terminées, en cours, ou à venir impliquant l’évaluation de l’effet du cannabidiol. L’intérêt médical du cannabidiol seul est essentiellement étudié dans des maladies neurologiques, au premier rang desquelles l’épilepsie, mais aussi dans la maladie de Parkinson, les troubles du sommeil et la douleur chronique. Le niveau de preuve le plus élevé concerne des formes réfractaires d’épilepsie de l’enfant : ainsi, le cannabidiol devrait être le premier médicament dérivé du cannabis commercialisé aux USA. Une demande d’autorisation de mise sur le marché est aussi en cours en Europe. Les études portant sur la douleur et le sommeil n’ont pas permis pour l’instant de conclure à un réel intérêt du cannabidiol seul.

Le cannabidiol est aussi très étudié dans des maladies psychiques, comme l’anxiété avec des résultats contradictoires, mais aussi dans la schizophrénie. Cette dernière indication, compte tenu de résultats cliniques encourageants, fait l’objet d’un programme de recherche d’un laboratoire pharmaceutique néerlandais pour une forme orale de cannabidiol (Arvisol)en première phase d’essai chez l’humain. Les autres pathologies pour lesquelles les preuves d’efficacité sont insuffisantes mais font l’objet de travaux de recherche sont par exemple la dépendance au cannabis ou à l’alcool, la maladie de Parkinson, le diabète, les troubles de l’humeur et les maladies intestinales inflammatoires.

Effets indésirables parfois sévères

Bien que les données scientifiques et médicales ne rapportent pas un risque caractérisé d’abus et de dépendance au cannabidiol, il n’en reste pas moins une substance psychoactive pouvant induire des effets indésirables, comme l’avait déjà souligné en juin 2015 la commission des stupéfiants et psychotropes de l’ANSM.

Le recueil obligatoire des effets indésirables lors des essais cliniques, notamment dans les études sur l’épilepsie de l’enfant, permet de bien décrire ces effets négatifs à des posologies quotidiennes de 5 à 20 mg/kg. Trois classes d’effets ont ainsi été rapportées. Plus de de la moitié des patients ont présentés une altération du fonctionnement cérébral avec majoritairement de la somnolence voire des états léthargiques. Des troubles digestifs de type diarrhées et perte d’appétit ont été déclarés par 17 % des patients traités, de même que la survenue d’infections notamment respiratoires et plus rarement une atteinte du foie (6 %).

Compte tenu des effets observés sur la vigilance des usagers de produits à base de cannabidiol, doit aussi se poser la question de la conduite automobile, voire de l’aptitude au travail pour certains postes. Le cannabidiol n’est pas détecté par les tests salivaires effectués par les forces de l’ordre qui ne recherchent que le delta-9-THC. Néanmoins, si des produits contiennent même de faibles quantités de THC, ils pourraient, en cas de consommation régulière, rendre positifs ces tests.

Usage récréatif ou thérapeutique ?

La frontière est parfois ténue entre le soulagement et le plaisir, le thérapeutique et le récréatif. La question d’un possible usage à finalité plus récréative que thérapeutique procurant une sensation agréable, un plaisir, comme d’autres produits, au premier rang desquels l’alcool, ne doit pas être exclue, voire reconnue. L’opportunisme commercial des vendeurs de ce faux « cannabis légal » dont la promotion se fait sous couvert d’allégations thérapeutiques non démontrées et interdites pourrait ne pas être sans conséquences pour les patients. Agnès Buzyn, ministre de la santé, a d’ailleurs annoncé dimanche 17 juin son souhait de mettre fin à ce commerce. Aussitôt, la confédération des buralistes français a dit vouloir devenir le « drugstore de la vie des Français » et se positionne pour la vente du cannabidiol (on suppose récréatif) si la réglementation le permet.

L’emballement commercial et médiatique entretient la confusion entre l’usage de cannabis à visée récréative et une utilisation thérapeutique médicalement sécurisée. Il ne doit pas freiner la réflexion sérieusement lancée depuis quelques semaines en France, et reprise par la ministre de la santé, sur la nécessité d’expérimenter l’intérêt de préparations pharmaceutiques à base de cannabis dans certaines indications comme la douleur chronique, la sclérose en plaque ou les nausées induites par les chimiothérapies anticancéreuses.

  Commerce international : le multilatéralisme était mort-vivant, Trump l’achève

Le dernier sommet du G7, ou plutôt du G8-1, puisque la Russie en est exclue depuis quelques années, suite à son implication dans le conflit ukrainien, s’est réuni tout récemment au Québec. Donald Trump y a tenu toutes ses promesses en matière de coups d’éclats. On avait déjà eu droit à ses hésitations savamment orchestrées à la veille de l’événement, puis à la désormais célèbre « photo souvenir » le montrant fermement en opposition avec la Chancelière allemande. Sa volte-face sur la signature du communiqué final a achevé de torpiller un « accord » de façade qui de toute façon n’aurait guère tenu dans le temps. Seul point d’accord entre les membres de ce G« 6+1 » : le multilatéralisme commercial est en profonde crise. Mais est-ce une nouveauté ?

Un multilatéralisme mal en point

Du côté des six, les regards se sont naturellement portés sur la nouvelle politique commerciale américaine. Ils y voient l’origine des difficultés actuelles, et pas uniquement au niveau commercial. Côté « plus un », en revanche, il s’est agi de dénoncer l’instrumentalisation des institutions multilatérales comme l’OMC. Selon les États-Unis, certains États membres ne chercheraient plus à négocier des accords durables, mais uniquement à obtenir par le biais du mécanisme de règlement des différends ce qu’ils n’ont pu obtenir auparavant par la négociation. Les propositions américaines visent d’ailleurs à éviter cette situation, déjà clairement identifiée par les spécialistes du multilatéralisme. Ce qui ne les empêche pas de faire exactement la même chose actuellement avec la mise en place des tarifs sur l’acier et l’aluminium…

Tout ceci donne l’impression qu’avant la victoire de Donald Trump, la coopération internationale multilatérale était non seulement encore bien vivante, mais qu’elle demeurait également efficace pour réguler la mondialisation et la hausse inévitable des interdépendances qu’elle a engendrée. Or, rien n’est moins sûr. Un rapide retour sur la notion même de multilatéralisme montre que ce dernier était déjà bien mal en point depuis au moins une décennie.

Cela ne signifie pas pour autant que la responsabilité des États-Unis dans la situation actuelle est à minorer : en effet, ce nouveau bilatéralisme américain pourrait porter le coup de grâce au multilatéralisme.

Une initiative américaine reposant sur cinq piliers

En matière commerciale, on fait remonter l’avènement de la logique multilatérale au changement de nature de la politique commerciale des États-Unis, qui a débuté dans les années 1930. Depuis la fin de la Seconde Guerre Mondiale, l’ordre commercial mondial a été très fortement influencé par la volonté américaine d’appuyer la libéralisation commerciale sur le droit international et sur des institutions le garantissant.

Bien plus que sur le fait de « coordonner les politiques nationales dans des groupes de trois États ou plus », le multilatéralisme s’appuie sur des principes universels, formant cinq piliers qui soutiennent l’OMC encore aujourd’hui :

  • principe de non-discrimination : cette non-discrimination est non seulement externe (clause dite de la « nation la plus favorisée » : une faveur accordée à un pays doit l’être à tous les autres membres de l’OMC), mais aussi interne (clause dite du « traitement national » : dans un pays, le traitement des produits étrangers et nationaux doit être identique). Cette non-discrimination implique l’égalité de traitement entre tous les partenaires commerciaux et ne supporte que quelques exceptions dans le cadre de l’OMC, comme la possibilité de signer des accords de commerce régionaux ;
  • règle de la transparence : celle-ci impose à chaque État de rendre publiques toutes les mesures relatives à sa politique commerciale, afin d’aider ses partenaires commerciaux à mieux évaluer leur impact.
  • principe de réciprocité tarifaire : sa mise en place avait pour but d’approfondir la libéralisation commerciale de deux façons. Par le jeu des concessions tarifaires réciproques tout d’abord, et par de possibles mesures de rétorsion ensuite, dans le cas d’une éventuelle hausse unilatérale de tarifs douaniers. Ce principe inscrit dans le droit international la possibilité d’augmenter les tarifs en contrepartie d’une politique commerciale non coopérative ;
  • principe de flexibilité : les fondateurs de l’ordre commercial d’après-guerre ont considéré que des exceptions aux trois principes précédents pouvaient se justifier temporairement, pour peu qu’elles soient légitimes. Toute une série d’exceptions, comme les clauses de sauvegarde, existent d’ailleurs en matière commerciale.
  • principe du consensus en matière de décisions : bien qu’à l’OMC les États membres sont censés prendre leurs décisions sur la base d’un vote où chacun d’eux dispose d’une voix et d’une seule, dans les faits la voie consensuelle a toujours été privilégiée.

Ces principes, malgré les difficultés de mise en œuvre et notamment malgré la hausse de mesures non tarifaires comme les quotas ou les subventions à l’exportation, ont été assez efficaces pour faire baisser de manière importante les tarifs douaniers, avant la création de l’OMC, et même après. Mais ils semblent néanmoins de plus en plus difficilement applicables, notamment depuis la crise de 2008. C’est pourquoi l’hypothèse d’une mort clinique du multilatéralisme bien antérieure aux tensions actuelles a émergé.

Le multilatéralisme est un mort-vivant : quelques indices

Plusieurs indices étayent l’idée que le multilatéralisme commercial est, depuis longtemps, une sorte de zombie institutionnel, un corps mort possédant l’apparence de la vie. Le premier est que le nombre d’accords de commerce régionaux (ACR) a littéralement explosé, et ce au moment même où les nombreux accords donnant naissance à l’OMC sont entrés en vigueur, en 1995. Aujourd’hui, 284 ACR sont notifiés à l’OMC. Cette explosion a été accompagnée de l’explosion toute aussi spectaculaire du nombre d’accords bilatéraux d’investissement (plus de 3300 en vigueur aujourd’hui !).

Retour sur vingt ans de multilatéralisme selon l’OMC.

Au-delà de la seule question de leur nombre, la nature de ces accords s’est profondément modifiée avec le temps. Ceux-ci sont désormais en lien avec des dimensions non commerciales de l’activité économique. Ils traitent des questions relatives à la sécurité, aux normes… Ils visent par ailleurs de plus en plus l’interconnexion des économies nationales, via notamment les chaînes de valeur globales, en particulier grâce à la fin des obstacles à l’intérieur des frontières qui visent soit l’harmonisation des règles internes d’un pays à l’autre, soit leur mise en compatibilité (comme les règles sanitaires, les règles d’origine ou voire même les règles sociales). Par exemple, l’accord entre le Canada et l’Union européenne (Accord économique et commercial global) introduit des dispositions permettant la reconnaissance mutuelle des qualifications professionnelles, ce qui est une innovation notable. Le principe de la réciprocité devient dès lors de plus en plus difficile à respecter, tant les négociations se doivent de rentrer dans des détails réglementaires et techniques de plus en plus pointus.

Second indice : l’OMC a de plus en plus de difficultés à faire négocier ses membres en son sein, voire à faire respecter ses principes de base en cas de différend commercial. Cette institution n’est pas supranationale. Elle est pilotée par ses membres (members-driven), et s’ils ne souhaitent pas négocier, il lui est très difficile de les inciter à le faire. Or, depuis 2003, le cycle actuel de négociation (dit cycle de Doha pour le développement) traîne en longueur. Cela est essentiellement lié au fait que les pays du Sud refusent de libéraliser davantage leurs marchés publics si ceux du nord ne jouent pas le jeu en matière agricole.

Plus grave encore, lorsqu’un différend entre deux membres conduit l’un d’eux à obtenir le droit à des représailles tarifaires, il n’est pas rare dans les faits que celles-ci ne soient pas mises en place effectivement, ou tout bonnement qu’il soit quasiment impossible de le faire. Par exemple, les représailles qu’envisage le Canada avant même le résultat du différend qui l’oppose aux États-Unis concernant les sur-tarifs sur l’acier et l’aluminium concernent bien sûr ce secteur, mais aussi des produits comme le papier toilette, le ketchup, ou la moutarde. Les supporters canadiens du mondial de foot russe n’ont qu’à bien se tenir : ils devront payer plus cher pour manger leurs mets préférés devant les matchs à partir du 1er juillet…

Troisième indice : les mutations profondes de l’économie mondiale. Celles-ci expliquent les difficultés rencontrées par l’approche multilatérale. Un énorme rééquilibrage du poids économique et commercial a eu lieu au sein des grandes économies, dû notamment à la montée en puissance de la Chine. Le pays, qui fait de plus en plus peur aux pays riches, pèse désormais 17 % du commerce mondial. Le déploiement de sa nouvelle stratégie (« Made in China 2025 ») s’accompagne d’une volonté de montée en gamme technologique et de renouvellement des routes commerciales, les Nouvelles routes de la soie.

Ces mutations s’expliquent aussi par l’augmentation grandissante des services et du numérique dans les échanges mondiaux, notamment au sein des chaînes de valeur globales que pilotent les grandes firmes transnationales : 60 % des échanges commerciaux sont générées en leur sein. Il ne s’agit pas vraiment de commerce inter-national, et le cadre interétatique devient dès lors moins pertinent pour rendre compatibles toutes les stratégies desdites firmes. On voit ainsi fleurir à la fois le concept de gouvernance globale et des initiatives mêlant autorités publiques et acteurs privés, qui traduisent cette mutation.

Dernier indice suggérant que le multilatéralisme est mort-vivant depuis longtemps : la mondialisation commerciale marque le pas depuis quelques années. S’il devient de moins en moins coûteux d’exporter, il devient de plus en plus coûteux d’exporter loin.

Vers le retour d’un bilatéralisme prédateur ?

La frustration des grandes puissances commerciales peut alors expliquer pourquoi elles ont cherché à passer par la voie bilatérale ou régionale, en négociant puis signant des accords de commerce dont la portée universelle était inexistante a priori. Certains revendiquent d’ailleurs cette méthode pour accélérer le processus de libéralisation commerciale, et ce même si le libre-échange est un échec sur de nombreux points (il protège souvent uniquement les grands pays de la concurrence internationale ; il fragilise les petites économies en cas de crise du fait de la spécialisation qu’il implique ; il fait disparaître dans bien des cas des pans entiers de l’industrie nationale sans permettre à leurs travailleurs de retrouver un emploi aussi rémunérateur).

Cette voie avait ainsi mené à la négociation de méga-accords régionaux comme le Partenariat TransPacifique ou à des accords sectoriels comme celui sur les services. Sur ce point, depuis le début des années 2000, les États-Unis étaient même devenus les leaders incontestés en la matière, en développant des nouvelles générations d’accords commerciaux. Puis est survenue l’élection de Donald Trump, qui a profondément changé la donne.

Vers un commerce international prédateur ?

Il semble de plus en plus clair que Donald Trump cherche à modifier la nature même du bilatéralisme américain. Ce qui, à terme, pourrait définitivement remettre en cause toute coopération internationale commerciale fondée sur l’universalité et le droit (sans présager du sens de cette coopération, que ce soit la poursuite de la libéralisation ou son reflux), deux piliers pourtant fondateurs de la puissance américaine d’après-guerre.

Cette situation n’est pas sans rappeler, hélas, une politique commerciale oubliée par la plupart des analystes de l’économie : celle de l’Allemagne hitlérienne. Ce régime invoquait lui aussi la « réciprocité » avec ses « partenaires » commerciaux, mais dans une logique clairement prédatrice, visant à augmenter sa puissance économique et politique. La coopération internationale passait aussi par des accords monétaires ou d’investissement clairement à l’avantage de l’Allemagne.

Reste à espérer que la Chine, dans sa volonté d’internationalisation du Renmibi, n’ait pas les mêmes intentions que les États-Unis de Trump. On aurait alors une véritable coalition d’intérêts entre les deux premières puissances mondiales, dont l’objet serait de reconstruire un ordre commercial international prédateur, à leur seul avantage.

  Réforme de la PAC : le grand bond en arrière ?

En novembre 2017, manifestation de la Confédération paysanne contre le projet de ferme aux 4 000 vaches. La nouvelle PAC devrait renforcer le phénomène des méga-fermes. Philippe Desmazes/AFPCC BY-NC-ND

Vendredi 1er juin, Phil Hogan, le commissaire européen à l’Agriculture, a présenté les grandes lignes de la réforme de la politique agricole commune (PAC). Un projet qui aura réussi à faire l’unanimité contre lui, si l’on en croit les réactions des principaux acteurs français et notamment du ministre Stéphane Travert.

Le budget européen consacré à l’agriculture – qui représentait le premier budget de l’Union (avec 43 %) – devrait en effet connaître une baisse très sensible, de l’ordre de -15 à 20 %, selon les estimations de nombreux experts. Il passera ainsi de 408 milliards d’euros pour la période 2014-2020 à 365 milliards pour 2021-2027.

Décryptage des enjeux et des conséquences de cette réforme cruciale pour l’avenir de l’agriculture européenne et française.

Un pilier de la construction européenne

Déployée dès 1962, la PAC a constitué l’une des premières réalisations tangibles d’une politique réellement européenne. Ses objectifs initiaux étaient ambitieux : augmentation de la compétitivité, sécurité des approvisionnements, stabilisation des marchés et revenus décents pour les paysans.

La PAC s’est construite autour d’une définition européenne de règles d’orientation de l’agriculture, de respect de l’environnement et des volumes à produire. La politique de quotas agricoles a longtemps symbolisé la dimension interventionniste de cette politique.

Des quotas annuels étaient définis au niveau européen et ventilés ensuite par pays puis par exploitation agricole. Ces mécanismes offraient aux paysans une certaine visibilité et une relative stabilité des prix. Cette régulation européenne qui consistait à encadrer volumes et prix a peu à peu été démantelée et les quotas ont officiellement disparu en 2015. Depuis, les pays et les exploitations se trouvent en prise directe et en concurrence frontale pour trouver des débouchés à leurs produits agricoles.

Dans les faits, la PAC est depuis le départ articulée autour de deux piliers essentiels. Le premier concerne les aides directes aux agriculteurs et représente les trois quarts du budget européen. Chaque exploitant agricole doit réaliser une déclaration (Telepac en France) qui lui permet de bénéficier d’une subvention européenne de base indexée sur la surface totale de l’exploitation.

Cette subvention de base peut être complétée par des aides additionnelles soumises aux respects de certaines conditions. En moyenne, les subventions européennes représentent 267 euros/hectare, ce qui constitue dans certaines filières la première source de « revenus » de l’exploitation. En France, 91 % des exploitations touchent une aide de la PAC (avec un montant moyen de 27 000 euros). En général, les subventions ne sont pas conditionnées au volume produit mais bien à la surface de l’exploitation afin de ne pas encourager la surproduction et ses effets délétères pour les paysans.

Le second pilier concerne l’aide au développement rural ; il ne représente qu’un quart du budget européen. Il permet de soutenir des projets de développement, l’aide à l’installation de jeunes agriculteurs ou de financer des projets de reconversion, notamment en bio.

Quelles évolutions avec la nouvelle PAC ?

Pour le dire simplement, la politique agricole commune n’a plus rien de… commun !

En effet, plusieurs décisions mises bout à bout vont conduire à une renationalisation des politiques agricoles. Là où l’Europe arrivait à définir, parfois au prix de tractations difficiles, des objectifs communs, la nouvelle PAC se contente de définir 9 objectifs généraux – niveau de prix, rémunération des producteurs, environnement, orientation bio, etc. – dans lesquels les États pourront « piocher » pour composer leur propre politique agricole nationale.

Qui plus est, les pays pourront aussi orienter 15 % de leur budget européen dédié entre les deux piliers alors que ce n’était pas le cas auparavant. Ainsi, ils auront la main à la fois sur les objectifs mais également les montants alloués entre les deux piliers, pouvant soit décider d’encore plus soutenir leurs agriculteurs ou bien au contraire mettre l’accent sur le développement rural.

Autre conséquence directe, la baisse du budget global va mécaniquement induire une baisse des subventions pour les agriculteurs. Les estimations font état d’une baisse de 25 euros/hectare et par an. La surface moyenne des exploitations françaises étant de 55 hectares, ce sont, en moyenne, près de 15 000 euros que les paysans vont perdre.

Les conséquences prévisibles

Même si cette nouvelle PAC pourrait faire l’objet d’arbitrages ou de tractations dans les mois à venir, les grandes lignes semblent posées, conduisant à plusieurs évolutions majeures clairement identifiables.

Pour la première fois, la PAC, première politique européenne mise en œuvre, va peu à peu être dissoute au profit des politiques agricoles nationales, variant d’un pays à l’autre. C’est l’abandon de l’idéal européen et de la volonté de construire une destinée agricole commune.

La définition de politiques nationales va priver l’Europe de moyens d’arbitrage au niveau communautaire puisque chaque pays pourra définir des objectifs potentiellement en compétition avec ceux de ses voisins. La concurrence intra-européenne s’en trouvera exacerbée.

Seuls les acteurs privés seront en mesure d’avoir des projets à dimension européenne, à grand renfort de rachats et fusions/acquisitions. Le politique n’interviendra plus à ce niveau, mais seulement au niveau des filières nationales.

La baisse des subventions risque de fragiliser un nombre croissant d’exploitations agricoles, notamment familiales. L’enveloppe annuelle de la France passera ainsi de 9,4 à 8,5 milliards dans la prochaine PAC. Il en résultera une baisse du nombre d’exploitations (La France compte 450000 exploitations contre 1,6 million en 1970).

Mécaniquement, on assistera à une concentration des fermes et le renforcement des entreprises agricoles et des méga-fermes. Peu à peu, la figure tutélaire de la ferme familiale cèdera la place à l’entreprise agricole, comme l’a documenté le sociologue François Purseigle dans son ouvrage Le nouveau capitalisme agricole. Seules les petites exploitations en circuit direct risquent de subsister à terme.

Les enjeux oubliés

Cette réforme laisse de côté trois enjeux essentiels pour l’agriculture nationale et européenne.

Les filières agricoles sont aujourd’hui caractérisées par un déséquilibre majeur dans la répartition de la valeur entre trois acteurs essentiels : les producteurs (exploitants agricoles), les industriels/transformateurs, la grande distribution. Dans la plupart des filières agricoles, l’essentiel de la valeur est captée par les industriels et les distributeurs. Cet enjeu, qui fut au cœur de certains travaux conduits dans le cadre des récents États généraux de l’alimentation, est curieusement absent de la réforme.

La réforme ne se prononce pas non plus sur le protectionnisme de certains États (USA) et des conséquences du CETA. En effet, la nouvelle PAC ne définit pas de politique européenne en termes d’échanges avec le reste du monde, de tarifs douaniers ou bien encore de règles d’importation des produits agricoles venant d’autres zones du monde. En creux, cela indique que la nouvelle PAC s’inscrit délibérément dans un marché mondialisé (et dérégulé) des produits et matières premières agricoles.

Enfin, la réforme ne se prononce pas sur une éventuelle spécialisation des pays par type de productions. Il est en effet dommageable que l’ensemble des pays se retrouvent en concurrence sur la filière laitière. Chaque pays étant libre d’orienter sa production agricole, il manquera inévitablement une politique régulatrice à ce niveau et rien ne garantit que les marchés agricoles pourront absorber les sur ou sous-productions de chaque filière.

De nouvelles marges de manœuvre

La réforme de la PAC constitue pour beaucoup un recul, une sorte de retour à une étape antérieure qui privilégierait une définition nationale des politiques agricoles. La PAC change également de nature en passant d’une PAC universelle à une PAC plus protectrice, mais moins généreuse. En revanche, la relocalisation des possibilités d’arbitrages au niveau national peut permettre d’assurer une proximité et une acceptabilité plus grande vis-à-vis des agriculteurs.

Paradoxalement, cette réforme à venir peut offrir des marges de manœuvre budgétaires inespérées au gouvernement qui aura ainsi la possibilité de mieux connecter les réformesissues des États généraux de l’alimentation avec les moyens nécessaires à sa politique agricole.

Espérance de vie : peut-on gagner six heures par jour indéfiniment ?

En 2004 en France, l’espérance de vie a passé le seuil des 80 ans. Marie-Sophie Tekian/Unsplash

En France, au milieu du XVIIIe siècle, l’espérance de vie à la naissance était de moins de 30 ans ; elle a presque triplé depuis (voir la figure 1 ci-dessous). Au cours de la période récente, c’est-à-dire depuis le milieu du XXe siècle, elle a progressé de près de trois mois en moyenne par an – soit six heures par jour –, passant de 66,4 ans en 1950 à 82,5 ans en 2017.

Va-t-elle continuer à augmenter ? Jusqu’où ? Elle progresse en effet moins vite depuis quelque temps, de deux mois en moyenne par an. Est-ce le signe qu’elle se rapproche des limites ? Pour y voir plus clair, analysons son évolution passée et les facteurs expliquant sa formidable progression jusqu’ici.

Évolution de l’espérance de vie en France. Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee)CC BY-NC-ND

Le recul de la mortalité infantile, un facteur déterminant

La progression de l’espérance de vie n’a pas été régulière au cours des deux siècles et demi passés. Elle a été interrompue par les conflits (guerres napoléoniennes, guerres de 1870, 1914-1918 et 1939-1945) qui ont entraîné des reculs importants. Mais ceux-ci n’ont duré que le temps du conflit, la progression reprenant ensuite la tendance de fond.

Les progrès s’accélèrent à certaines périodes, comme au tournant du XVIIIe et du XIXesiècle, ou cent ans plus tard, à la fin du XIXe siècle. Ils ralentissent à d’autres, comme entre 1850 et 1870. Ces variations sont parallèles à celles de la mortalité des enfants, encore très élevée à ces époques, et qui pèse beaucoup sur la durée de vie moyenne.

Ainsi, la moitié des enfants mourait avant l’âge de 10 ans en France au milieu du XVIIIesiècle, ce qui explique la très faible espérance de vie (25 ans). Autour de 1800 la mortalité des enfants recule fortement grâce en partie à la vaccination contre la variole : le risque pour un nouveau-né de mourir dans sa première année diminue d’un tiers en deux décennies, passant de 275 pour mille à 185 pour mille, comme le montre la figure 2. L’espérance de vie fait un bond de 10 ans.

Évolution de la mortalité infantile en France. Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee)CC BY-NC-ND

Au milieu du XIXe siècle, la mortalité infantile remonte du fait de l’industrialisation et l’urbanisation qui dégradent les conditions de vie des enfants, notamment dans les villes. L’espérance de vie stagne. À l’inverse, à la fin du XIXe siècle et dans la première moitié du XXe siècle, les progrès de l’hygiène et de la médecine liés à la révolution pastorienne, dont les enfants ont été les premiers bénéficiaires, et aussi la mise en place des premières politiques de protection de la petite enfance, entraînent une forte augmentation de l’espérance de vie.

Au sortir de la Deuxième Guerre mondiale, l’espérance de vie récupère la tendance de fond et atteint 66,4 ans en 1950. Elle poursuit ensuite sa progression au rythme de près de 3 mois en plus par an en moyenne.

Mais le rythme a un peu baissé depuis 2010, deux mois en plus par an seulement en moyenne comme déjà mentionné, laissant penser que l’allongement de la vie pourrait bientôt atteindre ses limites.

Un précédent ralentissement il y a 50 ans

Un phénomène similaire de ralentissement des progrès s’est produit il y a 50 ans, visible à la figure 3 qui zoome sur la période récente. Alors que l’espérance de vie à la naissance (sexes confondus) a augmenté de 4 ans au cours de la décennie 1950, elle n’a crû que de 1,7 an au cours de la décennie 1960.

Durant ces décennies, la progression de l’espérance de vie vient encore pour partie du recul de la mortalité infantile. Elle a baissé de moitié entre 1950 et 1960, passant de 51 décès d’enfants de moins d’un an pour mille naissances, à 27 ‰, et a continué de diminuer pendant la décennie suivante pour atteindre 18 ‰ en 1970. Mais le niveau atteint est si bas qu’elle ne représente plus désormais qu’une faible part de la mortalité, et même si son recul se poursuit (elle est de 4 ‰ en 2017), il n’a pratiquement plus d’effet sur l’espérance de vie.

Celle-ci ne peut progresser qu’en raison des succès remportés dans la lutte contre la mortalité adulte, en particulier aux âges élevés où se concentrent de plus en plus les décès.

En France, la progression de l’espérance de vie marque le pas dans les années 1960. Gilles Pison (à partir des données de l’Insee)CC BY-NC-ND

Des scénarios pessimistes démentis par la réalité, l’idée du plafonnement abandonnée

Les possibilités de diminution de la mortalité à ces âges ne peuvent être que limitées, pense-t-on il y a 50 ans, et l’espérance de vie va rapidement buter sur un plafond biologique.

Le ralentissement des années 1960 vient conforter cette vision. Celle-ci se reflète dans les scénarios d’évolution de l’espérance de vie qu’élabore l’Insee pour projeter la population de la France (voir la figure 3 ci-dessus).

Ainsi, la projection publiée en 1979 considère que l’espérance de vie va plafonner à 73,8 ans en 2000, or ce seuil a été dépassé l’année même où elle a été publiée, l’espérance de vie ayant atteint 74,1 ans en 1979. Tenant compte de l’énorme décalage entre les projections précédentes et la réalité, la projection de 1986 fait progresser l’espérance de vie nettement plus rapidement tout en conservant l’hypothèse d’un ralentissement puis d’un plafonnement à terme.

Mais, comme dans les projections antérieures, le plafond de la projection de 1986 est atteint puis dépassé (en 1997). Le constat que les plafonds même rehaussés sont régulièrement dépassés au bout de quelques années conduit à l’abandon de l’idée même de plafonnement dans les projections suivantes.

Celles-ci extrapolent la tendance courante sur toute la période de projection, se contentant de l’infléchir très progressivement sans toutefois fixer de limite. Elles correspondent assez bien à l’évolution observée pour l’instant.

Les succès de la lutte contre la mortalité des personnes âgées

Si les projections ont longtemps sous-estimé les progrès de l’espérance de vie, c’est qu’elles n’ont pas anticipé la forte baisse de la mortalité des adultes et des personnes âgées. Il faut dire que les progrès dans ce domaine sont relativement récents, comme le montre l’évolution de l’espérance de vie à 60 ans sur la figure 4 ci-dessous.

Au milieu du XXe siècle, elle était encore proche de son niveau du XIXe siècle, notamment du côté masculin : un homme de 60 ans pouvait espérer vivre encore 13 à 14 ans. Ce n’est qu’à partir de la fin de la Deuxième Guerre mondiale qu’elle commence à augmenter chez les hommes, les progrès s’accélérant ensuite jusqu’à ce qu’elle atteigne 23,2 ans en 2017, soit 7,3 ans de plus qu’en 1967. La progression a commencé plus tôt chez les femmes, dès les premières décennies du XXe siècle, et elle s’est aussi accélérée à partir de la fin de la guerre jusqu’à 27,6 ans en 2017, soit 7,2 ans de plus qu’en 1967.

Évolution de l’espérance de vie des personnes âgées en France. Gilles Pison (à partir des données de l’Insee et de Vallin et Meslé 2001)CC BY-NC-ND

La révolution cardiovasculaire

Au milieu du XXe siècle, les maladies infectieuses étaient encore la cause d’une partie importante des décès d’adultes et de personnes âgées, et leur recul a entraîné une augmentation sensible de l’espérance de vie à 60 ans. Mais, comme pour les enfants, la part de ces maladies dans la mortalité totale a beaucoup régressé et les gains à attendre de la poursuite de leur recul sont faibles.

Les maladies cardiovasculaires et les cancers sont désormais les principales causes de décèsà ces âges, comme le montre la figure 5 ci-dessous. Et ce sont les succès rencontrés dans la lutte contre ces maladies qui ont permis à la mortalité des adultes et des personnes âgées de poursuivre sa baisse à partir des années 1970, et à l’espérance de vie de continuer à augmenter.

La mortalité due aux maladies du cœur et des vaisseaux a énormément diminué depuis un demi-siècle grâce à la « révolution cardiovasculaire » qu’ont constitué les progrès de la prévention et des traitements dans ce domaine. Quant à la mortalité par cancer, qui avait augmenté, elle régresse maintenant grâce aux diagnostics plus précoces et à la réduction des comportements à risques comme le tabagisme.

Évolution de la mortalité par causes de décès en France. Gilles Pison (à partir des données de l’Inserm, Meslé 2006 et Breton et coll. 2017)CC BY-NC-ND

Les conditions d’une espérance de vie toujours en progrès

Le ralentissement des progrès de l’espérance de vie depuis une dizaine d’années est peut-être le signe que les retombées de la révolution cardiovasculaire sont en voie d’épuisement.

Et les progrès futurs pourraient dépendre de plus en plus de la lutte contre les cancers qui sont devenus la première cause de décès. Si celle-ci engrange les succès, les retombées en termes d’espérance de vie ont été moins spectaculaires jusqu’ici que celles liées à la révolution cardiovasculaire. Il faudrait que le recul de la mortalité liée aux cancers s’accélère dans les prochaines décennies si l’on veut que l’espérance de vie continue de progresser de 3 mois par an.

À plus long terme, comme pour les avancées liées à la lutte contre les infections, celles liées à la lutte contre les maladies cardiovasculaires et les cancers devraient s’épuiser un jour. De nouveaux terrains de lutte comme les maladies neurodégénératives (maladies d’Alzheimer, de Parkinson, etc.) et des innovations médicales et sociales pourraient alors prendre le relais et ouvrir une nouvelle phase de progrès sanitaire.

Ce qui pourrait non pas conduire à l’immortalité, vieux rêve inaccessible, mais remettre de nouveau à plus tard le calcul d’une limite à la progression de l’espérance de vie.

Les innovations sociales numériques peuvent-ellesrelever les grands défis ?

Avec l’explosion des innovations sociales numériques (ISN) en Europe, les utilisateurs sont désormais plus aptes à résoudre des problèmes ayant trait à des sujets aussi divers que l’inclusion sociale, la santé, la démocratie, l’éducation, la migration ou encore la durabilité. On pense notamment à des outils tels que la civic tech, les plates-formes de régénération des quartiers, la création de cartes collaboratives, le crowdfunding citoyen, l’éducation par les pairs ou les banques de temps en ligne.

Diverses organisations soutiennent le développement des ISN, proposant des services de conseil, un accès aux réseaux, des financements, des ressources et des compétences. La fondation britannique NESTA, qui coordonne le projet DSI4EU financé par l’UE, est l’un des principaux think tanks dans ce secteur.

À l’échelle européenne, différents dispositifs de soutien aux innovations sociales et aux ISN ont été mis en place, tels que la Social Innovation Competition, dont la 6e édition a eu lieu à Paris le 20 mars dernier. Enfin, de nombreux événements, festivals et conférences sont également organisés, comme la Social Good Week de Paris ou le Ouishare Fest, initialement français et qui s’est désormais internationalisé.

Toutefois, même si du temps, des efforts et des ressources considérables sont déployés pour ces activités, il semble encore nécessaire de faire tomber certaines barrières entravant leur développement et leur capacité à répondre de manière efficace aux grands enjeux de notre époque.

Remise en question de la transparence

La transparence d’une plate-forme est un indicateur important de sa capacité à encourager la participation par la décentralisation du pouvoir, l’autorisation de l’accès, de la reproduction et de la réutilisation du code source.

Pourtant, si de nombreuses ISN mettent l’accent sur la collaboration et la transparence, l’utilisation de logiciels open-source reste limitée, du moins en France. Et ce alors même que les logiciels propriétaires soulèvent des questions relatives à leurs potentielles manipulations par l’innovateur. Ce que résume Valentin Chaput, rédacteur en chef du site Internet Open Source Politics

« Si nous ne maîtrisons pas leur code, ce sont les auteurs du code qui nous contrôlent. »

Mieux communiquer vers les utilisateurs

Les entrepreneurs sociaux éprouvent souvent des difficultés à élaborer des business modelsgarantissant leur autonomie et leur indépendance. Divers business models permettent pourtant de générer des revenus par le biais d’ISN. Parmi eux figure la commercialisation des données des utilisateurs.

Dans ce cas précis, le problème majeur n’est pas la commercialisation en elle-même (bien qu’il soit préférable de l’éviter), mais la façon dont le business model de base est communiqué aux utilisateurs. Pour obtenir des informations, les utilisateurs doivent lire dans le détail les « conditions d’utilisation » de la plate-forme, souvent communiquées dans un format peu engageant. Conséquence : ils passent rapidement cette étape, par ignorance ou manque d’intérêt.

Les plates-formes doivent être plus transparentes en termes de business model et communiquer ces derniers à leur public de façon plus accessible. Cette approche réduirait également les hésitations de certains utilisateurs à s’engager, faute de confiance.

Changement systémique ou aide à court terme ?

Une inquiétude plus profonde concernant l’économie collaborative émerge. Comme le formule Evgeny Morozov, auteur de Net Delusion : The Dark Side of Internet Freedom :

« C’est comme distribuer des boules Quies pour supporter le bruit intolérable de la rue au lieu de faire quelque chose contre le bruit lui-même. »

Ce constat s’applique parfois aux ISN. Comment différencier innovations potentiellement vectrices de changement systémique et innovations d’amélioration du système ? Classer les plates-formes selon leur caractère, systémique ou non, serait peu parlant : rien n’est jamais tout noir ou tout blanc. Mieux vaut s’intéresser aux activités de ces plates-formes.

Humaid, par exemple, est une plate-forme de crowdfunding grâce à laquelle des personnes souffrant de handicap ou leurs aidants peuvent récolter des fonds afin de financer l’achat des technologies d’assistance qui leur sont nécessaires. Ce faisant, Humaid reproduit en un sens l’exclusion produite par la société : elle fait des personnes souffrant de handicap l’objet d’actes de charité, plutôt que de les traiter comme des individus avec des droits et libertés (ainsi que le souligne la Convention relative aux droits des personnes handicapées). Second exemple, tiré de l’économie collaborative : Karos, une plate-forme de covoiturage lancée il y a un an, propose une option de covoiturage « entre femmes ». Par cette offre, ne reproduit-elle pas certaines pratiques existantes, qui sont avant tout source d’inégalités ?

Au lieu de faire des technologies de l’information et de la communication (TIC) des outils de réduction des inégalités profondes dans nos sociétés, de telles initiatives renforcent certaines normes existantes et les barrières d’exclusion qu’elles dressent. Répondre à de grands défis nécessite de sensibiliser les publics et de mettre en place des activités pédagogiques en lien avec les droits et libertés.

Le covoiturage Karos pour femmes seulement. Une partie de la solution à l’inégalité ou un renforcement ? Karos

Le conflit avec les organisations traditionnelles de la société civile

Les organisations de la société civile qui ont une expérience spécifique sur le terrain auprès des populations ciblées et qui sont impliquées dans des mouvements sociaux et des activités de sensibilisation peuvent jouer un rôle majeur dans le changement systémique. Néanmoins, la plupart d’entre elles se retrouvent en situation de vulnérabilité face aux plates-formes numériques.

Ainsi, certaines d’entre elles sont confrontées à la concurrence de start-up qui puisent leurs ressources et financements dans le secteur du numérique. Les compétences numériques de la nouvelle économie et l’expérience des organisations traditionnelles, spécialisées dans un domaine ou un autre, devraient donner lieu à la création d’espaces de synergie. Il existe malheureusement des obstacles à la création de tels espaces, parfois liés à l’existence de deux mondes idéologiques polarisés, celui des ONG et celui des organisations de l’économie collaborative.

Le sous-engagement des utilisateurs

Se pose aussi la question de l’incitation des utilisateurs à utiliser ces plates-formes d’ISN. La plupart d’entre elles comptent sur l’engagement citoyen, par exemple le bénévolat, la mise à disposition de compétences, d’informations, de services, de biens et d’opinions. Or le monde virtuel reflète probablement les relations économiques, sociales et culturelles du monde réel, comme le suggèrent les recherches d’Alexander Van Deursen et Jan Van Dijk de l’Université de Twente. Ceci implique que les utilisateurs d’ISN pourraient être des individus déjà impliqués dans la vie citoyenne « réelle », comme le suggèrent les recherches de Marta Cantijoch, Silvia Galandini et Rachel Gibson. Si tel est effectivement le cas, les ISN pourraient renforcer les divisions existantes au lieu de les réduire.

Afin de développer des politiques efficaces et éclairées, de plus amples recherches sur la nature des utilisateurs et de leurs schémas d’engagement sur les diverses plates-formes sont nécessaires. Néanmoins, différents obstacles, tels que le manque de données, les rendent difficiles à mener.

Le manque de données dans un monde de « big data »

Le manque de données sur les utilisateurs et l’écosystème entrave considérablement les recherches sur les ISN et leur capacité potentielle à relever de grands défis.

Les plates-formes ne partagent pas les données récoltées, afin de respecter la vie privée et la confidentialité des utilisateurs. Revers de la médaille : la réglementation sur la collecte de données peut également endiguer les recherches sur les utilisateurs des ISN, comme c’est le cas en France.

À l’échelle nationale, comme à l’échelle européenne, des initiatives de collecte et de normalisation des données sont nécessaires afin que les chercheurs puissent accéder aux données essentielles concernant l’utilisation et la participation aux ISN. Ces initiatives sont également importantes car elles permettront de mener des recherches sur les capacités de chaque pays européen, et de développer des moyens adaptés pour transférer les bonnes pratiques et exploiter les synergies potentielles.

La fascination pour la mesure (rapide) de l’impact

Pour les investisseurs, bailleurs de fonds et entrepreneurs sociaux, mesurer l’impact social est essentiel. Mais cela peut s’avérer problématique, complexe et difficile. De plus, n’oublions pas les mots de William Bruce Cameron :

« Tout ce qui peut être compté ne compte pas forcément. Tout ce qui compte ne peut être toujours compté. »

Parfois, les contraintes de temps amènent à employer des mesures d’impact vagues et inefficaces, qui n’aident pas à comprendre correctement les retombées. Montants récoltés, croissance du nombre de participants, nombre de projets soutenus et autres critères font souvent office d’indicateurs de réussite, mais de telles statistiques posent problème. Par exemple, les participants d’une plate-forme sont souvent « inactifs » : ils s’inscrivent, mais n’utilisent pas la plate-forme par la suite.

Il est nécessaire de modifier la façon dont les décideurs politiques et investisseurs envisagent « l’impact social » afin de déterminer ce qui doit être mesuré et ce qui ne doit pas l’être. Si la mesure s’avère indispensable, elle doit s’axer sur les changements concrets dont la plate-forme est à l’origine. On peut par exemple demander quelles réglementations ont changé suite aux activités des plates-formes, quels résultats ont été obtenus grâce aux recherches médicales menées sur des plates-formes patients-médecins, ou quels projets de la société civile sont réalisés et avec quels bénéfices potentiels ?

Il est important d’axer les indicateurs sociaux sur une meilleure compréhension non seulement de la façon dont sont abordées les pratiques sociales responsables des problèmes sociaux, mais aussi du rôle des plates-formes dans ce processus.

(Non)préparation de la population face aux innovations

Alors que les politiques mettent un point d’honneur à soutenir les innovations, la façon dont elles sont reçues par la population fait l’objet de peu d’attention. Il est indispensable d’investir dans l’amélioration des compétences liées à Internet et d’englober des compétences opérationnelles, formelles et stratégiques, comme le montrent les recherches d’Alexander Van Deursen et Jan Van Dijk.

En outre, les utilisateurs potentiels peuvent être peu connectés, peu informés ou peu intéressés. Ainsi, paradoxalement, les personnes qui gagneraient le plus à recourir aux ISN sont les moins susceptibles d’être au courant de leur existence. Au lieu de se limiter à la sphère en ligne, les entrepreneurs sociaux doivent donc collaborer activement avec les populations cibles de leur domaine en développant des solutions et en encourageant la participation. Comme Tom Saunders, de NESTA, l’indique, il est important de « se souvenir qu’il y a tout un monde derrière Internet ». C’est la raison pour laquelle la ville d’Amsterdam entreprend d’immenses efforts pour intégrer les individus à l’économie collaborative.

Duplication, duplication, duplication

La plupart des plates-formes numériques fonctionnent selon la logique des externalités de réseau, aussi appelées plates-formes multifaces. Cela signifie que la présence d’un groupe d’utilisateurs sur une plate-forme incitera d’autres groupes à la rejoindre. De cette façon, certaines plates-formes numériques constituent leur base d’utilisateurs rapidement et deviennent des acteurs dominants.

Si la création d’un pouvoir monopolistique peut s’avérer problématique, avoir un trop grand nombre de start-up dans le même secteur l’est tout autant, ce qui est aujourd’hui le cas dans certains secteurs des ISN. Ainsi, en France, plus de 20 plates-formes de civic techproposent les mêmes fonctions.

Dans le cas des ISN, les gains et pertes potentiels en termes d’action sociale et d’efficacité doivent être envisagés et mieux évalués. Nombre de ces plates-formes peinent à se développer, leur base d’utilisateurs est divisée, et elles finissent par fermer quelques années après leur lancement. La solution pourrait être le partage de la réputation ou d’autres informations sur les utilisateurs entre différentes plates-formes, afin que la diversité subsiste tout en évitant de centraliser le pouvoir.

Le manque d’enrichissement mutuel

L’importance du problème susmentionné dépend également du domaine d’activité et du type d’ISN en question. Différents types d’ISN existent, et tenter de regrouper toutes les ISN peut être une erreur : c’est précisément cette diversité qui confère à l’écosystème émergeant tout son dynamisme et sa résilience. Malheureusement, celle-ci n’est pas exploitée efficacement. On observe la formation de bulles, propres à chaque domaine, qui interagissent peu. Alors que la création de synergies entre elles pourrait permettre un enrichissement mutuel et s’avérer cruciale pour améliorer leur résilience, les réseaux restent peu développés. Plateformes en Communs, une récente initiative française, a pour mission de constituer une plate-forme de coopératives et d’associations dans différents domaines d’activité afin, justement, d’exploiter leurs synergies.

Au vu du haut niveau de pénétration des technologies numériques dans notre vie, les innovations sociales numériques promettent de relever de grands défis. Des efforts supplémentaires seront toutefois nécessaires avant d’obtenir des résultats plus concluants. Dans un monde toujours plus complexe, la participation à la vie citoyenne – en ligne et dans le monde réel – reste précieuse. Les myriades de plates-formes numériques qui la facilitent désormais sont autant de gouttes d’eau qui finiront, un jour, par former un océan.

Justice : sommes-nous tous condamnés à devenir des lawyers américains ?

L’influence des séries américaines conduit-elle à une «américanisation » des esprits ? Pixabay

A l’heure de la mondialisation, l’américanisation du droit serait une réalité, la Common Lawaméricaine constituant un modèle vers lequel tendraient plus ou moins volontairement les autres systèmes juridiques, et notamment ceux de la vielle Europe.

Face à cette hégémonie américaine, la tradition civiliste, dont le code civil français est la plus noble expression, serait en danger. Défendre l’identité juridique française, comme l’on défend son exception culturelle, serait donc une nécessité.

La situation est-elle si grave ? Sans nier le phénomène, il serait exagéré de verser dans le pessimisme et le défaitisme les plus noirs. Le droit de tradition civiliste, reflet de notre société et de notre histoire, a plus que jamais un rôle à jouer dans un contexte de concurrence des modèles juridiques à l’heure de la globalisation.

Trois facteurs principaux sont généralement mis en avant pour expliquer la fascination exercée par le modèle américain.

Face à la « McDonaldisation » des esprits

En premier lieu, l’américanisation des esprits constituerait le terreau naturel de l’américanisation de la sphère juridique. Le phénomène de « McDonaldisation » atteint sans surprise la communauté des juristes comme il a atteint toutes les autres composantes de la société.

Toutefois, en matière juridique, cette influence trouve sa source dans deux phénomènes particuliers. La première est l’impact des séries télévisées. Loin d’être anecdotique, cette influence est réelle tant auprès du grand public que des étudiants en droit qui connaissent mieux la procédure pénale américaine que française ! Le professionnalisme des scénaristes américains quant aux références juridiques n’y est pas pour rien et contraste avec l’ignorance et l’amateurisme de la plupart de leurs homologues français !

L’américanisation des esprits serait aussi une conséquence de l’internationalisation des études juridiques. Il est aujourd’hui de bon ton pour tout étudiant en droit, de compléter son cursus initial par un diplôme d’une université américaine. Or, à travers ce processus de formation, et tel un poison lent, le modèle américain se propagerait de manière diffuse dans l’esprit des juristes formés aux États-Unis, qui, à leur retour, reproduiraient plus ou moins consciemment, le modèle américain au sein de leur pratique professionnelle. La multiplication à Paris de cabinets d’avocats organisés comme à New York ou encore la prolifération des contrats commerciaux rédigés dans le plus pur style américain en attesteraient.

Plus grave, cette conversion inconsciente à la common law modifierait profondément le mode de raisonnement de ces juristes, leur façon de penser le droit. Alors que le raisonnement de droit civil est fondamentalement, du fait de la primauté de la loi écrite, déductif, ils deviendraient au contact de la common law qui est de nature inductive, des juristes se référant plus volontiers à la jurisprudence comme source de droit qu’aux textes du Code. Certes, ce phénomène n’affecte pour l’heure qu’une minorité, mais c’est une élite qui sera demain en mesure d’influencer l’évolution du droit national.

L’argument de l’efficacité

En second lieu, l’argument de l’efficacité est largement invoqué afin de justifier cette fascination pour la common law américaine. Celle-ci serait plus efficace notamment du fait de ses racines protestantes qui favoriseraient la production de richesses, ainsi que du fait de la conception beaucoup plus libérale du rôle et de la place de l’État.

Cette efficacité, conçue comme économique est mise en avant par les rapports « Doing Business » établis par la Banque mondiale. Ce programme a pour but de classer les États en fonction du climat qui y règne sur le plan juridique et de la facilité à y faire des affaires. Cette entreprise de ranking des droits, fondée sur l’économétrie, démontre une forte corrélation entre l’appartenance à une tradition juridique et le développement économique.

Or, les premières places de ce classement sont régulièrement occupées par des pays de common law. Ce constat conduirait ainsi naturellement les législateurs à s’engager dans des réformes en s’inspirant du modèle le plus efficace, et donc la common law. Il n’est guère étonnant que les rapports aient été critiqués tant sur le fond que sur le plan méthodologique. Le droit, fût-il commercial, ne saurait se réduire à une dimension purement économique, mais se doit d’intégrer les notions de justice et de morale.

Enfin, la langue anglaise, nouvelle lingua franca, est un puissant vecteur de l’influence juridique américaine. Si l’anglais a déjà conquis les sphères professionnelles, il étend aujourd’hui son emprise au sein des organisations internationales.

Il est regrettable de constater que nombre de délégués de pays dont la langue est pourtant une langue officielle choisissent de s’exprimer en session officielle en anglais, au nom de l’efficacité, partant du principe que leur discours se trouvera au mieux dilué, au pire trahi à travers l’interprétation. Ceci les conduit alors à utiliser non seulement les mots, mais aussi les concepts du droit américain, participant ainsi à leur diffusion.

Un diagnostic noir à relativiser

Aux dires de certains, le diagnostic serait donc noir et la bataille en passe d’être perdue. Mais cette conclusion est par trop pessimiste : en fait, la concurrence du modèle américain est limitée aux seuls droit commercial et droit des affaires, fondamentalement pragmatiques, socialement neutres et donc particulièrement sensibles à l’argument de l’efficacité.

En revanche, dans des domaines socialement plus sensibles tels que le droit de la famille ou des successions, l’influence serait au mieux absente, au pire négligeable. Et même dans de domaine du droit marchand, l’impact n’est que rarement direct. Si certaines réformes sont inspirées du modèle américain, ces emprunts législatifs ne peuvent bien évidemment s’opérer que si l’institution empruntée est compatible avec le système de réception, sous peine de rejet. De plus, les institutions empruntées seront toujours transformées pour être adaptées au nouveau contexte à travers un processus d’acclimatation juridique.

L’un des lieux emblématiques du Palais de justice de Paris, récemment transféré dans le nord de la capitale. Stéphane de Sakutin/AFP

Mais surtout, le recours à une approche fonctionnelle du phénomène juridique peut permettre de réconcilier les traditions civilistes et de Common Law en lieu et place d’une concurrence frontale. Schématiquement, il s’agit d’identifier objectivement le résultat que le droit se doit d’atteindre, avant de laisser à chaque législateur, en fonction de sa tradition, le soin de déterminer quels sont les moyens d’y parvenir. Il n’est pas étonnant que cette solution consensuelle soit en vogue au sein des institutions chargées, au niveau international, de l’unification du droit.

Convergence plutôt que concurrence

Cette idée de convergence, plutôt que de concurrence, peut être appliquée de même à l’usage des langues. Dans ces mêmes instances internationales, c’est une véritable collaboration linguistique qui s’instaure. À ce titre, l’expérience en place au sein de l’Institut international pour l’unification du droit privé (Unidroit) est un exemple intéressant. Plutôt que de partir comme il est d’usage, du texte rédigé en anglais puis de le traduire dans les autres langues officielles, il a été décidé de rédiger les textes parallèlement en anglais et français, puis de confronter les versions, certaines idées étant mieux transcrites dans une des deux langues.

À l’issue de ce bref survol, l’on peut être en partie rassuré : les manifestations directes de l’américanisation du droit sont, en définitive, assez rares hors la sphère du droit des affaires. Mais il ne faut pas baisser la garde et surtout ne pas sous-estimer le phénomène de l’américanisation de la culture juridique.

Or, il ne sera possible de contrer celle-ci que si l’on restaure le prestige, non pas tant du droit civil, que de son enseignement. C’est sur le terrain de la formation que se gagnera la bataille de demain. Mais concurrencer le prestige, dans l’imagerie estudiantine, des Harvard, Columbia et autres Yale n’est pas tant une question de fond, la qualité des enseignements dispensés n’étant pas en cause, que de moyens.

Les Américains l’ont bien compris. Et le simple fait de changer le nom de nos facultés en « École de droit » ne saura bien évidemment suffire à en faire de véritables law schools !

Pourquoi il faut « réensauvager » les monuments historiques

Angkor site de Ta Nei temple sous canopée. L’effet de serre tamponne les écarts hydriques et thermiques. Les épisodes climatiques agressifs sont régulés. B. PhalipAuthor provided

L’archéologie, comme l’histoire de l’architecture, permet de considérer autrement les restaurations de monuments médiévaux en Europe, au Proche-Orient, mais aussi au Cambodge. Entreprises depuis le milieu du XIXe siècle, ces dernières sont encore le gage de mises en valeur jugées indispensables, d’accès facilités, d’une large ouverture au public, d’explications adaptées, de technologies innovantes (réalité augmentée) et de pérennité des œuvres.

Toutefois, en dépit des chartes internationales sur la conservation, la restauration des monuments et celle des sites de l’Unesco, accompagnées de ses protocoles précis (Chartes d’Athènes en 1931, de Venise en 1964 et de Cracovie en 2000, les pratiques actuelles se révèlent aussi interventionnistes que par le passé, dont on a pourtant dénoncé les errances, en faussant fortement notre vision des monuments.

Restaurations lourdes

Tout au long du XIXe siècle, les architectes restaurent lourdement, reconstituent sans se soucier des réalités archéologiques, imposent progressivement une définition exemplaire régularisée, nettoyée de tout ce qui gêne à la constitution d’un corpus de monuments nationaux insérés dans des quartiers correspondant aux nouvelles définitions hygiéniques.

D’anciens quartiers sont détruits, des populations sont déplacées et des architectures aux allures disparates sont débarrassées d’adjonctions plus tardives. Un édifice roman verra ainsi ses modifications gothiques disparaître ; un édifice gothique verra ses témoins architecturaux romans remis en cause. Tout est redressé et régularisé pour correspondre à la définition académique souhaitée. L’authenticité, alors très affaiblie, est parfois débattue, mais rarement combattue (Ruskin, Morris), face à la fièvre restauratrice qui s’empare des pays européens. Les deux conflits mondiaux confirment et accentuent ces visions par les nécessités de la reconstruction.

Or, en dépit d’avertissements clairvoyants, la restauration s’impose dans l’esprit des décideurs, comme dans les politiques de collectivités marquées par la pression de l’économie touristique et la marchandisation de la culture. L’examen précis des édifices restaurés se révèle moins édifiant et peu convaincant. Outre le fait que de nombreuses reconstitutions volontaires et hasardeuses aient été réalisées, par exemple à Paris, Pierrefonds, Carcassonne, Clermont-Ferrand, Berlin, ou Varsovie, plusieurs faits sont à appréhender.

Chaque restauration fait appel à des matériaux exogènes, tels que de nouvelles pierres (même proches du matériau d’origine), des résines et silicones, des ciments, tous inadaptés au lent vieillissement de maçonneries ou d’ensembles sculptés. Des altérations ou marques d’érosion, indépendantes du problème de la stabilité des édifices, ont fait l’objet d’interventions systématiques. En moyenne, pour d’importants monuments français (Auvergne, Poitou, Val-de-Loire, Picardie, Alsace…), ou européens (Allemagne, Belgique, Angleterre), 20 à 30 % des pierres ont été remplacées, parfois plus. Cela soulève ainsi la question de l’authenticité des monuments présentés comme médiévaux et celle d’interventions aux effets contre-productifs. Un matériau jeune interagit mal avec l’ancien en étanchéifiant et en modifiant les flux de l’eau dans les murs. Cela se fait presque toujours au détriment de l’ancien. L’accroissement de la vitesse de l’érosion en est le résultat qui appelle alors à d’autres interventions augmentées et plus rapprochées.

L’effet esthétique des parements bariolés, en habit d’Arlequin, mêlant le neuf à l’ancien, conduit au nettoyage par sablage, eau sous pression et – plus récemment – gommage et tamponnage. Cependant, toutes ces interventions, qui blanchissent les murs, altèrent elles-mêmes les surfaces anciennes. Le calcin, les patines, présents depuis cinq à neuf siècles sur les monuments du Moyen Âge, disparaissent comme manteau protégeant des agents climatiques habituels : grêle, neige, gel, pluie ; fort ensoleillement, écarts de températures.

Moutier-d’Ahun (Creuse), façade de l’abbatiale, XVᵉ siècle ; le couvert végétal (mousses et lichens) protège les sculptures de ce granit fragile. B. PhalipAuthor provided

Disparition du couvert bactérien

Ensuite, les restaurations et nettoyages successifs touchent au vivant et contribuent à la disparition du couvert bactérien, pourtant présent au bout de 9 à 15 mois sur les murs, comme à celle des lichens qui croissent au bout de quelques années et celle des mousses qui viennent peupler ensuite quelques emplacements. En revanche, les micro-algues et moisissures nourries par les polluants agricoles (phosphates, nitrates) ne tardent pas à réinvestir et verdir les monuments à peine nettoyés (Bretagne). Cette végétation, dite « inférieure », est considérée comme nuisible par les restaurateurs, alors même que des publications, en langue anglaise principalement, insistent sur l’aspect protection. Ce couvert végétal, allié au calcin et à la patine, protège le mur des agressions climatiques. Mal considérées, pour des raisons « esthétiques », ce que les restaurateurs nomment des salissures sont traitées aux biocides et brossées. De vieux organismes très modérément gourmands, présents depuis des siècles, disparaissent ainsi au profit, quelques années après, de jeunes organismes en pleine croissance et voraces. L’édifice est alors dénudé et fragilisé, mais aussi brutalisé par les différentes étapes restauratrices.

En plus de la végétation, les insectes, petits rongeurs et oiseaux sont également considérés comme nuisibles. L’exemple du pigeon est alors brandi comme un coupable idéal. Mais qui viendrait déloger d’un monument les nids de cigognes en Alsace, Roumanie ou en Israël ; ceux de martinets ou d’hirondelles, ici ou ailleurs ? Combien d’espèces protégées peuplent les élévations d’églises, de châteaux ou de maisons ?

Saint-Nicolas-de-Port (Meurthe-et-Moselle), nid de cigognes installé sur des pinacles. B. PhalipAuthor provided

Le temps long du vieillissement

Le fait est que nos monuments restaurés sont minéralisés, placés hors du temps long de leur lent vieillissement. Le lierre, l’arbre, la forêt, la fougère même, sont les ennemis à combattre à Angkor Vat au Cambodge, ou sur les sites français. Quoi qu’affirment leurs détracteurs, favorables au dégagement des sites et des monuments (Angkor Vat), la canopée, le végétal tamponnent les températures et les précipitations en créant une cloche protectrice peuplée.

Nous serions alors contraints de nous enfermer dans les seuls dilemmes de la blancheur immaculée ou de la crasse, de la brutale et immédiate pasteurisation ou de l’érosion lente, du monument intégré dans le marché du tourisme ou du monument dont la ruine contenue est romantique, chargée de littérature et de poésie.

Angkor (site de Ta Prom), temple en grès dont les murs sont totalement recouverts de biofilm protecteur ; le site est partiellement conservé sous forêt. B. PhalipAuthor provided

Face à d’illégitimes restaurations pour les sites urbains comme ruraux, il apparaît d’abord nécessaire de ne pas ajouter de polluants (résines, biocides, consolidants, produits hydrofuges…) aux pollutions et de concevoir un édifice dont la végétation contrôlée (soft capping) permettrait de réensauvager des sites brutalisés depuis un siècle et demi à la suite de la Révolution industrielle. Sur la base d’une série d’enquêtes menées depuis une dizaine d’années, les conclusions vont aussi à la proposition d’interventions plus respectueuses et minimalistes, au respect du biofilm et de la biologie du monument « réensauvagé ».

La vision dramatisée visant à présenter les monuments en danger sur du court terme ne peut être validée. L’évaluation doit être menée en considérant le long terme et mieux reconnaître l’apport de pratiques artisanales d’un chantier lent visant à la conservation d’un édifice entretenu et non celles souvent mécanisées d’un chantier de restauration transformé en annexe de laboratoire pour des produits et pratiques inadaptés aux maçonneries anciennes.