Les « forêts urbaines », essentielles aux villes de demain

Les « forêts urbaines », essentielles aux villes de demain

Vue aérienne de Paris depuis l’Arc de triomphe en août 2016. L’aspect minéral domine la ville. Pascal Weiland/Unsplash

Cet article est publié en collaboration avec les chercheurs de l’ISYEB (Institut de Systématique, Évolution, Biodiversité, Muséum national d’Histoire naturelle, Sorbonne Universités). Ils proposent chaque mois une chronique scientifique de la biodiversité, « En direct des espèces ». Objectif : comprendre l’intérêt de décrire de nouvelles espèces et de cataloguer le vivant.


Les zones urbanisées occupent environ 10 % des surfaces terrestres, une proportion qui ne cesse de croître. Ces espaces constituent les milieux de vie de plus de 50 % de la population mondiale et contribuent de manière importante au changement climatique.

Face à ces réalités, des efforts de plus en plus importants sont engagés dans de nombreuses villes pour améliorer la qualité de vie et limiter les contributions de ces espaces aux changements globaux, grâce notamment à des plans d’adaptation au changement climatique et en faveur de la biodiversité.

Parmi ces actions, l’accroissement de la place accordée aux arbres, avec l’objectif d’évoluer vers de véritables « forêts urbaines », représente une contribution majeure.

Les services des arbres aux villes

En ville, les arbres rendent de multiples services écologiques.

Ils améliorent la qualité de l’air en absorbant des polluants et en fixant des particules fines ; ils participent à l’atténuation du réchauffement climatique global en stockant du gaz carbonique. Ils permettent aussi de lutter contre les phénomènes d’îlot de chaleur urbain grâce à l’ombrage qu’ils fournissent lors des fortes chaleurs et à l’évapotranspiration des eaux pluviales.

Ils représentent également un support de biodiversité, permettant la présence de multiples espèces de champignons, plantes, insectes, oiseaux, petits mammifères, et forment des trames vertes assurant la connexion avec les espaces forestiers plus naturels. Et ils participent à la diversité et à la qualité des paysages urbains, en apportant des variations de couleurs et de formes, rompant ainsi la monotonie des espaces minéralisés.

Ils contribuent aussi à marquer l’histoire des villes, par des arbres considérés comme patrimoniaux, témoins d’évènements remarquables, heureux ou tragiques.

Ils contribuent enfin au bien-être et à la bonne santé des populations citadines, qui plébiscitent la présence d’arbres et d’espaces verts boisés à proximité de leurs habitations.

Des contraintes à prendre en compte

Des contraintes spatiales liées à la présence d’arbres sont parfois mises en avant pour en limiter l’extension. Il est évident que les arbres prennent de l’espace au détriment d’autres modes d’occupation, comme les habitations, les places de stationnement, les voies de circulation, les réseaux souterrains, etc.

La gestion des arbres a également un coût, correspondant à leur plantation, suivi, entretien et parfois abattage (arbres dangereux), ainsi qu’au ramassage des feuilles mortes dans les rues en automne qui doit être pris en charge par les municipalités. Mais les aspects positifs liés à leur présence conduisent généralement à accepter sans difficulté ces contraintes.

D’autres aspects parfois négatifs doivent également être pris en compte. C’est le cas des émissions de composés volatils solubles (ou BVOC pour biogenic volatile organic compounds), dont les taux sont variables selon les espèces, et qui, combinés avec des oxydes d’azote émis par la combustion des hydrocarbures produits par les véhicules, conduisent à la production d’ozone.

Un site Internet mis en place par l’Université d’État de Californie permet de choisir parmi plus de 200 espèces d’arbres, classées selon leurs propriétés et selon leurs niveaux d’émissions de gaz, les essences les mieux adaptées à chaque situation.

Il faut aussi noter que les arbres réduisent la circulation de l’air et peuvent ainsi limiter la dilution des polluants par la ventilation, ce qui nécessite de choisir les lieux de leur implantation en connaissance de cause, et évidemment de réduire les émissions de gaz polluants.

Une autre nuisance importante de certaines espèces d’arbres correspond aux allergies causées par les grains de pollen auxquels est sensible une proportion de plus en plus importante de la population citadine.

Information sur les pollens allergisants. Compte Facebook RNSA (2018).

Les principaux arbres allergisants appartiennent aux espèces des familles des bétulacées (aulnes, bouleaux, noisetiers), moracées (mûrier à papier), oléacées (frênes), cupressacées (cyprès) et secondairement aussi des pinacées (cèdres, mélèzes, pins, etc.), salicacées (saules), etc. Ces caractéristiques doivent inciter les services municipaux à leur préférer des espèces de substitution non ou nettement moins allergisantes (érables, copalme, caryer, etc.).

En France, le Réseau national de surveillance aérologique met à la disposition sur son site des informations actualisées sur les émissions de pollens (en fonction des risques par villes et par espèces).

Des outils d’évaluation nombreux et performants

Différents outils et autres indices ont été développés dans le monde pour évaluer l’importance des arbres et les services écologiques qu’ils apportent en ville.

Un outil d’évaluation globale du couvert ligneux urbain – le green view index (ou indice de verdissement) – a récemment été mis au point par des chercheurs du Massachusetts Institute of Technology (dans le cadre de leur projet Treepedia) à partir de l’outil d’observation des rues de Google.

Il a été appliqué à 27 villes mondiales, dont Paris (seule ville française prise en compte) qui arrive en dernière position (avec un indice de verdissement de 8,8 %). Loin derrière Oslo (28,8 %), Amsterdam (20,6 %) ou Londres (12,7 %) ; ou encore les villes américaines de Montréal (25,5 %) ou New York (13,5 %) ainsi que d’autres grandes villes comme Singapour (29,3 %) ou Sydney (25,9 %). À noter que ce logiciel prend en compte les seuls arbres des rues, ne donnant ainsi qu’une vision partielle de la canopée urbaine.

Site Treepedia figurant l’indice de verdissement de Singapour, l’un des plus élevés parmi les 27 villes répertoriées. Treepedia, CC BY

Un outil plus complet et simple à appréhender est l’indice de canopée, correspondant au % de la projection au sol des couronnes des arbres ou groupes d’arbres de plus de 3 m de hauteur sur la zone considérée. De nombreuses villes nord-américaines ont calculé cet indice qui est de 24 % pour New York, 28 % pour Toronto et 29 % pour Boston. Pour la métropole de Lyon, il a été évalué à 27 %.

Par ailleurs, les services forestiers américains ont développé un logiciel d’évaluation et d’aide à la décision, doté de nombreuses applications, appelé i-Tree. Parmi elles, i-Tree Eco permet d’évaluer les services écologiques rendus par les arbres. Cet outil a été appliqué pour la première fois en France en 2014 à Strasbourg dans le cadre d’une thèse de doctorat. L’outil complémentaire i-Tree Species permet de guider le choix, parmi 1 600 espèces, des arbres les mieux adaptés à chaque situation et chaque objectif.

Demain, de véritables « forêts urbaines » ?

De nombreuses villes ont mis en place ces dernières années ou décennies d’ambitieux programmes de plantations ligneuses, dans l’objectif de constituer de réelles « forêts urbaines ».

En 2012, Montréal s’est ainsi fixé un « plan d’action canopée » très ambitieux prévoyant la plantation de 300 000 arbres d’ici à 2025 pour atteindre un indice de canopée de 25 % (contre 20 % en 2012). Et New York a lancé en 2007 le projet MillionTreesNYC qui visait la plantation d’un million d’arbres.

En France, la métropole de Lyon a adopté dès 2000 une « charte de l’arbre » pour faire face au changement climatique.

Celle-ci comporte un « plan canopée » tout à fait exemplaire, qui a conduit à planter 33 000 arbres depuis 2003 ; l’ambition étant de planter dans la métropole lyonnaise pas moins de 40 000 nouveaux arbres d’ici à 2030, en privilégiant une diversité d’essences afin de faire face aux risques et aléas possibles.

Le Jardin des curiosités à Lyon. Léonard Cotte/Unsplash

À Paris, une analyse statistique précise des arbres du domaine public a été réalisée en 2010 par l’Atelier parisien d’urbanisme (APUR). Cet état des lieux, régulièrement mis à jour depuis, fournit des informations très détaillées et cartographiées précisément sur les arbres présents dans la capitale. Le compte actualisé à la mi-avril 2018 est de 200 389 arbres dans les espaces publics (rues, parcs, jardins et cimetières publics), dont un peu plus de 105 000 arbres d’alignement. Il s’y ajoute les quelque 300 000 arbres des 1840 hectares des bois de Boulogne et de Vincennes.

Toutes ces données sont disponibles depuis 2014 sur le portail Parisdata, qui présente la localisation précise de tous les arbres recensés dans les espaces publics, correspondant à près de 190 espèces différentes (80 % de feuillus et 20 % de conifères), dont les plus importantes sont des platanes, marronniers, tilleuls, érables, sophoras, etc.

Dans le cadre de son 1er plan climat de 2007, Paris s’était déjà engagé à planter 20 000 arbres intramuros d’ici à 2020 : le 10 000e a été planté le 21 mars 2018 à l’occasion de la Journée internationale des forêts. Elle a en outre lancé en 2016 l’opération « Un arbre dans mon jardin », consistant à offrir des arbres (de 1 à 5 plants) à des particuliers en les conseillant sur le choix des essences les mieux adaptées à chaque contexte, avec un objectif de plantation de 5000 arbres d’ici à 2020.

Dans le cadre de son nouveau plan « climat air énergie », adopté en novembre 2017, dont l’ambition est de constituer une ville neutre en carbone et 100 % énergies renouvelables d’ici à 2050, Paris prévoit de planter 20 000 arbres supplémentaires d’ici à 2030 et de constituer un canevas de petites forêts urbaines d’ici à 2050.

Autant d’exemples à suivre et d’opérations à multiplier dans toutes les villes au cours des prochaines décennies pour les faire évoluer vers de réelles forêts urbaines, comme autant de « cités végétales » du XXIe siècle, pour reprendre l’expression de l’architecte futuriste Luc Schuiten.

De Londres à Paris, regards sur l’islamophobie

De Londres à Paris, regards sur l’islamophobie

Plusieurs dizaines de femmes sont rassemblées le 2 avril 2011 place du Capitole à Toulouse, pour protester contre “toutes les formes de stigmatisation des musulmans en France. Remy Gabalda/AFP

La montée de l’islamophobie en France et au Royaume-Uni s’est intensifiée ces dernières années, notamment après les différents attentats terroristes qu’ont subi les deux pays, telles que l’attaque contre Charlie Hebdo 2015 dans la capitale française et l’attaque du pont de Londres en 2017. Ces attaques ont conduit la première ministre britannique, Theresa May ainsi que le Président de la République Française Emmanuel Macron à se rencontrer en janvier 2018 afin de réfléchir sur une action conjointe de contre-terrorisme notamment à l’encontre des sites Internet de réseaux de radicalisation.

Sur plusieurs plans, la France et le Royaume-Uni font face à des défis similaires. Situés en Europe de l’Ouest, les deux pays comportent une proportion non négligeable de personnes de confession musulmane.

Le Pew Research Center estime cette population à 5,7 millions de personnes en France, malgré le fait que les statistiques ethniques et religieuses ne soient pas disponibles dans ce pays. Au Royaume-Uni, le Muslim Council of Britain, organisation chapeautant les associations et institutions musulmanes compte 2,7 millions de personnes.

Cependant notre recherche montre que le phénomène d’islamophobie diffère entre les deux pays.

Les lieux de l’islamophobie

Pour tenter de comprendre la complexité de l’islamophobie, notre recherche portant sur les actes antimusulmans se concentrent avant tout sur les deux importantes capitales européennes de Paris et Londres.

Des données recueillies en 2015 grâce au travail des associations Collectif contre l’islamophobie en France (CCIF) et Tell MAMA au Royaume-Uni nous éclairent ainsi davantage sur ce phénomène et sa diversité.

À Paris, les actes répertoriés se déroulent en majorité à Paris intra-muros et s’amenuisent à mesure qu’on s’en éloigne. Ce qui créé un contraste entre le centre et sa banlieue, une banlieue qui présente moins d’actes islamophobes.

Actes islamophobes à Paris et à Londres. Author provided, Author provided (No reuse)

Cette distribution est différente à Londres, où autant d’incidents sont enregistrés aussi bien dans le centre londonien que dans dans la périphérie.

Beaucoup d’actes se déroulent dans les bus, les trains, les transports en commun de façon plus générale, dans des espaces du quotidien.

Latifa, qui a participé à notre recherche en tant qu’enquêtée à Londres nous relate ce qui lui est arrivé :

« Un homme dans le bus s’est penché vers mois, et a commencé à me faire des commentaires désobligeants allant jusqu’à m’appeler une “terroriste de Daech” ; en fait il me touchait. »

En France, la majorité des incidents se déroule au sein d’institutions publiques par exemple une mairie, une école ou un hôpital. À Paris en particulier, la plupart des actes antimusulmans correspond à des discriminations individuelles. L’une des personnes que nous avons rencontrée, Kenza, raconte :

« Alors qu’une de mes amies arrivait au lycée, le directeur lui a arraché son voile devant tout le monde. J’aurai toujours cette image dans la tête, la voir monter les escaliers morte de honte. »

Ce type d’agissements est directement lié à la loi de 2004 qui interdit le port du voile, et autres signes religieux dans les écoles publiques, au nom de la laïcité française.

Certains fonctionnaires – au courant ou non des détails de la loi – pensent qu’ils ont le droit d’étendre le champ d’application de la loi à tous les usagers des institutions publiques, et non seulement aux élèves des collèges et lycées.

En France, le niqab (ou voile intégral) a été interdit en 2010 dans tous les espaces publics, ce qui n’est pas le cas du foulard. Ainsi, l’islamophobie en France semble relever d’un fait plus institutionnel qu’uniquement individuel.

Des victimes et des auteurs très différents

Dans les deux pays, les principales victimes sont les femmes voilées. En France, elles sont majoritairement étudiantes.

L’originaire sud-asiatique ou nord-africaine des victimes (respectivement britanniques et françaises) est aussi corrélée à l’histoire coloniale et migratoire de chaque pays.

‘Une femme brandit une pancarte après les attaques de Charlie Hebdo en 2015. Shutterstock

Les hommes blancs sont les principaux auteurs d’agressions islamophobes au Royaume-Uni et sont perçus comme entretenant un rapport de domination sur les minorités ethniques et religieuses. Mais en France, il semble y avoir parité en la matière, car nous avons constaté qu’il y a autant d’hommes que de femmes parmi les agresseurs.

Certaines Françaises – se revendiquant d’un certain féminisme – dénoncent le port du voile, considérant qu’une femme voilée ne peut pas être féministe.

Le rôle de l’État

Nos recherches se sont également penchées sur la façon dont l’État, dans certains espaces, favorise certains agissements islamophobes.

Le modèle républicain français ne distingue pas les citoyens français sur des critères d’origine, de race ou de religion, et l’absence de statistiques dites ethniques empêchent selon certains de mettre en place des outils efficaces pour lutter contre de telles discriminations ce qui peut expliquer pourquoi il y a moins d’actes signalés en France.

Le Royaume-Uni, quant à lui, promeut plutôt le multiculturalisme et l’inclusion de la diversité ethnique et religieuse dans la société. Malheureusement, certains s’opposent à cette approche multiculturelle et adoptent des comportements racistes à l’encontre de celles et ceux qui « n’appartiendraient pas » au Royaume-Uni. Ces différents facteurs influencent aujourd’hui les communautés musulmanes à participer dans les débats politiques et à s’engager dans la société.

Les approches française et anglaise décrivent le rôle que joue l’État dans la détermination des actes antimusulmans et des personnes impliquées, à tel point que l’État a été reconnu comme l’un des cinq piliers de l’islamophobie. Les gouvernements des deux pays devraient donc être plus critiques et conscients du rôle que jouent leurs politiques dans les expériences quotidiennes de l’islamophobie.

Des trous de mémoire ? Ce n’est pas forcément Alzheimer

Beaucoup d’autres pathologies peuvent être confondues avec la maladie d’Alzheimer. Nick Karvounis/Unsplash

La maladie d’Alzheimer s’est inscrite, pour longtemps, dans notre imaginaire collectif. Qu’un numéro de téléphone nous échappe, que le nom du voisin nous reste sur le bout de la langue, et aussitôt la blague fuse : tu ne nous ferais pas un début d’Alzheimer ? La maladie fascine et effraie à la fois. On ne compte plus les films centrés sur les personnes atteintes de cette maladie. Et même les humoristes se sont emparés du sujet, comme le duo des Vamps ou la Belge Virginie Hocq.

Les oublis, les trous de mémoires, bref le mauvais fonctionnement de la mémoire, sont les symptômes qui conduisent le plus souvent une personne à soupçonner une maladie d’Alzheimer et à consulter. Mais beaucoup d’autres signes sont révélateurs, comme on peut le découvrir en rejoignant le cours en ligne gratuit, ou MOOC, de Sorbonne Université sur la maladie d’Alzheimer. La session vient de démarrer, et se poursuit jusqu’au 23 mai.

Faire des chutes répétées, c’est-à-dire deux chutes ou plus en 12 mois, est un signal d’alerte. Faire pour la première fois une dépression après l’âge de 65 ans en est un autre, ou encore présenter des signes de dénutrition protéinoénergétique comme une perte de poids involontaire, une perte d’appétit ou une faiblesse musculaire. Ces signes sont mal connus des patients et même des médecins, et face à eux on passe fréquemment à côté du diagnostic.

Le besoin d’aide pour les gestes de la vie quotidienne, signe révélateur

Une autre situation doit alerter chez une personne âgée : le fait d’avoir besoin d’une aide humaine pour réaliser des gestes de la vie quotidienne qui ne posaient pas problème auparavant, par exemple gérer ses médicaments, son budget, téléphoner, utiliser les transports en commun. Ce signe est surtout révélateur si ces difficultés ne trouvent pas une explication simple, comme une fracture récente ou une maladie touchant la vision ou la motricité.

Différents symptômes peuvent évoquer la maladie d’Alzheimer. Dans tous les cas ils doivent entraîner un bilan médical. Lotte Meijer/Unsplash

Ces différents symptômes, chez une personne âgée, ne sont pas spécifiques de la maladie d’Alzheimer. C’est-à-dire qu’ils peuvent trouver leur origine dans d’autres problèmes de santé. Dans tous les cas, ils doivent déclencher un bilan médical. Les médecins généralistes et les gériatres disposent aujourd’hui de tests de repérage fiables et rapides. Ils permettent en 2 à 3 minutes d’identifier des anomalies du fonctionnement cognitif. Si tel est le cas, un bilan spécialisé en consultation mémoire permet de poser le diagnostic de la maladie d’Alzheimer ou d’un autre trouble neurocognitif, ou encore de les écarter.

Si la maladie d’Alzheimer est le plus connu et le plus fréquent des troubles neurocognitifs majeurs, elle n’est pas la seule à perturber le fonctionnement de la mémoire. Les spécialistes en dénombrent plus d’une trentaine. Quatre maladies – ou groupes de maladies – figurent parmi les plus fréquentes. En les ajoutant à la maladie d’Alzheimer, on réunit plus de 90 % des cas de troubles neurocognitifs majeurs.

Alzheimer, ou maladie à corps de Lewy ?

La maladie à corps de Lewy corticaux présente plusieurs similitudes avec la maladie d’Alzheimer. Le début est insidieux et son évolution, lente et progressive. Elle perturbe la mémoire et les autres fonctions cognitives. Elle provoque des chutes et entraîne la dépendance. Mais certains signes permettent de la distinguer, comme le caractère très fluctuant des symptômes cognitifs d’un jour sur l’autre ou dans la même journée.

Cette maladie comporte aussi des hallucinations et des signes voisins de ceux rencontrés dans la maladie de Parkinson. Notamment, on observe une rigidité dite extrapyramidale, avec une raideur des articulations qui n’est pas liée à une maladie de l’articulation, mais à un trouble du relâchement des muscles et des tendons. Enfin le sommeil est troublé dans la phase paradoxale – celle des rêves – ce qui entraîne une agitation et des mouvements correspondant au songe en cours.

La maladie de Parkinson, si celle-ci évolue depuis plusieurs années déjà, peut entraîner des déficits cognitifs et même un trouble neurocognitif majeur. Surtout connue pour ses tremblements, la maladie de Parkinson peut pourtant entraîner un tableau comparable à la maladie à corps de Lewy. D’ailleurs on retrouve dans le cerveau des patients les mêmes lésions, ces corps de Lewy. Ce sont des agrégats anormaux de protéines qui sont observés dans certains neurones.

Alzheimer, ou AVC ?

Autre source de confusion possible : les maladies cérébrovasculaires, c’est-à-dire des vaisseaux qui irriguent le cerveau. Les accidents vasculaires cérébraux ou AVC sont provoqués par le blocage (occlusion) d’une artère (AVC ischémique) ou par un saignement (AVC hémorragique). Ils peuvent avoir des conséquences spectaculaires, comme une paralysie (hémiplégie). Mais ils peuvent aussi entraîner des perturbations neurologiques plus diffuses.

Ainsi, certains AVC peuvent se présenter sous forme de « lacunes », de plus petite taille, souvent présentes en plusieurs endroits du cerveau. Certains passent inaperçus. Les AVC peuvent entraîner des déficits cognitifs lorsqu’ils touchent les deux hémisphères du cerveau à la fois, que les neurones touchés représentent une quantité importante de tissu cérébral ou bien certaines zones particulièrement critiques pour le fonctionnement cognitif.

Certains signes orientent vers cette origine. C’est le cas si la personne a déjà connu un AVC, si les signes cognitifs sont apparus brutalement, c’est-à-dire d’un jour sur l’autre, si l’intensité des symptômes augmente par la suite de manière là aussi brutale (évolution en « marche d’escalier ») du fait de nouveaux AVC.

Une atteinte localisée d’abord à un lobe du cerveau

Une dernière cause de troubles neurocognitifs majeurs tient à des atteintes du cerveau nommées dégénérescences lobaires fronto-temporales. Il s’agit d’un groupe de maladies assez variées, débutant par une atteinte localisée à un lobe du cerveau puis s’étendant progressivement aux autres. Ces maladies peuvent toucher chacun des 4 lobes externes (frontal, temporal, pariétal et occipital) de chaque hémisphère. Au début, la mémoire fonctionne bien et les signes marquants relèvent d’autres domaines. Selon les formes, il peut s’agir de troubles du comportement, de symptômes psychiatriques, de troubles du langage ou de troubles visuels. Par la suite, la mémoire et les autres fonctions cognitives se dégradent.

Comme rien n’est simple, certains patients peuvent connaître plusieurs processus qui altèrent en même temps leurs fonctions cognitives. On parle alors de trouble neurocognitif mixte, et il n’est pas rare de voir des patients atteints à la fois par la maladie d’Alzheimer et la maladie cérébrovasculaire.

On peut se demander s’il est vraiment utile de chercher à distinguer ces pathologies. À quoi bon, disent certains, en l’absence de traitement permettant d’en guérir ? Il est pourtant important de savoir les reconnaître, car leur évolution, leur pronostic et leur prise en charge sont différents.

C’est pourquoi, la Haute autorité de santé (HAS) recommande, en présence de dysfonction neurocognitive majeure, de réaliser une IRM du cerveau qui permettra de repérer les signes d’éventuelles lésions vasculaires. Elle recommande aussi de réaliser une consultation dans un centre spécialisé dans les maladies de la cognition (consultation mémoire) pour mener cette enquête. Dans certains cas difficiles, il est possible pour préciser le diagnostic de recourir à des examens spécialisés d’imagerie fonctionnelle du cerveau et/ou de dosages biologiques dans le liquide céphalo-rachidien.

La démence, un terme médical passé dans le langage courant

Pendant longtemps, toutes ces maladies ont été rangées par les médecins sous le terme de « démence ». Mais ce terme médical, passé dans le langage courant, renvoie désormais à des représentations exagérément négatives, celles d’une crise spectaculaire de folie furieuse. Cette perception est la plupart du temps erronée, car beaucoup de patients ne présentent jamais d’épisodes aussi impressionnants.

De plus, on sait aujourd’hui que le simple mot de démence peut, s’il est prononcé, inquiéter les malades et leur entourage. Il peut aussi influer négativement le personnel qui les soigne et plus généralement la société, entraînant une méfiance vis-à-vis de ces personnes et leur mise à l’écart.

Ces représentations sont rarement énoncées à voix haute. Souvent même elles ne sont pas conscientes, ce qui les rend plus dangereuses. La société savante américaine de psychiatrie (American Association of Psychiatry) a actualisé son guide diagnostique des maladies psychiatrique, connu sous le nom de DSM 5) en 2015. Dans cette nouvelle version, le terme de « démence » est abandonné au profit de celui de « trouble neurocognitif majeur ».

Ce terme plus neutre, plus descriptif, n’a pas le passif du mot « démence » et n’induit pas de préjugés. Cette initiative a été saluée par les associations de familles de patients et par les spécialistes du domaine.

Le verbe « dégénérer », source d’images effrayantes

Cependant le trouble neurocognitif majeur n’a pas encore remplacé, dans la bouche des médecins, le terme très usité de maladies neurodégénératives. Il y a même un plan de santé publique qui leur est consacré ! Là encore, le verbe « dégénérer » peut induire des images effrayantes. Il suffit de chercher les synonymes du mot dégénéré pour s’en rendre compte : arriéré, détérioré, dégradé, imbécile, irrécupérable…

Par ailleurs, le terme « dégénératif » n’a pas une définition précise et reconnue en médecine. Il masque – assez mal – notre ignorance des mécanismes qui produisent une perte lente et progressive des capacités de la personne au fil du temps. Changer la terminologie ne changera pas l’état des malades. Cela ne permettra pas d’agir sur des maladies lourdes et déconcertantes pour lequel il n’existe pas à ce jour de traitement capable d’arrêter leur progression. Mais cela peut éviter des inquiétudes et des idées fausses néfastes pour les malades. Avec d’autres actions, le choix d’un vocabulaire neutre participe à une attitude de respect et de bienveillance vis-à-vis des personnes touchées par ces maladies.

Justice climatique : en Colombie, une décision historique contre la déforestation

Justice climatique : en Colombie, une décision historique contre la déforestation

L’Amazonie colombienne représente plus de 25 % du territoire du pays. Raul Arboleda/AFP

Par un jugement historique rendu le 5 avril 2018, la Cour suprême de la Colombie a ordonné au gouvernement colombien de mettre fin à la déforestation, lui rappelant son devoir de protéger la nature et le climat au nom des générations présentes et futures.

Elle a ainsi donné raison à un groupe de 25 enfants et jeunes qui, accompagnés par l’ONG Dejusticia, ont poursuivi l’État pour ne pas garantir leurs droits fondamentaux à la vie et à l’environnement. La Haute Cour leur a accordé une « tutelle », dispositif créé en 1991 qui garantit aux citoyens un examen rapide des plaintes pour violation des droits constitutionnels.

Dans le commentaire de leur décision, les juges ont enjoint le gouvernement, les gouverneurs des différentes provinces et les municipalités d’élaborer un plan d’action dans les cinq mois à venir pour préserver la forêt.

Une obligation « climatique »

Dans la même ligne que les contentieux climatiques les plus emblématiques de 2015 – les affaires Urgenda aux Pays-Bas et Leghari au Pakistan –, cette décision démontre que la Colombie et les pays du Sud rejoignent le mouvement de tous ceux qui, par le biais des tribunaux, demandent à leurs gouvernements de prendre des mesures plus efficaces et plus immédiates pour lutter contre le changement climatique.

Selon les chiffres de l’Institut d’hydrologie, de météorologie et d’études environnementales de Colombie (IDEAM), le pays aurait perdu en 2016, 178 597 hectares de forêt vierge ; un chiffre impressionnant témoignant d’une augmentation de 44 % par à 2015. 70 074 hectares auraient disparu en Amazonie, l’un des endroits les plus riches en biodiversité de la planète et qui joue un rôle fondamental dans la régulation des cycles hydrologiques et climatiques.

En dépit du fait que le gouvernement colombien avait pris des engagements internationaux pour réduire la déforestation dans cette région, les plaignants ont alerté sur le caractère incontrôlable du phénomène.

S’il n’y a aucun chiffre consolidé pour 2017-2018, toutes les prévisions indiquent que la déforestation sera beaucoup plus élevée que les années précédentes. L’Amazonie a concentré 66 % des alertes de déboisement précoce. Et pour le seul mois de février, ce sont plus de 20 000 hectares de forêt qui ont disparu en raison de brûlis illégaux pour établir des fermes d’élevage de bétail, des cultures et des routes.

Le précédent de 2016

La Haute Cour a également déclaré que l’Amazonie bénéficie de droits juridiques et de protection en vertu de la loi, une approche inhabituelle, mais pas inédite. La Cour constitutionnelle colombienne avait en effet déjà statué en 2016 (décision T-622) que le fleuve Atrato, très pollué, avait des « droits » à la protection et la conservation.

Dans sa décision du 5 avril dernier, la Cour Suprême, s’appuyant sur ce précédent, affirme que :

« Les droits accordés par la Constitution de la Colombie impliquent une transversabilité et concernent les êtres humains qui y habitent et qui doivent pouvoir jouir d’un environnement sain leur permettant de mener une vie digne et de jouir du bien-être. »

Climat et nature, sujets de droit

L’utilisation des droits fondamentaux de nature constitutionnelle dans les contentieux relatifs à l’environnement – et plus particulièrement dans les actions en justice climatique – a fait ces dernières années son chemin et trouve aujourd’hui un écho auprès de tribunaux, à différents niveaux de justice (internationale, régionale, nationale).

On pourra citer l’action de la Cour interaméricaine des droits de l’homme, créée par des pays d’Amérique centrale et d’Amérique du Sud pour défendre et faire appliquer la Charte interaméricaine des droits de l’Homme ; le 13 février 2018, elle publiait un avis historique qui assimile la protection de l’environnement aux droits de l’homme, invitant à lutter plus énergétiquement contre le changement climatique.

Par cet avis, la Cour interaméricaine a reconnu pour la première fois le droit fondamental à un environnement sain ; ce concept ne manquera pas de contribuer à la protection de l’environnement et du climat.

Alors qu’un certain nombre de poursuites en matière de climat ont été déposées partout dans le monde, l’avis de la Cour interaméricaine et la décision de la Cour suprême de Bogota sont sans doute décisives et annonciatrices d’un effet boule de neige.

L’ONG nord-américaine Our Children’s Trust, qui pilote l’action en justice climatique « Juliane versus US » a déjà entrepris ce type d’action en 2016. Cette plainte vise l’affirmation des droits constitutionnels à la vie et à la liberté dans le but de faire émerger un « droit à un climat stable et durable » pour préserver les générations futures contre les effets dévastateurs du changement climatique. Portée par 21 jeunes, cette action a remporté une victoire cruciale en mars 2018 quand une cour d’appel a statué contre le gouvernement fédéral.

Une « tutelle » pour les générations futures

La décision historique en Colombie affirme également l’existence d’une « justice intergénérationnelle ». La Cour reconnaît catégoriquement que « les générations futures sont sujets des droits » et qu’il « appartient au gouvernement de prendre des mesures concrètes pour protéger le pays et la planète dans lesquels ils vivent ».

Cet argument s’appuie sur différents travaux scientifiques, notamment ceux de James E. Hansen (Université de Columbia) qui avait présenté un amicus curiae – document à l’appui de la cause du demandeur – afin de soutenir la tutelle présentée par les jeunes plaignants colombiens.

Scientifique de premier plan dans le domaine du changement climatique, Hansen a cherché à sensibiliser sur les dangers imminents de ce phénomène et proposer des solutions pour garantir aux générations futures leur droit à un environnement sain.

Justice climatique et sociale

En établissant un précédent juridique, cette décision constitue aussi un progrès dans le déploiement d’une justice climatique ; et vient alimenter la liste de plus de 700 actions climatiques engagées auprès des tribunaux partout dans le monde depuis 2012. Ce nombre a considérablement augmenté depuis 2015, suite à l’affaire Urgenda et au momentum créé par l’Accord de Paris.

En déclarant l’Amazonie comme sujet de droit, la justice climatique s’entend au sens large de justice sociale. Dans la décision de la Cour suprême colombienne, la paysannerie est désignée comme devant faire partie des acteurs du nouveau Pacte intergénérationnel et social. Les juges renouvellent ainsi le dialogue entre les paysans et l’État.

Le gouvernement colombien ne pourra pas faire appel de la décision de la Cour suprême. Mais l’affaire pourrait être contestée devant la Cour constitutionnelle pour examen car les réclamations constitutionnelles en matière climatique sont rares.

Toutefois, la décision de la Cour suprême est définitive et exige que les autorités nationales et locales s’acquittent de leur mandat dans les cinq mois. Le gouvernement devra désormais élaborer ce « plan intergénérationnel en faveur de la vie de l’Amazonie colombienne » avec une large participation sociale, des plaignants, des scientifiques et des membres des communautés amazoniennes, pour prévenir la déforestation et réduire les émissions de gaz à effet de serre. Une nouveauté au niveau mondial qui devrait sans doute inspirer d’autres pays et d’autres juges dans les mois à venir.

Des firmes globales aux empires numériques, les trois vagues de la globalisation

Des firmes globales aux empires numériques, les trois vagues de la globalisation

Quand on réfléchit à la dynamique du capitalisme en longue période, on s’aperçoit que ce mouvement s’inscrit dans une dialectique entre des tendances à la concentration géographique et le jeu des forces de dispersion.

Dans ce contexte, le transfert des idées et la création des connaissances jouent un rôle central en impulsant trois vagues successives de globalisation repérées par Baldwin (2006) et par Cooke, Yun et Zhao (2018).

L’intégration par le marché

La première étape est celle du premier découplage (« the first unbundling ») qui a permis la séparation des lieux de fabrication et des zones de consommation, grâce à la baisse des coûts de transport amorcée à la fin du 19e et au début du XXe siècle. Cela signifie que le transfert, ou mieux, le transport des idées et des connaissances est coûteux, alors que le transport des biens coûte de moins en moins cher.

L’impact de la globalisation signifie que les secteurs les plus compétitifs, intensifs en capital humain et en technologie restent au Nord parce que si les retombées des connaissances et des processus d’apprentissage sont géographiquement localisées, il est logique que la localisation spatiale de l’industrie produise une localisation spatiale de l’innovation, du progrès technique et de la croissance.

Les écarts se creusent entre le Nord et le Sud qui se spécialise sur des biens intensifs en travail peu qualifié que l’on échange dans le cadre d’un « trade-in-goods », renforcé par la baisse des barrières douanières. De 1870 à 1913, un commerce intersectoriel se développe entre le Nord et le Sud, qui prend la forme d’un échange de biens primaires contre des produits manufacturés.

C’est encore vrai entre 1945 et 1970, mais parallèlement des échanges interindustriels reposant sur les coûts de facteurs, la productivité et les avancées technologiques prennent une importance croissante, à la fois sur l’axe Nord-Sud et sur l’axe Nord-Nord.

L’intégration par la production

La deuxième étape, le second découplage (« the second unbundling »), va éclore lentement durant la décennie 50-60, puis subir une poussée accélératrice avec le déploiement de l’Internet, les réseaux de télécommunications et la baisse des coûts de connectivité. Tout cela provoque une forte diminution du coût de transfert des connaissances.

L’accélération de la transmission des informations (accompagnée de capacités croissantes de recherche, filtrage, stockage et traitement) et l’augmentation de la quantité des informations transmissibles par unité de temps aboutissent à « comprimer l’espace » et à rendre possible le pilotage à distance de réseaux complexes de produits et de services par l’information. (Rosa 2010).

Ces transformations coïncident avec une industrialisation rapide au Sud et une désindustrialisation non moins rapide au Nord, accélérée, il est vrai, par la transition vers une économie de services. Pour être plus précis, entre les pays du Nord se développe un commerce intra-branche (demande de variétés, différenciation, économies d’échelle, etc.) pendant que sur l’axe Nord-Sud, un commerce intra-produit fondé sur l’échange de biens intermédiaires (spécialisation verticale) enregistre une augmentation rapide.

Alors que dans la première étape, la mécanisation des processus de production permet la délocalisation de segments de production entiers, la concurrence internationale opère aujourd’hui sur les économies en provoquant une segmentation technique plus pointue. Les entreprises, les biens et les services sont découpés en un certain nombre de tâches ou de fonctions qui peuvent être aisément délocalisées. En particulier, les activités de service se transforment, l’adoption et la mise en œuvre des TIC ayant favorisé l’innovation dans le secteur des services, « leur transformation algorithmique ». (Zysman, 2007).

Ce mouvement favorise la réorganisation et la délocalisation de la production et des activités de services qui concernent à l’origine les tâches faiblement intensives en connaissance. Les tâches sont soit des éléments d’un processus de production physique (la production d’un composant ou d’une partie d’un composant), soit un service de comptabilité par exemple.

Une firme qui délocalise une tâche a recours à des connaissances technologiques et des qualifications égales dans le pays hôte (logiciels en Inde), mais les prix obtenus sont beaucoup plus faibles en dépit de pratiques de management souvent moins efficaces. Pour réaliser cette opération, des coûts de coordination doivent être supportés, c’est-à-dire les coûts d’échange de l’information nécessaire pour coordonner différentes tâches à l’intérieur d’un processus de production unique.

L’unité d’analyse n’est plus le secteur ou l’entreprise, mais la tâche (ou la fonction) et les emplois qu’elle regroupe. Le nouveau paradigme – et les évolutions technologiques qui l’accompagnent – place au centre de l’analyse les tâches accomplies par des individus plutôt que les biens. Le « trade-in-tasks » tend à remplacer le « trade-in-goods ».

La troisième vague : « thin globalisation »

La vague actuelle est portée par l’économie numérique que Cooke et coll. nomment « Quaternary or 4.0 Web Economy ». Elle se caractérise par la concentration géographique de quelques centres de décision, d’innovation et de finance. Émergent alors des empires numériques dont les exemples les plus emblématiques sont : la Silicon Valley, Cambridge (Royaume-Uni), le secteur high-tech en Israël, New York et Londres comme centres financiers, etc.

L’économie numérique représente le 4e secteur, celui des industries quaternaires intensives en connaissances et en capacité d’innovation : R&D, technologies financières (high frequency trading), conception des logiciels et des systèmes, « cyber technologies », intelligence artificielle, robotique, etc. Les empires numériques articulent des plates-formes dans ces domaines, qui sont capables de répondre aux défis sociétaux : sécurité nationale, vieillissement de la population, assistance médicale, mobilité, etc.

Les innovations promues sont dites transversales (« recombinant » ou « crossover ») élaborées sur des chevauchements et des croisements entre différents domaines (intelligence artificielle, capteurs, radars et mobilité : les voitures autonomes par exemple). Il n’y a donc pas d’identification à un seul acteur comme pouvait l’être la firme globale de la génération précédente. La collaboration entre acteurs peut être réalisée ex post ou s’inscrire dans des programmes ayant pour objectif de façonner de nouvelles connaissances centrées sur un thème dominant (par exemple, la sécurité nationale aux États-Unis).

Une globalisation de ce type est dite de faible densité (« thin globalisation ») parce qu’elle prend forme dans un petit nombre de localisations qui sont massivement profitables et qui déclenchent trois processus : un contrôle étendu sur les flux de connaissances globales et une vaste échelle des opérations, une migration des compétences (le « software engineer » est le capital humain le plus recherché) et une relocalisation des activités à l’intérieur ou à proximité de ces empires. Ce qui, par contrecoup, intensifie la concurrence entre écoles et/ou universités en dévalorisant les modèles de pédagogie classique au profit d’apprentissages au sein d’équipes multidisciplinaires qui privilégient l’ingénierie de conception.

Le mouvement renforce la privatisation de la production et de l’utilisation des connaissances. On ne peut pas écarter complètement l’idée d’un rejet de « l’open science » au profit des brevets ou du secret. Par ailleurs, le mouvement risque d’accroître les inégalités, tant à l’échelle nationale qu’internationale.

En effet, il faut mobiliser des investissements énormes en capital tangible et intangible pour accroître les activités quaternaires. Inévitablement, la question des gagnants et des perdants se posera avec beaucoup d’acuité. Rappelons que 45 % de l’activité économique calculée à partir des profits aux États-Unis ne mobilise qu’une faible proportion de la force de travail, l’emploi très qualifié des industries quaternaires.

Deux autres conséquences apparaissent en filigrane. D’une part, les écarts de productivité entre les firmes situées sur la frontière technologique et les firmes moyennes appartenant à la même industrie vont s’accroître. D’autre part, les effets sur la productivité moyenne des salariés seront faibles et quasiment nuls pour le salarié médian américain.

Étude de cas : le streaming peut-il rapporter aux artistes ?

Étude de cas : le streaming peut-il rapporter aux artistes ?

Publicité pour la musicienne Taylor Swift, réfractaire aux plateformes de streaming sur les camions UPS en Californie en septembre 2017. Torbakhopper/Flickr, CC BY-ND

La citation du compositeur et chef d’orchestre américain Leonard Bernstein, « On ne vend pas la musique, on la partage », est plus que jamais adéquate à l’heure du streaming.

Le partage des fichiers commence avec l’arrivée de NAPSTER en 1999, plateforme d’échange de fichiers audio peer to peer, qui sera suivi d’autres plateformes du même type. C’est le début du téléchargement illégal.

Vingt ans de révolution sur le marché de la musique

Depuis bientôt 20 ans, l’industrie musicale, suite à la crise de la vente de CD, connaît de perpétuelles mutations. Le partage de musique libre et illimité a relancé cette industrie.

En 2006, c’est une nouvelle ère qui commence avec le streaming, par la création de You tube, Spotify ou Deezer. Cette nouvelle forme de consommation représente une alternative au problème du téléchargement et faire face à la loi Hadopi qui sanctionnait le téléchargement illégal.

L’arrivée du streaming a permis l’accès à un choix divers et gratuit en échange de visionnage de courtes publicités. Désormais, Spotify et autres plateformes proposent un abonnement aux consommateurs en échange d’un accès illimité sans stockage de la musique. Sans avoir la propriété de la musique, le consommateur à la possibilité de créer des playlists.

Le développement des accès Internet à haut débit va favoriser cette pratique. Cette écoute est utilisée par les disquaires et autres magasins spécialisés dans la vente de musique. Nombreuses sont les plateformes qui proposent un service d’écoute large et illimité : cela devient une forme de location. Avant il fallait débourser entre 10 et 15 euros par album, aujourd’hui pour 10 euros par mois en moyenne il est possible d’avoir accès une musique internationale.

En 2014, 40 % des revenus de la musique était généré par le téléchargement alors qu’en 2017, ce n’est plus que 12,3 % contre 85,2 % pour le streaming.

C’est un paradoxe : après avoir longtemps contribué à sa chute (par sa gratuité et par le téléchargement illégal), le streaming est en train de réanimer le marché !

Mais qu’en est-il des revenus versés aux artistes ?

Les plateformes de streaming ne vont pas autant rémunérer les artistes qu’auparavant avec leurs ventes de disques.

La forte diminution des revenus tirés du streaming et le manque de transparence des contrats entre les plateformes et les maisons de disques ont souvent été critiquées par les syndicats d’artistes. Les artistes n’ont souvent pas accès aux revenus versés par les plateformes aux labels et n’ont conscience que des royalties négociées entre eux et leur maison.

Napster, plateforme la plus généreuse, rémunère les artistes 0,016$ par écoute tandis que pour YouTube, ce n’est seulement que 0,0006$. Pour gagner 100 euros, un artiste doit soit passer 14 fois à la radio, soit vendre 100 albums, soit être écouté 250 000 fois sur un site de streaming payant… et en moyenne un million de fois sur un site de streaming gratuit !

En moyenne, ces plateformes proposent un abonnement à 9,99 euros par mois. La répartition de ce revenu représente : 1,99 euros pour les taxes dues à l’état, 1 euro pour les droits d’auteurs, 6,54 euros pour les intermédiaires (70 % pour les producteurs et 30 % pour les plateformes de streaming) et enfin seulement 0,46 euros pour les artistes. Le travail autour de sa création va générer un revenu 22 fois supérieur à ce qu’il va rapporter à l’artiste.

Ces services comptent 1 273 millions d’utilisateurs mais seulement 93 millions ont souscrit un service payant. Même si le streaming donne une bonne alternative à l’écoute de la musique, elle ne représente plus un revenu suffisant pour les artistes, et ne sera donc profitable qu’aux artistes de renoms.

Au niveau des artistes, les avis divergent, Taylor Swift a décidé de retirer toutes ses musiques de la plateforme Spotify, en déclarant :

« Je ne pense pas que la musique doit être gratuite, et j’espère que les artistes et leur label décideront un jour du prix de leurs musiques. J’espère qu’ils ne se sous-estiment pas eux-mêmes, ainsi que leur art. »

Elle a par la suite renégocié un contrat avec plusieurs plateformes pour remettre en ligne ses musiques et avoir des revenus générés par le streaming supérieur à ceux proposés à la base. Ce n’est en revanche possible que pour des artistes du niveau de Taylor Swift.

Ed Sheeran. NRK P3/VisualHunt, CC BY-NC-SA

Tandis qu’Ed Sheeran a une vision différente sur le sujet :

« Ma musique a été écoutée plus de 860 millions de fois, ce qui signifie qu’elle plaît aux gens […] Je joue à guichets fermés en Amérique du Sud, en Corée et en Asie du Sud-Est. Je ne pense pas que je serais capable de faire ça sans Spotify. »

Avant l’arrivée de ces plateformes de streaming, les artistes émergents devaient s’adapter aux exigences des labels qui leur demandaient à tout prix un tube dans l’album, qui allait devenir un « hit ». Car ce n’était qu’une fois que la chanson rencontré un succès à la radio que des fonds étaient levé pour la communication de l’album et le tournage de clips vidéo.

Le développement de ces plateformes qui entraîne un accès facile au plus grand nombre de personnes va permettre la découverte et l’écoute d’un grand nombre d’artistes peu connus. Grâce à ces sites de partage, de jeunes artistes indépendants souhaitant se faire un nom dans monde de la musique vont pouvoir mettre en ligne leur production sans avoir une maison de disque au préalable et donc par la suite se faire connaître. Le manque de moyen de certains artistes était le principal frein à ceux qui souhaitent être connus, et par la suite pouvoir signer dans une maison de disque.

Reste qu’en 2018, et plus que jamais, les représentations sur scène des artistes émergents, comme pour les artistes reconnus sont leur principale – et parfois unique – source de revenus.

Et si nous lisions la francophonie ? (Créons notre réseau francophone avec vos commentaires ! pourquoi pas !)

Emmanuel Macron à L’Académie française, le 20 mars dernier. AFP

La Francophonie est à l’honneur en ce moment : elle a eu sa journée rituelle, qui était aussi celle du printemps, le 20 mars, et dans un discours devant l’Académie française, le président de la République a présenté un plan – « Ambition pour la langue française et le plurilinguisme » – visant à en renouveler la conception et le fonctionnement. On verra à l’usage ce qu’il en advient, mais au fait, qu’est-ce que ce monde « francophone » dont on nous parle sans que l’on comprenne toujours de quoi il s’agit ?

Interventionnisme linguistique

La Francophonie est la version contemporaine et mondialisée du traditionnel interventionnisme linguistique de la France. Dans notre pays, l’intervention politique dans le domaine de la langue a des précédents célèbres. L’abbé Grégoire, confronté au plurilinguisme de la France du XVIIIe siècle, a présenté à la Convention un Rapport sur la nécessité et les moyens d’anéantir les patois et d’universaliser l’usage de la langue française en vue de faire naître une langue nationale.

Aujourd’hui, l’Organisation internationale de la Francophonie est l’institution la plus importante de cette tradition française tournée vers les relations internationales. Au plan politique, elle appartiendrait aux « urgences françaises » (titre du livre de Jacques Attali, 2013), avec un but clair : « accroître notre influence politique, économique et culturelle », bref être l’un des axes géostratégiques de la politique étrangère française. Elle pourrait pallier le sentiment du déclassement de la France dans le monde, que nous rappellent quotidiennement les crises internationales, où notre pays a un poids limité. Puissance moyenne, la France rayonnerait par sa langue, instrument de propagation de sa culture. Il s’agit évidemment d’un programme national systématiquement minoré lorsqu’on évoque une communauté multiculturelle, il n’en existe pas moins et d’un point de vue de politique intérieure, il a sa légitimité. Toutefois, il convient aussi de demander leur avis aux « Francophones ».

Depuis janvier 2018, la plateforme Mon idée pour le français, consultation publique mondiale, a été conçue pour qu’ils puissent répondre. Elle ne brille ni par la diversité ni par l’originalité de ses réponses, comme le remarque A. Waberi (Le Monde 14 février). C’est qu’il ne s’agit pas de proclamer la supériorité d’une langue : le français n’est pas plus apte qu’un autre idiome à affronter les problèmes de ce temps. En pratique, diplomates et hommes d’affaires sont d’accord, la meilleure langue pour le commerce, c’est celle du client. Le français n’est pas non plus une langue d’oppression ou de libération en soi. En Afrique, les peuples sont aussi bien opprimés en anglais ou en portugais. S’il suffisait de changer de langue pour anéantir une dictature ! En réalité, ces débats posent la question des contours du phénomène francophone sans considérer l’ambiguïté du terme.

Francophonie, francosphère, littératures francophones

On prend rarement le temps de distinguer trois réalités francophones : la Francophonie, avec une majuscule, qui désigne l’ensemble des organismes politiques ayant pour centre l’usage de la langue française. Le principal acteur contemporain en est l’Organisation internationale de la Francophonie. Ensuite, la francophonie ou francosphère, l’espace de communication (oral, médiatique, électronique) entre locuteurs du français, et enfin les littératures francophones (ou francophonie littéraire). Sur les deux premières, les opinions des « Francophones » varient en raison de la diversité des situations, mais une majorité s’accorde pour présenter la Francophonie comme une tentative destinée à équilibrer le discours sur le village mondial à l’américaine, et pour la recentrer sur ses missions premières, éducation, culture et langue, donc pour créer un « espace de solidarité » (V. Tadjo, Le Monde, 26 janvier). Cela pourrait notamment répondre aux deux premiers volets de la stratégie définie par le président de la République : apprendre et communiquer. Mais quid de la francophonie littéraire ?

Un archipel littéraire mondial

On demande souvent aux écrivains de réfléchir à la Francophonie (ainsi, Leïla Slimani, actuelle représentante du président de la République à la Francophonie). Ce n’est pas absurde. L’une des manières de reconnaître l’importance du fait francophone est de considérer ces littératures dans leur richesse propre. La lecture de ces œuvres permet de comprendre les transformations historiques et d’entendre les idées et les aspirations émanant des multiples régions « francophones ». Elles appartiennent au troisième et dernier volet de la stratégie pour la francophonie : Créer.

Aujourd’hui, alors que l’ère des littératures nationales, repliées derrière leurs frontières, est révolue, les littératures francophones correspondent à l’air du temps. Elles sont l’un des espaces transnationaux de langue européenne, qui se sont développés à l’échelle planétaire. Comme les lettres anglophones, hispanophones ou lusophones, elles constituent un archipel littéraire d’importance mondiale. Même si certaines de ces littératures sont plus anciennes, ce développement date pour l’essentiel de la seconde moitié du XXe siècle. C’est alors que les littératures francophones (l’ensemble des littératures de langue française issues de régions extérieures à l’Hexagone) sont progressivement devenues un espace mondialisé, s’étendant, pour aller vite, entre une francophonie du Nord (Belgique, Québec, Suisse) et son homologue du Sud (des Caraïbes à l’océan Pacifique, du Maghreb à l’océan Indien) avec l’Afrique subsaharienne comme futur géant démographique. Certes, la séparation littérature française (hexagonale, en fait)/littératures francophones est contestable, comme le dénonçait dès 2007 le Manifeste pour une littérature-monde en français, publié dans Le Monde à l’initiative de Michel Le Bris et Jean Rouaud. Aujourd’hui, le partage subsiste. Sans doute disparaîtra-t-il à terme, sauf dans certains cas où la précision s’impose.

La francophonie, comme l’anglophonie ou l’hispanophonie, joue un rôle croissant dans la définition du canon de la littérature mondiale. Dans cet ensemble littéraire, l’expérience des écrivains, leur vision du monde s’inscrivent dans une langue partagée mais retravaillée, subvertie, élargie. Les grands textes en français sont plus accessibles et une tradition spécifique d’interprétation s’impose. Un canon littéraire nouveau apparaît, où à côté des classiques modernes que sont Sartre, Camus ou Sarraute figurent Césaire, Djebar, Hampâté Bâ, Bouvier ou Miron. Durant son discours, Emmanuel Macron a cité une vingtaine d’auteurs, d’inégal intérêt certes, mais qui donnent une idée de l’importance actuelle des Francophones, tant dans l’espace littéraire en français que dans les lettres mondiales.

Cet archipel littéraire de langue française, qui est loin d’être homogène, demeure encore trop centralisé et ce serait précisément l’une des tâches de la Francophonie que de faciliter l’autonomie, notamment en aidant les structures éditoriales. On connaît le rôle de Présence Africaine pour la diffusion des lettres africaines et caribéennes. Aujourd’hui, ce sont les structures locales du Sud qui méritent d’être soutenues, telle l’Alliance internationale des éditeurs indépendants, qui effectue un travail difficile de coordination des éditeurs en Afrique. À cet égard, deux points de la stratégie gouvernementale sont prometteurs : soutenir les industries culturelles et créatives des pays francophones ; organiser des États généraux de l’édition en français.

Des mouvements majeurs sont nés dans cet espace (la Négritude de Césaire, Damas et Senghor, la Créolisation selon Édouard Glissant), parfois au contact d’autres archipels littéraires (ainsi, le Congolais Sony Labou Tansi s’inspirant du Réalisme magique latino-américain). Les auteurs qui illustrent cet espace de langue française, Lépopold Sédar Senghor puis Ahmadou Kourouma, Kateb Yacine et Mohammed Dib, Maryse Condé ou Ananda Devi aujourd’hui, permettent de découvrir et de comprendre les cheminements d’identités contemporaines en mouvement. Tout comme les écrivains de langue française issus d’espaces non francophones, fort nombreux dans la deuxième moitié du XXe siècle, de Samuel Beckett ou François Cheng à Milan Kundera. Ici aussi, les trajectoires et les options créatives sont très variées. On évitera d’y reconnaître la répétition du modèle désuet d’une France, culturellement dominante, accueillant les diversités venues des quatre coins du monde. Leur apport à l’ensemble littéraire de langue française est à la fois situé dans le vieux centre parisien et subtilement décentré.

Un archipel littéraire mondial dans notre langue s’est formé et ne cesse de croître sous nos yeux. Il nous reste à le parcourir pour mieux percevoir ce qui se joue sur les autres continents. Après tout, on saisit bien mieux l’histoire, la vie et les aspirations caribéennes en lisant Simone Schwarz-Bart, Louis-Philippe Dalembert ou Patrick Chamoiseau, et l’on découvre le dynamisme de la plus grande ville francophone du monde, qui n’est pas Paris mais Kinshasa, dans les romans d’I.K. Jean Bofane. Paul Ricœur définissait la carte culturelle du monde comme « un entrecroisement de rayonnements à partir de centres, de foyers » non pas définis par la souveraineté de l’État nation, mais par leur créativité, « leur capacité d’influencer et de générer dans les autres foyers des réponses. » (Le Monde 24 mai 2004). Les littératures francophones sont devenues l’un de ces grands foyers actuels.

Ainsi entendue, la Francophonie/francophonie n’est ni à oublier ni à instrumentaliser. Par sa créativité, elle fait vivre notre langue et nous parle d’un monde pluricentré, sans être la défense et illustration de quelque organisation politique que ce soit. On ne « déringardise » pas une langue, pour reprendre l’expression attribuée à Leïla Slimani, mais plutôt certains de ses locuteurs. Tant d’écrivains de langue française nous le montrent de mille manières.

Lisons-les, relisons-les, intégrons-les plus systématiquement à nos cursus littéraires, comme y insiste Christiane Achour (Diacritik, 20/03), la francophonie littéraire est un excellent moyen d’entrer dans le XXIe siècle et de mieux comprendre les transformations sociales, esthétiques, philosophiques de ce monde et de ce temps

Rentrer dans l’image : sommes-nous tous Narcisse ?

Rentrer dans l’image : sommes-nous tous Narcisse ?

Présentation d’un casque virtuel lors d’un salon en Allemagne (août 2017): à quel moment perdons-nous pied avec la réalité ? Tobias Schwarz/AFP

Pendant les vacances de Noël, j’ai sorti mon album de famille et j’ai présenté à une petite fille de cinq ans une photo de ma mère (née en 1936) prise à peu près au même âge. Je voulais lui montrer comment les jeunes filles s’habillaient et se coiffaient dans les années 40 au siècle dernier.

L’enfant a instinctivement touché la photo avec son pouce et son index, en essayant de zoomer comme s’il s’agissait d’une image visualisée sur l’écran d’un iPad ou d’un portable. Vu que rien ne se passait – l’image restait parfaitement fixe –, la petite fille n’éprouva aucun intérêt pour ma mère, sa robe et sa coiffure, et se dirigea tout de suite vers d’autres cibles beaucoup plus attractives, m’abandonnant avec mon album ouvert sur les genoux.

Une prophétie vérifiée

La prophétie prononcée par le philosophe allemand Walter Benjamin cette même année 1936 – à savoir qu’après l’invention de la photographie notre expérience de l’image serait devenue de plus en plus tactile, une véritable manipulation – devenait réalité devant mes yeux avec ces petites mains appartenant à une représentante de la « touch-screen generation ».

L’avènement des écrans tactiles a profondément transformé la manière de vivre le monde, surpeuplé d’images : une expérience éminemment visuelle s’est métamorphosée en affaire manuelle.

Aujourd’hui, le développement rapide des technologies haptiques promet d’introduire prochainement à grande échelle des écrans qui offrent la possibilité d’apprécier aussi la texture matérielle des choses représentées par l’image.

Or, qu’arrivera-t-il quand on passera du toucher natif tactile au toucher natif « immersif », c’est-à-dire la capacité dès le plus jeune âge de comprendre la nécessité du toucher pour faire expérience des images ?

Le casque virtuel : une réalité accessible

La diffusion des casques de réalité virtuelle est en effet de plus en plus massive. Leur prix baisse progressivement (de 800 à 600 euros pour HTC en quelques mois) et la capacité de colonisation sur d’autres supports est impressionnante : on pense ainsi à Facebook Spaces mais aussi à l’e-commerce comme pour l’Ikea Virtual Reality Kitchen Experience où l’on expérience différentes pièces de la maison ou encore à son utilisation dans divers secteurs professionnels.

Plonger avec des requins-marteaux, National Geography.

Par exemple, la réalité virtuelle est utilisée pour aider à affronter les syndromes de stress post-traumatique chez les soldats.

Elle nous oblige ainsi à nous interroger sur les implications esthétiques, éthiques, politiques et économiques d’un dispositif qui modifiera vraisemblablement d’une façon radicale notre manière d’être au monde.

Sortir du cadre

La première caractéristique qui frappe une fois enfilé un casque, c’est le champ visuel à 360° qu’il offre : si l’expérience traditionnelle de l’image était celle d’un objet iconique encadré (un cadre de tableau, un écran du cinéma, de la télé ou de l’ordinateur), l’image du casque nous apparaît décadrée, privée de ses limites, ce qui l’amène à coïncider avec le monde qu’on perçoit.

Si le cadre nous permettait de distinguer l’espace fictif (à contempler) de l’espace réel (à utiliser), son élimination transforme l’image dans un environnement qu’on peut habiter, dans lequel on peut exprimer sa propre agentivité.

Ce qui nous amène à la deuxième caractéristique qui qualifie l’expérience avec les casques : une forte sensation de présence, d’« être-là », qui est déclenchée par ce type d’image, qui est pour cela fréquemment défini comme « environnement immersif ». Or, loin de se borner à la réalité virtuelle, le désir de pénétrer dans l’image appartient à l’histoire millénaire de l’humanité, comme nous le montre le mythe de Narcisse, qui tombe amoureux de son propre reflet dans l’eau et, dans une variante de la légende, s’y plonge pour l’embrasser.

Michelangelo Caravaggio, Narcisse, XVIᵉ siècle. Yorck Project/Wikimedia

Selon l’hypothèse chamanique, même les peintures paléolithiques auraient servi à transformer la dure surface rocheuse des caves dans un seuil osmotique, un passage, permettant d’accéder à dimensions transcendantes.

Cela amène à questionner cette pulsion d’immersion d’un point de vue évolutionniste : est-ce que la constance de l’effort humain à pénétrer dans l’image a constitué un quelque avantage pour la survivance de l’espèce ?

De Narcisse jusqu’aux casques virtuels, se déploie ainsi la longue durée d’un désir qui semble relever de notre structure anthropologique même et qui doit être exploré d’une façon généalogique. Il faudrait donc interroger les expériences immersives de la réalité virtuelle comme la dernière étape d’une histoire dont la genèse remonte à l’aube de l’humanité.

C’est ce que j’ai commencé à faire pendant mon séjour de recherche à l’Institut d’études avancées de Paris, sur un projet intitulé Hyperimage. À travers ce projet, j’essaie de combiner théorie et histoire des images, archéologie des médias et sciences cognitives pour élaborer une approche multidisciplinaire qui soit à la hauteur des défis posés par les environnements immersifs et leurs précurseurs. L’enjeu le plus complexe est ici d’explorer les techniques et les images dans leur relation intime avec la sensibilité humaine et ses modifications à travers l’histoire.

La force du « regard caméra » au cinéma, Arte.

Simulation, immersion et environnements hyperréalistes

Chaque époque, selon les techniques de production iconique à chaque fois disponibles, a répondu à l’appel vibrant de l’immersion à sa propre manière, et doit être étudiée avec une approche critique, c’est-à-dire axée sur les possibilités et les limites historiquement conditionnées.

Les peintures en trompe l’œil, les panoramas, la stéréoscopie – procédé photographique permettant d’appréhender la profondeur du relief –, l’interpellation directe du spectateur, le « regard caméra », le plan subjectif, le cinéma en 3D, la multisensorialité du post-cinéma qui a recours à sièges dynamiques et stimulations tactiles et olfactives, l’incorporation du Moi dans un avatar ou dans un hologramme (on se rappelera des interventions de Jean‑Luc Mélenchon durant la campagne présidentielle) ne sont que quelques-unes des stratégies qui au fil des siècles ont modulé l’affaiblissement de la barrière qui sépare l’image de la réalité.

Ces stratégies produisent un effet paradoxal, avec des images qui cherchent à se nier elles-mêmes en tant qu’images pour se présenter immédiatement (sans médiation) comme la réalité qu’elles représentent.

L’idée d’un médium qui se veut aussi immédiat, quasi constamment dans l’urgence, nécessite une approche critique pour le proche avenir qui nous attend, dans lequel nous serons vraisemblablement de plus en plus exposés aux (ou mieux immergés dans des) environnements immersifs.

Les possibilités d’intervention sont multiples, si l’on songe au domaine de l’éducation : ainsi, s’il est intéressant d’enseigner l’histoire de l’art à l’école, on devrait aujourd’hui élargir le champ à l’histoire des images tout court (pas seulement les images artistiques), afin de sensibiliser les nouvelles générations aux potentialités et aux limites des images virtuelles.

Comment les « digital natives  » sont-elles devenues les entreprises les plus innovantes du monde ?

Comment les « digital natives » sont-elles devenues les entreprises les plus innovantes du monde ?

Auteur

Comment ces entreprises sont-elles devenues les plus innovantes du monde, en l’espace de quelques années seulement pour certaines d’entre elles ? La réponse est peut-être à chercher du côté de leur nature : sept des dix premières entreprises du classement du BCG sont considérées comme « digital natives ».

Les entreprises les plus innovantes de 2018 selon le BCG. Rapport du BCG

Raisonner en écosystème

Une des forces des « digital natives » est d’avoir su dépasser la notion de produits ou de services pour penser en termes d’écosystèmes. Cette approche nécessite une culture organisationnelle particulière. En effet, ces entreprises raisonnent en création de valeur à partir d’une logique « user-centric » : besoins, attentes et caractéristiques propres aux utilisateurs finaux sont pris en compte à chaque étape du développement d’un produit. La dimension servicielle est poussée à l’extrême. Ainsi, Apple n’est plus un simple fournisseur de matériels (ordinateurs, tablettes, téléphones, etc.) mais est devenu aussi un fournisseur de contenus (musiques, séries, logiciels…). Au point même que la dimension servicielle sera sans doute prédominante dans les prochaines années : le développement d’Apple Pay peut être interprété comme la première brique d’un positionnement en tant que futur acteur du secteur bancaire par exemple.

Cette stratégie de création et de maîtrise d’un écosystème entier se retrouve aussi chez d’autres acteurs tels qu’Airbnb. La célèbre plateforme de réservation de logements a noué de nombreux partenariats avec des acteurs proposant à ses clients des services connexes mais très complémentaires (conciergerie, réservation de moyens de transport, services d’immersion avec participation à des soirées, etc.). La capacité à nouer des partenariats et des alliances avec d’autres acteurs, parfois même dans une logique de coopétition, constitue une compétence distinctive des organisations qui réussissent le mieux à innover. L’étude du BCG montre ainsi que les joint-ventures ont augmenté de 60 % sur les 4 dernières années. De nombreuses autres formes de partenariats sont également possibles, jusqu’à des stratégies d’acquisition lorsque cela s’avère nécessaire.

Identifier finement les besoins

L’approche par écosystème se traduit donc par une logique de co-construction de l’offre. L’entreprise innovante s’associe à des acteurs spécialisés dans des secteurs parfois très éloignés de son cœur de métier, afin d’accroître la valeur de son offre centrale en agrégeant autour d’elle des produits et services qui correspondent aux besoins concrets et immédiats de divers microsegments. Ceux-ci sont ciblés et mieux identifiés grâce à la collecte de données (data).

Cette tendance est donc considérablement renforcée par la digitalisation des processus et des réseaux, qui permet de mettre en place une offre rapidement et à moindre coût. Elle s’amplifie dans tous les secteurs, y compris dans l’industrie, où la valeur créée provient de plus en plus des services digitaux autour des produits. C’est par exemple le cas du développement des services de géolocalisation qui permettent de proposer de nouveaux services autour des véhicules, tels que les appels d’urgence automatiques en cas d’accident, la localisation de son véhicule grâce à son smartphone, une assurance « pay as you drive » etc.

Adopter une orientation « data analytic »

La montée en puissance des entreprises « digital natives » dans les classements des entreprises les plus innovantes s’expliquent par leur capacité à être dans une logique de capteurs de données, aussi bien internes qu’externes. Leurs organisations sont adaptées à des logiques d’exploration et d’identification fine des tendances en matière de comportements de consommation et de transformation des usages. C’est ainsi que Netflix a innové en mettant à disposition de ses abonnés tous les épisodes d’une série en une seule fois, ou que Spotify a proposé une offre de musique en ligne dans une logique d’accès et non plus d’achats avec propriété des albums.

Les principes sur lesquels s’appuient ces nouveaux acteurs sont la vitesse, la « scalabilité » des activités créées (capacité à changer d’échelle, à développer massivement le volume d’activité) et la production de valeur. Néanmoins, cette logique de captation des données n’est pas suffisante en elle-même. Elle est très souvent complétée par un investissement dans de nouvelles ressources et compétences en matière d’analyse et de traitement des données collectées : data scientists, spécialistes de l’intelligence artificielle, architectes big data etc.

Pratiquer le « test and learn »

La seconde caractéristique partagée par les « digital natives » est la culture du « beta test », qui consiste à faire tester par les futurs utilisateurs du produit fini des produits ou services encore en développement. Cette pratique des tests de pré-versions est systématique. Elle est facilitée par la possibilité de proposer rapidement et à moindre coût des plateformes de services (Airbnb, Spotify, Netflix, etc.). Les organisations les plus innovantes ont donc naturellement mis en place des processus orientés sur le « minimum viable product » (MVP, version simplifiée du produit) et un « time to market » (durée requise pour construire et commercialiser son offre) beaucoup plus court que celui de leurs concurrents, ce qui leur permet d’être plus rapide qu’eux.

Qui plus est, les données collectées (auprès des communautés de lead users – utilisateurs précoces à l’avant-garde d’une tendance – ou sur des plateformes de crowdsourcing etc.) peuvent être utilisées quasiment en temps réel par les entreprises dans leur processus d’innovation. GE (General Electrics) a par exemple développé un programme baptisé Fastworks. S’inspirant des pratiques des start-up, ce programme vise à mettre en place des procédés permettant de mieux apprendre de l’environnement et être plus efficace dans le tri des idées qui émergent, pour être capable d’en tester un maximum rapidement et ne garder que celles qui ont du potentiel. Objectif : s’adapter vite au marché.

S’ouvrir à l’extérieur et sortir des silos

Ce type d’approche suppose une culture facilitant l’intégration d’idées ou de solutions externes dans les organisations. Il s’agit de dépasser le fameux syndrome NIH (Not Invented Here), qui se traduit par le rejet des technologies externe et constitue l’un des principaux freins à l’innovation. Il permet aussi de casser les fameux « silos organisationnels ». Au final, avec la mise en œuvre de méthodes agiles, la digitalisation des processus modifie donc également le processus de conception innovante.

Enfin, les entreprises digital natives ont été aussi précurseurs dans la création ou la mise en place de partenariats avec des structures telles que des incubateurs, des accélérateurs, des espaces de coworking, etc. Elles entretiennent ainsi leur capacité d’exploration de domaines connexes à leur cœur de métier, et favorisent la mise en concurrence régulière de leurs équipes de R&D internes.

Actuellement, la France ne compte que trois représentants dans le baromètre du BCG (Orange, Renault et Axa). Elle rêve d’être le prochain pays où naîtront les futurs champions économiques mondiaux du digital. Pour y parvenir, elle multiplie les initiatives : création du label FrenchTech, représentation au CES de Las Vegas etc. Nul doute que l’analyse approfondie des pratiques et de la culture des « digital natives » l’aidera également à atteindre son objectif.

On n’arrête pas le progrès ! Vraiment ?

On n’arrête pas le progrès ! Vraiment ?

Ce texte est publié à l’occasion du partenariat de The Conversation France avec le Collège des Bernardins autour de l’événement hebdomadaire du Mardi des Bernardins. Comprenant un cycle de 6 débats intitulé « On n’arrête pas le progrès ! Vraiment ? » animé par Didier Pourquery du 23 janvier au 27 mars. Le débat de lancement reprenant la problématique du cycle, a fait intervenir le philosophe Pascal Chabot, le directeur du musée de l’Homme, André Delpuech ; la théologienne Juliette de Dieuleveult, ainsi que le philosophe et physicien Étienne Klein.


« On n’arrête pas le progrès ! Vraiment ? » Cette formule illustre bien à la fois l’enthousiasme que suscitent les nouvelles découvertes scientifiques et technologiques et l’inquiétude grandissante envers cette course effrénée à l’innovation que plus rien ne semble pouvoir arrêter.

Les possibilités du progrès paraissent aujourd’hui illimitées. Sources d’espoir celles-ci soulèvent pourtant de nombreuses interrogations à la fois éthiques, spirituelles et philosophiques. Quel sens voulons-nous vraiment donner à ce progrès ? Comment l’employer et à quelles fins ? N’est-il pas en train d’échapper à notre maîtrise ? Doit-on le repenser ?

Le sens du progrès

S’interroger sur la notion de progrès c’est aussi et surtout questionner son sens. Le progrès n’a pas toujours été investi de la même signification. Le cours de l’histoire a directement influencé notre perception du progrès.

Dans L’idée de progrès. Une approche historique et philosophique, Pierre-André Taguieff, directeur de recherche au CNRS, s’intéresse à cette évolution. Aujourd’hui l’idée de progrès est principalement associée à l’innovation technique, scientifique.

Cette perception technoscientifique du progrès est devenue triomphante au détriment d’une approche plus humaine et institutionnelle. C’est ce déséquilibre qui serait responsable de la crise actuelle rencontrée par le progrès.

Pour clarifier le caractère multiple du progrès, Pascal Chabot choisit de distinguer le progrès utile du progrès subtil dans son livre Après le progrès. Le progrès utile, triomphant car multilinéaire, fonctionne par capitalisation. Au fondement de l’avancée technique et scientifique, on peut le qualifier de « progrès technocapitaliste ». On entend par cela que ce qui a techniquement été inventé ne nécessite pas d’être réinventé pour être intégré dans un progrès prochain. Le capital est voué à croître.

À côté de ce progrès utile, un progrès plus discret mais en lien direct avec le sens de l’existence, doit exister. Il s’agit du progrès subtil, à la fois cyclique et initiatique et incarnant le progrès humain. Ce progrès relève d’une autre logique, selon laquelle il faut « réapprendre à vivre, réinterpréter les valeurs, réinterroger le sens » au fil des époques.

Notre rapport au progrès a aussi profondément changé et ce en très peu de temps. Le sens du progrès serait ainsi parvenu à s’inverser en une seule génération. Ce changement de perception s’expliquerait par le glissement d’un jugement moral selon lequel il serait inconcevable de vouloir arrêter la marche du progrès vers un jugement plus empirique selon lequel nous ne sommes plus en mesure d’arrêter ce progrès qui nous échappe,

« comme si le progrès s’était émancipé de nos propres désirs et échappait à toute maîtrise » (Étienne Klein).

Une vision occidentalisée

Notre perception du progrès est aussi avant tout directement déterminée par notre origine, notre vision du monde et notre système de valeurs.

André Delpuech, directeur du musée de l’Homme, souligne le caractère occidentalo-centré de notre vision de progrès. Le sens que l’on donne au progrès découle directement de notre vision de la société en tant qu’homme occidental.

Ainsi, croire que les étapes de l’humanité doivent être pensées de façon linéaire relève d’une vision subjective et réductrice de l’histoire. Cette façon d’appréhender le progrès peut être discutée.

Différencier progrès et innovation

On constate une tendance de plus en plus prononcée à associer progrès à l’innovation. Or ces deux notions relèvent de réalités différentes. Le mot progrès, structurant de la modernité, aurait commencé à décliner dans les années 80 au profit du terme innovation et ce jusqu’à presque disparaître de notre vocabulaire. On assiste en ce sens à un véritable renversement sémantique selon Étienne Klein.

Progrès et innovation relèvent de deux rhétoriques qui se contredisent. L’innovation s’appuie sur l’idée de « temps corrupteur ». Il faut innover pour « maintenir le temps », « empêcher que le monde se défasse » (Étienne Klein). À l’inverse le progrès s’appuie sur l’idée de « temps constructeur ». Au nom d’une certaine conception du futur collectif, l’individu accepte de sacrifier son temps personnel.

La distinction entre les deux termes est essentielle. Le terme progrès au-delà de sa dimension technoscientifique, comprend aussi le progrès social et humain. Or le mot innovation ne comprend pas ces deux concepts. L’innovation est ici moins globalisante que le progrès.

Le progrès dans la bible

Même si le lien entre foi et progrès n’est pas évident à concevoir, ces deux termes ne sont pas pour autant totalement étrangers. Comment parler de progrès d’un point de vue théologique ?

On peut retrouver l’idée de progrès dans les Ecritures, à travers la notion de nouveauté. Cette nouveauté serait directement incarnée par la figure du Christ et par la Bonne nouvelle. Dans la Bible les notions de devenir et de genèse sont centrales et le progrès se fait en l’Homme sous l’action de Dieu. Le progrès doit être pensé comme le « rapport entre promesse et accomplissement » (Juliette de Dieuleveult). L’histoire d’Abraham illustre parfaitement cette vision.

En ce qui concerne la relation actuelle entre foi chrétienne et progrès, l’Église a cherché à développer une pensée en réponse aux avancées techniques et technologiques. La doctrine sociale de l’Église, l’attention portée aux problèmes écologiques ainsi que le critère de bien commun en sont un bon exemple.

La crise du progrès

Le XIXe siècle, bouleversé par une multitude d’avancées techniques et scientifiques, est marqué par une foi dans le progrès sans précédent. Le Progrès avec un grand P devient alors la nouvelle religion du siècle, l’annonce d’un avenir forcément radieux.

« La science semble constituer en tant qu’idéal, le fondement officiel de la société, se substituant là à l’ancien socle religieux ».

Pourtant, cette vision optimiste voire utopique s’est dégradée au fil du temps, laissant la place à une méfiance grandissante envers l’innovation. Les populations, mieux informées, deviennent en effet toujours plus sensibles aux risques engendrés par certaines découvertes scientifiques. Le progrès est critiqué et « la notion de risque a fait tomber la notion de progrès » (Étienne Klein). L’enthousiasme a laissé place à l’inquiétude en l’avenir. Il n’y a actuellement aucune proposition du futur qui soit à la fois crédible et attractive. Il est donc difficile pour les jeunes générations d’évoluer dans ce contexte d’incertitude (Étienne Klein). Pascal Chabot parle quant à lui d « innovation destructrice ».

Se propage aussi l’idée selon laquelle le progrès scientifique serait devenu une source d’assujettissement involontaire alors qu’il était auparavant synonyme d’émancipation.

Le terme progrès lui-même connaît une crise profonde.

« L’essence humaniste, la destination universelle et la vocation démocratique ayant été abandonnées au fantasme sacralisé de l’innovation » (Étienne Klein).

L’innovation devient « propagande », « argument de rhétorique » visant à persuader que la nouveauté est forcément positive.

Réinventer le progrès

Que faire alors de ce progrès en crise ? Étienne Klein est partisan d’adopter une vision plus réaliste du progrès, de séparer progrès et utopie, tout en gardant un certain « degré d’espoir ». Plutôt que de se débarrasser du progrès, il faut le repenser, le retravailler pour lui redonner du sens.

Actuellement le plus grand défi auquel nous sommes confrontés est celui de construire un futur qui tienne compte aussi bien de « ce que nous savons et de ce que nous voulons ». Il faut construire un futur dont on sait qu’il sera assorti de « zones sombres » mais cette connaissance ne doit pas pour autant être synonyme de pessimisme.

On peut aussi essayer de penser l’avenir à travers la transition Pascal Chabot. L’épuisement des ressources humaines et naturelles rend nécessaire une transition notamment écologique et démocratique. On doit peut-être laisser de côté cette perception de « progrès triomphant » et penser des modes de vie alternatifs, plus justes pour l’homme et l’environnement. Il faut enfin parvenir à inverser la prédominance de l’utile sur le subtil et à retrouver un équilibre entre ces deux facettes du progrès.