Non, le bien-être au travail ne s’oppose pas à la performance

Il ne se passe pas un jour sans que l’on se fasse l’écho de souffrances au travail. Et le procès de France Télécom remet sur le devant de la scène les terribles conséquences d’une recherche de performance aux dépens des salariés. Non seulement les salariés ne veulent plus souffrir, mais ils apprécieraient de se trouver dans des situations de bien-être au travail. De leur côté, les dirigeants de nos entreprises ne sont pas fondamentalement opposés à cette idée, mais ils aimeraient avant tout que cette promotion du bien-être au travail ne se fasse pas au détriment de la performance de l’entreprise.

Concilier bien-être et performance reste en effet relativement antinomique pour nombre d’acteurs. Comme s’il semblait difficile d’obtenir de la performance sans souffrance, et comme s’il paraissait délicat de maintenir un niveau élevé de performance avec des salariés en situation de bien-être.

Dans un travail de recherche, nous avons cherché à savoir quelles pratiques de management, parmi les plus courantes dans les entreprises, permettait de servir à la fois le bien-être des salariés et la performance des entreprises, et s’il existait un profil type d’entreprises ayant des pratiques alliant les deux dimensions.

Pas d’effet univoque

Il y a 30 ans sont apparues des pratiques de haute performance (High Performance Work Practices) appelées à se diffuser d’une manière massive au nom d’une standardisation des mécanismes de la performance. Ces pratiques comportent à la fois des éléments qui visent à faire évoluer le travail (travail en équipe autonome ou semi-autonome, enrichissement et rotation des tâches, cercles de qualité, groupes de résolution de problèmes, assemblées du personnel, comités de pilotage etc.), mais aussi des aspects qui ont pour objectifs de mieux impliquer les salariés (rémunération à la performance, ou collective, pratiques sophistiquées de recrutement et de formation, systèmes d’avancement au mérite, bonus collectifs, participation aux bénéfices, dispositifs de sécurisation de l’emploi, rémunérations supérieures au marché, processus de résolution de conflits, etc.).

Nous avons donc choisi d’examiner leur impact aussi bien sur le bien-être que la performance en étudiant à la fois les pratiques de 271 entreprises et leurs situations en termes de bien-être et de performance. Nous avons alors distingué cinq composantes du bien-être au travail (adéquation interpersonnelle, épanouissement, sentiment de compétences, reconnaissance perçue et volonté d’engagement) et quatre composantes de la performance (compétitivité, satisfaction des clients, engagement des salariés et performance sociale). Ces dimensions du bien-être au travail sont celles définies par Dagenais-Desmarais (2010) et les dimensions de la performance sont celles de Vanhala et Tuomi (2006).

L’analyse des résultats montre un ensemble de choses : les pratiques dites de « Haute Performance » n’ont pas un effet univoque sur les différentes dimensions de la performance et du bien-être, comme on le constate à la lecture du tableau ci-dessous.

Auteurs

On note qu’il y a des pratiques qui possèdent un effet localisé et d’autres qui semblent affecter plus largement aussi bien le bien-être que la performance. Par ailleurs, l’une des dimensions de la performance, la satisfaction des clients, n’est nullement affectée par les pratiques visant la performance. De la même manière, la sécurité de l’emploi, si elle est utile pour attirer des compétences, ne joue aucun effet ensuite, ni sur le bien-être des salariés, ni sur la performance.

En revanche, certaines pratiques ont aussi bien un effet sur le bien-être que sur la performance. Il en est ainsi des politiques de participation des salariés, mais aussi des formations innovantes et des dispositifs qui visent à améliorer la gestion des carrières et l’évaluation. Nous avons là affaire à des outils qui sont associées aussi bien au bien-être des employés qu’à la performance de l’organisation.

Mais ces pratiques doivent aussi être observées pour ce qu’elles ne font pas. Aucune d’entre elles n’est associée négativement avec le bien-être ou la performance. Et aucune n’est associée négativement avec l’un de ces éléments et positivement avec l’autre. Cela signifie que si les actions qui sont réalisées au nom de la performance ne sont pas toujours associées à une performance réelle, au moins, elles ne dégradent pas le bien-être des salariés et réciproquement.

Le bien-être n’est pas une question de taille

Notre étude, portant sur 271 entreprises du secteur public et privé, a pu mettre en évidence que, si la taille et le chiffre d’affaires de l’entreprise a un effet sur plusieurs dimensions de la performance, il n’en est rien en ce qui concerne le bien-être au travail. La taille de l’entreprise jouant négativement sur l’engagement des salariés et la performance sociale alors que le chiffre d’affaires de l’entreprise joue positivement sur la compétitivité et la performance sociale. Ainsi, il n’existerait pas de profil type d’entreprise où il fait bon travailler, la taille de l’entreprise ou encore son chiffre d’affaires de l’entreprise n’affectant pas le bien-être de ses salariés.

En matière d’innovation sociale, l’initiative conjointe de BNP Paribas, Danone et Engie visant à soutenir l’intrapreunariat à impact positif, c’est-à-dire l’idée de donner les moyens aux collaborateurs de concrétiser leurs propres idées en projet d’intérêt pour l’entreprise, montre que les grandes entreprises commencent à incorporer cette idée qui vient soutenir les pratiques de participation aux décisions et de gestion de carrière.

On peut citer également le cas des caisses allocations familiales qui font la promotion d’une qualité de vie au travail au service du bien-être au travail et de la performance, ou bien du conseil départemental de la Savoie qui identifie le bien-être et la santé au travail comme un axe stratégique au service des salariés et de la population locale.

À la lumière de ces éléments, nous pouvons clore au moins une partie du débat : le bien-être ne s’oppose pas à la performance et les démarches mises en place pour favoriser la performance ne sont pas associées avec moins de bien-être. L’idée que la performance doit se faire aux dépens du bien-être des salariés est donc battue en brèche par ces résultats.

Au moment où la recherche de compétitivité apparaît comme un dogme tout puissant devant surpasser tous les autres, ces éléments plaident pour une action résolue en faveur du bien-être des salariés. L’excuse d’une priorité donnée à la performance ne tient plus. Travailler au bien-être, c’est avant tout créer les conditions de la performance, et vice versa. Ainsi va la résolution de ce paradoxe.

Theresa May, le Brexit et l’avenir de l’égalité des genres au Royaume-Uni

 

Theresa May quittera le 10, Downing Street, le 7 juin. Drop of Light / Shutterstock

L’annonce de la démission de Theresa May en tant que premier ministre, le 24 mai, n’était peut-être pas si surprenante, tant sa période au pouvoir a été marquée par l’absence de progrès dans la mise en œuvre du Brexit, comme elle l’a souligné dans son discours. Sa démission, d’abord comme leader du parti conservateur le 7 juin, marque également la fin du mandat de la deuxième femme premier ministre du Royaume-Uni. Bien qu’elle n’ait pas forcément fait de l’égalité des sexes l’une des priorités de son mandat, son bilan sur ce sujet mérite néanmoins d’être mentionné. Qu’a-t-elle accompli exactement pour les femmes depuis sa prise de fonction en 2016 ?

Des avancées et des concessions

Au passif de son bilan, on pourra déjà noter (comme les détracteurs de May) qu’elle a constamment soutenu les mesures d’austérité pour lesquelles les femmes sont souvent les premières touchées en raison des coupes dans les services publics et des gels dans les salaires du secteur public. En outre, son traitement des réfugiées, dont les associations d’aides ont aussi vu les subventions diminuer pendant son mandat de secrétaire d’État à l’Intérieur entre 2010 et 2016, a terni sa réputation.

Theresa May annonce sa démission devant le 10, Downing Street, le 24 mai dernier (France 24).

Pour beaucoup, même dans son propre parti, une grosse déception fut par ailleurs ses concessions en échange du soutien politique du Parti unioniste d’Irlande du Nord (DUP), réputé pour ses positions catégoriquement anti-avortement.

À son actif, on pourra noter ses efforts dans la promotion des femmes en politique, tant en public que dans les coulisses du parti conservateur. Un engagement qui remonte au lancement de la campagne Women2Win en 2005. En outre, bien que cela ne soit pas suffisant pour certains et malgré les effets d’austérité, elle s’est engagée à réduire les disparités géographiques dans le soutien aux femmes victimes de violence domestique.

De même, son gouvernement a fait de la lutte contre la mutilation génitale féminine une priorité politique. Bien qu’initié sous le gouvernement précédent, cette action a été prolongée, notamment via la publication des rapports publics sur les écarts de rémunération entre hommes et femmes, malgré l’opposition de certaines grandes organisations. En outre, elle a supervisé une modernisation partielle du fonctionnement du parlement britannique avec des mesures visant à aider les parents qui travaillent au parlement.

Conversation France

@FR_Conversation

L’obligation de transparence reste insuffisante pour réduire les inégalités salariales hommes-femmes http://bit.ly/2qWzSu1 

See Conversation France’s other Tweets

Le Brexit, un projet très masculin

Compte tenu du Brexit, il n’est sans doute pas surprenant que la propre survie politique de Theresa May ait été privilégiée par rapport aux droits des femmes. À ce sujet, on peut d’ailleurs considérer son mandat comme une illustration du glass cliff, selon lequel les femmes assumeraient des rôles de leadership en période de crise, lorsque les chances d’échec sont maximales.

Depuis le début, le Brexit semble en effet avoir été un projet mené et incarné d’abord par des hommes, à l’image de Nigel Farage et Boris Johnson. Tout au long de la campagne du référendum en 2016, les voix des femmes avaient d’ailleurs été sous-représentées dans les médias et dans les rôles politiques. Des études ont ainsi montré que 59 % des invités des principaux programmes de télévision politiques britanniques pour Brexit étaient des hommes.

Bien qu’il y ait des femmes soutenant le Brexit à la fois à gauche et à droite du spectre politique, les voix féminines les plus présentes sont restées celles des journalistes principales – sans parler de celles des candidates de l’émission de télé-réalité Love Island dont la discussion sur la sortie de l’UE fut l’une des vidéos les plus largement partagées sur les médias sociaux en 2018.

Les participants de Love Island discutent le Brexit.

Cette sous-représentation féminine apparaît également dans les postes de la fonction publique chargés du Brexit, comme l’ont souligné des travaux de recherche sur le politiqueglobal. Plus précisément, parmi les neuf membres de l’équipe initiale chargée de négocier le Brexit, on compte une seule femme, Sarah Healy.

Dans ce contexte, des élues travaillistes et conservatrices ont souligné la nature aveugle du Brexit concernant les questions de genre. Nombreuses recherches soutiennent en effet que les impacts du Brexit toucheront en premier lieu les femmes britanniques.

Les impacts genrés du Brexit

Une des nombreuses conséquences imprévues du Brexit concerne la remise en question des progrès réalisés par le Royaume-Uni en matière d’égalité des sexes ces dernières décennies. Les partisans du Brexit, à majorité masculine, ont largement ignoré les avantages de l’adhésion à l’UE sur la parité des sexes, ainsi que les risques de retrait des mécanismes d’égalité européens.

Bien que le type de Brexit qui sera mis en place reste encore flou, de plus en plus de signes indiquent que les femmes britanniques pourraient en subir les conséquences majeures. Plus particulièrement, le Brexit risque de conduire à un ralentissement économique avec une réduction des dépenses publiques – comme on l’a vu, ces réductions ont un impact disproportionné sur les femmes en tant qu’utilisatrices principales des services publics, travailleuses du secteur public et prestataires de la plupart des travaux non rémunéréslorsque les services publics sont supprimés.

Vincent Vicard@VVicard

Brexit, le coût exorbitant du scénario de la sortie sans accord http://theconversation.com/brexit-le-cout-exorbitant-du-scenario-de-la-sortie-sans-accord-110121?utm_source=twitter&utm_medium=twitterbutton  via @FR_Conversation

Brexit, le coût exorbitant du scénario de la sortie sans accord

Des économistes du CEPII estiment qu’en cas de non-accord, les PIB du Royaume-Uni et de l’Union européenne pourraient respectivement reculer de 2,8 % et 0,8 %.

theconversation.com

See Vincent Vicard’s other Tweets

La perte des normes du droit du travail de l’UE, qui ont été un atout pour l’égalité des sexes au Royaume-Uni – souvent contre les tribunaux britanniques – constitue un autre risque. Une grande partie de la législation protégeant l’égalité et les droits sur le lieu de travail dont ont bénéficié les femmes a en effet été élaborée ou renforcée par le biais des mécanismes de l’Union européenne. Après la sortie de l’UE, ces avancées seront susceptibles d’être modifiées par un gouvernement futur. De ce fait, les protections de l’UE pourraient ne pas s’appliquer en vertu de la législation britannique.

Quelle égalité après Brexit ?

La dimension de genre du Brexit interagit également avec l’ethnicité. Le référendum de 2016 a en effet déjà eu un impact sur les Britanniques issus de l’immigration avec une augmentation notable du nombre d’abus racistes recensés. Pour les femmes de certaines minorités, il y a donc le risque de subir une forme de double peine. Des études montrent en effet que les ménages noirs et asiatiques ont très impactés par les mesures d’austérité économiques.

À l’heure actuelle, il n’est pas encore possible d’identifier les effets exacts du Brexit mais, quel que soit le scénario, les perspectives ne sont pas au beau fixe en matière de lutte contre les inégalités. Toutefois, cela ne veut pas dire qu’il y aura nécessairement un retour en arrière rapide. Comme Theresa May l’a elle-même fait remarquer au moment de sa démission, elle est « la deuxième femme premier ministre, mais certainement pas la dernière ».

Cependant, alors qu’il est question de bâtir une toute nouvelle relation économique et politique entre le Royaume-Uni et l’Europe, il semble improbable que l’égalité entre les hommes et les femmes soit érigée en priorité. Or, il ne faut pas oublier que l’élaboration de politiques aveugles à l’égalité des sexes aboutit généralement à des résultats négatifs pour l’égalité…


Cet article a été co-écrit par Mallory Fanton, étudiante en politique et relations internationales à l’Université de Bath.

Qu’est-ce que l’art brut?

 

L’art brut est devenu un objet d’étude spécialisé et il occupe un champ de réflexion non négligeable tant du côté universitaire que dans le monde institutionnel de l’art. Sans entrer dans les méandres de ce savoir théorique en plein essor, on peut repérer quelques points névralgiques qui ressurgissent immanquablement, autant dans les débats érudits que chez le simple spectateur.

L’art brut fait partie du paysage contemporain de l’art, et y occupe même une place importante, y compris sous l’aspect financier. Un dessin d’Henry Darger ou d’Adolf Wölflipeut atteindre des sommes astronomiques.

Un « art des fous » ?

L’art brut est-il l’art des fous ? On fait souvent la confusion entre les deux. Pourtant Jean Dubuffet (1901-1985), peintre, écrivain et inventeur de la notion d’art brut juste après la seconde guerre mondiale en France, a très tôt marqué la nette différence entre les deux. L’art brut n’est pas l’art des fous, bien que beaucoup d’œuvres estampillées art brut proviennent des hôpitaux psychiatriques, par exemple pour Aloïse Corbaz. Définissant l’art brut, Dubuffet éloigne très vite le critère psychique de la maladie mentale, pour ne retenir que celui de la création : « Ce sont les productions d’art émanant de personnes étrangères aux milieux spécialisés et élaborées à l’abri de toute influence, de façon tout à fait spontanée et immédiate, qui m’intéresse » (Honneur aux valeurs sauvages).

Mais de fait, prospectant les œuvres notamment en Suisse à ses débuts, Dubuffet empiète sur le terrain de la folie. La relation entre art brut et art des fous est donc complexe. Elle-même s’inscrit dans une histoire plus longue, celle des rapports entre art et folie qui remonte au tournant des XIXe et XXe siècles, époque où des psychiatres se rendent attentifs aux productions spontanées des malades internés, y voyant de l’art et non plus des documents cliniques. Auguste Marie et Marcel Réja en France, Walter Morgenthaler en Suisse, Hans Prinzhorn en Allemagne, figurent parmi les pionniers. Entre les deux guerres mondiales, le surréalisme poursuivra cette histoire des relations entre art et folie sur le terrain de la littérature, notamment avec André Breton ; celui-ci, d’ailleurs, épaulera Jean Dubuffet dans les premières années de l’art brut, pour se fâcher ensuite avec lui sur ce même sujet des arts des fous.

Des œuvres singulières

Historiquement, l’art brut est l’affaire d’un homme, Jean Dubuffet. On ne peut dissocier l’entreprise définitionnelle de l’art brut présente dans ses écrits, de l’effort qui a été le sien de rassembler des œuvres dans une collection, enfin de sa propre activité plastique et d’écriture, les trois étant concomitants. Mais quel rapport y a-t-il entre l’approche définitionnelle et les œuvres de la collection ?

La notion d’art brut – que certains notent avec des majuscules pour désigner ce moment fondateur avec Dubuffet – vise moins à cerner un type d’œuvres qu’à produire un discours propre à interroger et déstabiliser la conception académique et établie de l’art. Les œuvres, quant à elles, sont entièrement singulières : elles sont choisies entre autres parce qu’elles échappent à tout classement, à toute identification ; elles ne rentrent pas dans une définition englobante. Il y a donc une tension plutôt qu’une adéquation entre la mise en place du discours sur l’art brut, forcément général, et la singularité des œuvres à certains égards incommensurables entre elles.

Celles-ci, au demeurant, sont très polymorphes : dessins, parfois sur un immense rouleau comme pour le Cloisonné de théâtre d’Aloïse Corbaz, statuettes d’anonyme, sur pierre volcanique ou bois, broderies comme chez Jeanne Tripier ou Élisa Bataille, figurines en bois d’Auguste Forestier, robe comme chez Madge Gill, cahiers d’écriture et de dessins pour Aimable Jayet. Que ces œuvres fassent collection, dans une unité les rassemblant sous quelque affinité, constitue donc un autre paradoxe. La collection de Jean Dubuffet, qu’on peut aujourd’hui admirer au château de Beaulieu à Lausanne en Suisse où elle a été inaugurée en 1976, est exposée dans ce qui n’est pas à proprement parler un musée. Jean Dubuffet voulait avant tout promouvoir des œuvres qui échappaient au circuit de l’art dans sa dimension esthétique et institutionnelle : il ne pouvait toutefois mener à bien cet objectif qu’en intégrant les ouvrages élus, dans ce même circuit de l’art. Cette contradiction est inhérente à l’art brut.

Auguste Forestier, sans titre, vers 1935-49, sculpture sur bois et matériaux variés. Outsider art fair

Le qualificatif s’oppose à « culturel ». Dubuffet insiste sur le fait que les productions d’art brut sont soustraites au circuit académique de l’art – dont lui-même était loin d’être exclu puisqu’il côtoyait à Paris artistes et écrivains. Mais il souligne avant tout qu’on y trouve la création à l’état pur, non contaminée par l’imitation, les modes et les codes. La notion de « brut » renvoie à cette opération, qui manifeste l’art dans ce qu’il aurait d’authentique, de non falsifié : l’auteur d’art brut est celui qui tire tout de son propre fond. La marginalité sociale voire l’isolement et l’absence d’éducation artistique deviennent dès lors des critères de premier ordre, toujours mobilisés quand on parle d’art brut après Dubuffet. C’est en ce sens que les réalisations des prisonniers et des spirites s’agrègent à ce domaine.

La frontière entre art et non-art

Il faut toutefois prendre une distance par rapport à ces critères. Ceux-ci ne peuvent en soi constituer une garantie qu’il y ait art. Si on les érige en normes, on prend le risque d’une dilution de la notion d’art. Ce risque, en même temps, n’appartient pas à l’art brut en tant que tel. Il est inhérent à une tendance plus générale de l’art au XXe siècle. La frontière entre art et non-art est de plus en plus difficile à assigner.

Il faut par ailleurs se garder de cautionner sans recul l’idée d’un sujet entièrement autonome et replié sur soi, à l’origine de la création. Une telle conception, était fortement affirmée par Dubuffet :

« Nous entendons par là (l’art brut) des ouvrages exécutés par des personnes indemnes de culture artistique, dans lesquels le mimétisme, contrairement à ce qui se passe chez les intellectuels, ait peu ou pas de part, de sorte que leurs auteurs y tirent tout (sujets, choix des matériaux mis en œuvre, moyens de transposition, rythmes, façons d’écritures, etc.) de leur propre fond et non pas des poncifs de l’art classique ou de l’art à la mode. Nous y assistons à l’opération artistique toute pure, brute, réinventée dans l’entier de toutes ses phases par son auteur, à partir seulement de ses propres impulsions. » (Jean Dubuffet, « L’art brut préféré aux arts culturels »)

Cette vision récurrente de l’art brut répond à un idéal d’autonomie qu’on peut interroger, dans une perspective qui viserait à valoriser au contraire la teneur d’intersubjectivité et d’adresse – à l’autre – qui anime toute création dans ce qu’elle a de vif, y compris quand elle est réalisée dans la solitude.

Oeuvre d’art brut par ACM (LAM, Villeneuve-d’Ascq). Jan-Pierre Dalbéra/FlickrCC BY

L’entreprise de Jean Dubuffet n’a pas été sans suite ; son retentissement est même très étonnant. En France et au niveau mondial, d’autres collections se sont constituées, d’autres auteurs ont été découverts, diverses expositions ont vu le jour selon une acception élargie de l’art brut. De nouvelles dénominations sont alors employées : Outsider art, art des irréguliers, les singuliers de l’art, art hors normes, art cru, etc. L’art brut entretient des rapports ambivalents avec l’art contemporain. Pour certains, il constitue le domaine d’une vitalité qui est jugée faire défaut ailleurs, et il est défendu contre une contemporanéité artistique prétendument dénaturée par le discours, l’intellect et la froideur. En même temps, on voit bien à quel point cet art dit brut a été assimilé par le marché de l’art le plus contemporain, jusqu’à parfois être promu en modèle du présent et de l’avenir.

Contre la résorption de l’art dans le discours déclarant ce que l’art doit être, il est souhaitable d’en revenir à la chose même, c’est-à-dire à l’œuvre dans son aptitude à bouleverser et à émouvoir. Cela vaut pour le champ d’art brut comme pour le reste de l’art. Il est important de noter que les auteurs d’art brut n’ont pas intention de faire art : leur geste impose une parole malgré eux. Et s’ils sont auteurs, ce n’est pas parce qu’on les a déclarés tels, artistes d’art brut. L’œuvre et la création n’existent que dans un dépassement de soi, au demeurant non programmable.

Les salaires des footballeurs se justifient mieux économiquement que ceux des grands patrons

 

Kylian Mbappé touche à peu près autant que les patrons du CAC 40. Vlad1988/Shutterstock

Quoi de commun entre les footballeurs et les PDGs ? Pas grand-chose si ce n’est le salaire. Au bas de l’échelle, on voit bien, sans avoir besoin de mobiliser de lourdes statistiques, que l’entrepreneur individuel soumis à la faillite n’a pas un sort bien différent du footballeur professionnel à la limite de l’amateur, qui est durement exposé au chômage : les deux ont souvent du mal à joindre les deux bouts.

Mais c’est surtout en haut de l’échelle que la similitude est frappante. Il suffit de consulter rapidement Internet pour le voir : jusqu’à 21 millions d’euros par an pour nos champions du monde, des sommes proches de celles touchées pour les patrons du CAC 40. Carlos Ghosn, au temps de sa splendeur, ne dépassait guère le Kylian Mbappé d’aujourd’hui. Il en est de même au niveau international : Cristiano Ronaldo et Lionel Messi tournent autour de 100 millions d’euros par an, cinq à six fois plus que les patrons de Netflix ou d’Apple. On ne peut qu’être frappé par ces montants extravagants quand on les compare par exemple au revenu moyen national, de l’ordre de 25 000 euros.

Qu’en dira l’économiste, au-delà de l’évidence que la comparaison est sommaire, et qu’il faut la raffiner ? Il ne portera pas de jugement moral sur les niveaux de rémunération, il recherchera s’ils concourent à l’efficacité de l’économie, et pour cela, examinera la manière dont ces revenus se forment, le fonctionnement des marchés qui y conduisent.

Asymétrie d’information

Du côté des footballeurs, il verra jouer un mécanisme, le fameux mercato, un système d’enchères non sans analogie avec celui qui régit la cote des peintres ou la vente de biens immobiliers. Le bon footballeur remplit les stades, donc les caisses de son club, qui en déduit le gain que son acquisition lui procurera et donc le prix qu’il peut payer pour l’avoir. Ajoutons qu’en fixant cette enchère, il a une information quasi parfaite sur la qualité du produit qu’il achète – le footballeur : même le non-spécialiste, devant sa télé, voit bien que Griezmann marque beaucoup de buts, fait de belles passes. En termes d’analyse économique, il n’y a guère d’asymétrie d’information. Finalement, sous réserve de manœuvres du ressort de l’autorité de la concurrence, on n’est pas loin, au moins en principe, d’une situation Pareto optimale, comme le disent les économistes, représentant les vertus bien connues de la concurrence parfaite.

Conversation France

@FR_Conversation

Comment expliquer les rémunérations élevées des célébrités ? http://bit.ly/2UdRFd0 

See Conversation France’s other Tweets

Ces vertus ne se retrouvent pas aussi clairement dans le marché des PDG, beaucoup plus opaque. Les mécanismes qui régissent le fonctionnement, et donc le succès, d’une équipe de football ne sont pas simples, mais ceux commandant celui des entreprises sont autrement plus complexes. L’opinion publique, et même le milieu professionnel, mesurent moins bien la qualité de leur gestion. Si elle est couronnée de succès, n’est-ce pas le résultat d’une heureuse adéquation entre la personnalité du dirigeant et un vent porteur extérieur ?

À l’inverse, des résultats décevants ne signifient pas forcément des erreurs de gestion. Tel qui a connu une suite de succès se met à faillir et enchaîner les échecs pour des raisons difficiles à démêler surtout sur l’instant, au moment où on a le plus besoin de les discerner – car avec le recul, on pourra trouver les causes de l’échec, mais il sera trop tard. Par ailleurs, un soupçon plane sur le mode de fixation des rémunérations : les intéressés ne sont-ils pas partie prenante à la décision les concernant ?

LaTribune

@LaTribune

Gouvernance : les leçons de la controverse sur la rémunération de Carlos Ghosn >>http://bit.ly/1rHyfOT 

See LaTribune’s other Tweets

Finalement, en théorie au moins, l’économiste jugera plus favorablement le cas des footballeurs, il y trouvera davantage d’adhérence avec les principes d’organisation qu’il prône pour assurer l’efficacité et l’optimalité de l’économie de marché, et il sera plus circonspect sur le cas des PDG.

« Le peuple » et « les élites »

Est-ce à la suite de raisonnements techniques analogues à ceux qui précédent que l’opinion publique, telle qu’on la perçoit dans les médias ou dans les débats politiques, n’est guère émue par les salaires des footballeurs mais se trouve choqué par les rémunérations des PDG ? On se scandalise sur leurs salaires excessifs, on parle périodiquement d’en limiter le montant ; quant à ceux des footballeurs, on s’en étonne toujours, on les envie peut-être, on est souvent proche de les admirer au même titre que leurs exploits sportifs, mais personne n’a demandé de les plafonner.

Faut-il en conclure que les Français ont la fibre de l’économie ? Il y a trop d’indices allant en sens contraire pour ne pas chercher une autre explication à ces opinions différenciées sur les footballeurs et les PDG, du côté de la sociologie cette fois. Au regard des troublantes analogies en matière de rémunération qui ont constitué le point de départ de cette réflexion, n’y a-t-il pas aussi des différences majeures dans les profils des deux catégories en cause, à la fois dans les origines sociales et dans le niveau d’éducation ?

Les footballeurs, au moins professionnels, viennent majoritairement des classes défavorisées et peu d’entre eux ont dépassé le bac, à l’inverse des PDG. On pourrait symboliser ces différences par des expressions vagues mais parlantes : « le peuple » et « les élites », « l’école de la rue » et « les grandes écoles » et qui recouvrent surtout des différences dans les origines sociales et dans les niveaux d’éducation ; et n’est-ce pas dans ces différences qu’il faut trouver les divergences d’appréciation de l’opinion publique, où les élites sont minoritaires ?

Même sans aller plus avant dans la vérification de cette hypothèse, n’y a-t-il pas là des constatations qui devraient remplir l’économiste d’humilité, en lui faisant voir que les analyses tirées de sa discipline doivent souvent, si on veut les appliquer au réel, être complétées par le regard d’autres disciplines, comme la sociologie ou la psychologie ?

Réchauffement climatique sur le mont Blanc : le nombre de jours de gels va s’effondrer d’ici 2100

Les épisodes de dégel au-dessus de 3 500 m, qui restent aujourd’hui une exception, pourraient se répéter environ un jour sur trois en 2100. JF BuoncristianiAuthor provided

Des résultats récemment publiés dans la revue Nature Scientific Report montrent clairement une forte tendance à la baisse du nombre de jours de gel durant le XXIe siècle sur le massif du Mont-Blanc. Les effets se feront surtout ressentir à partir des années 2050, et seront majeurs en haute altitude, entraînant alors une diminution de 45 % à 50 % du nombre de jours de gel par rapport à aujourd’hui.

Nous savions déjà que dans les Alpes, à la fin du XXIe siècle, le réchauffement climatique pourrait aboutir à une réduction des glaciers, de l’enneigement ou encore entraîner un déficit en eau, ayant un impact sur la biosphère et provoquant une transformation spectaculaire des milieux de haute montagne.

Mais ce constat, issu des conclusions du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) résulte de modélisations climatiques à l’échelle globale, dont la résolution spatiale reste peu précise sur les Alpes.

Nous avons donc décidé d’affiner ces projections, et particulièrement celles sur l’évolution du climat sur le massif du Mont-Blanc.

Mieux comprendre le climat du massif

Notre travail s’inscrit dans un projet de recherche pluridisciplinaire visant à comprendre et analyser les impacts du changement climatique sur les processus morphologiques et environnementaux dans le massif du Mont-Blanc. Le but est d’appréhender de manière pertinente les défis environnementaux et sociétaux liés aux modifications du climat en cours.

Ce projet baptisé VIP-Mont-Blanc a été financé par l’Agence nationale de la recherche (ANR) en 2014. Il est coordonné par Jean‑Louis Mugnier de l’Institut des Sciences de la Terre(CNRS/Université de Savoie) en collaboration avec plus d’une trentaine de chercheurs appartenant à six laboratoires ayant des expertises alliant la modélisation et l’observation sur site.

Le volet climat a été analysé par des chercheurs du laboratoire Biogéosciences(CNRS/Université de Bourgogne) et du laboratoire ThéMA (CNRS/Université de Franche-Comté). La première étape a consisté à analyser la variabilité du climat sur les 50 dernières années grâce aux données issues de plus de 80 stations météo régionales réparties entre la France, la Suisse et l’Italie. Ces stations ont permis de modéliser l’influence spatiale du relief sur les températures. Par exemple, l’abaissement de la température avec l’altitude ou encore l’influence de l’exposition des versants, ou de la profondeur et la largeur des vallées. Dans une deuxième étape, les modèles statistiques contrôlant la distribution spatiale des températures passées ont été appliqués aux climats futurs.

Une autre partie de ce projet vise à mieux comprendre l’extension passée des glaciers depuis le petit âge glaciaire (1350-1850). Ici, une mission d’échantillonnage sur le Jardin de Talèfre, au cœur du massif du Mont-Blanc. J.F. Buoncristiani/CNRSAuthor provided (No reuse)

Une nouvelle approche à haute résolution

Les études sur le changement climatique reposent en grande partie sur les données des simulations informatiques du climat dans le cadre du projet de comparaison des modèles numériques de climat appelé CMIP et utilisés pour alimenter les rapports du GIEC.

La résolution spatiale des modèles climatiques utilisés dans les rapports du GIEC s’améliore au fil des années : 1ᵉʳ (FAR) publié en 1990, 2ᵉ (SAR) en 1995, 3ᵉ (TAR) en 2001 et 4ᵉ (AR4) en 2007. Mais la résolution reste de l’ordre de 100 km. GIEC-AR4CC BY-NC-ND

Cependant, les résolutions spatiales de ces modèles sont comprises entre 100 et 200 kilomètres, ce qui n’est pas suffisant pour déterminer précisément l’évolution des températures à une échelle régionale à locale sur les reliefs de montagnes.

En effet, dans ces modèles globaux, la Terre est généralement très « aplatie », et le mont Blanc culmine à des altitudes comprises entre 500 et 2 000 m, loin des 4 810 m du sommet réel.

Dans notre étude, grâce à l’analyse des données issues des stations météo régionales, nous avons pu intégrer le rôle du relief dans toute sa complexité.

Ce travail est sans précédent sur le mont Blanc, car le climat a été régionalisé à une résolution spatiale inédite de 200 mètres, tout en utilisant les simulations des 13 modèles climatiques globaux ayant modélisé le climat de 1950 jusqu’en 2100. Cette nouvelle approche sur le mont Blanc fournit donc des estimations de température nettement plus précises que celle des modèles climatiques globaux.

Pour les décennies futures, les deux scénarios d’émissions de gaz à effet de serre les plus contrastés – appelé RCP 2.6 (optimiste) et RCP 8.5 (pessimiste) – ont été pris en compte afin d’avoir l’ensemble de la variation des évolutions climatiques.

Le premier scénario permet de respecter les termes de l’Accord de Paris et de maintenir le réchauffement global sous les 2 °C, mais il semble aujourd’hui difficile à atteindre. Le second mène à une augmentation des températures en 2100 de l’ordre de 5 à 6 °C par rapport à l’ère pré-industrielle et aux premiers rejets de masse de gaz à effet de serre.

Le sommet du mont Blanc n’a connu ces dernières décennies que de très brefs épisodes de dégel ; ce fut le cas lors de l’été caniculaire de 2003. B. PohlAuthor provided

Dégel du sommet du mont Blanc en été

Un des résultats majeurs majeurs de ce travail a permis de déterminer le nombre de jours de gel jusqu’en 2100, en fonction de ces deux scénarios que pourrait suivre le réchauffement climatique. Pour le plus optimiste, les résultats montrent clairement une diminution du nombre de jours de gel mais restant relativement faible par rapport aujourd’hui. Le climat se stabiliserait durant la seconde moitié du siècle.

En revanche pour le scénario le plus pessimiste, celui que l’on tend à suivre actuellement, les résultats pour la fin du XXIe siècle montrent des diminutions très importantes, et toujours croissantes, du nombre de jours de gel. En hiver, l’impact le plus important se situerait dans les vallées où l’on verrait une diminution des jours de gel de 30 % par rapport à aujourd’hui. Il resterait très prononcé jusqu’à 3 000 mètres, où la fréquence de dégel pourrait croître de 30 %.

Cette évolution des températures pourrait rendre plus incertaine la pratique des sports d’hiver, puisque les précipitations pluvieuses pourraient remplacer en partie les chutes de neige jusqu’à des altitudes élevées. En été, c’est la haute montagne qui serait la plus touchée : à des altitudes comprises entre 3 500 et 4 000 mètres, on pourrait alors avoir une diminution du nombre de jours de gel de 45 à 50 % par rapport à aujourd’hui.

Des évolutions similaires (35 à 40 % de jours sans gel en été) seraient aussi enregistrées sur le sommet du mont Blanc, à 4 810 m, alors que ce type d’événements reste rarissime à l’heure actuelle (le sommet a juste connu de brefs épisodes de dégel comme pendant l’épisode de canicule majeure durant l’été 2003). Ce qui reste actuellement une exception pourrait donc se répéter environ 1 jour sur 3 en fin de siècle.

Cette augmentation de la température pourrait induire des bouleversements environnementaux importants, jusqu’alors jamais observés, qui modifieraient en profondeur le fonctionnement des écosystèmes d’altitude, et nous obligeraient à nous adapter.

Pourquoi les livres papier n’ont-ils pas disparu ?

 

Le livre papier n’a pas dit son dernier mot. Author provided

À l’heure du tout numérique, la résistance du livre sous sa forme imprimée peut surprendre. Pourtant cette persistance de l’écrit sur du papier s’explique.

Quand on parle de livre, encore faut-il préciser de quel type de livre.

Longtemps principal vecteur de la connaissance, le livre a depuis longtemps perdu ce statut face aux revues scientifiques, très largement dématérialisées aujourd’hui. Les livres scientifiques sont toujours présents néanmoins et les deux formats imprimé et ebook coexistent. Dans ce domaine, le format numérique offre de nombreux avantages particulièrement celui de permettre, sous certaines conditions, une offre en open access, au sein d’une communauté universitaire habituée à la documentation numérique accessible en ligne. Les faibles tirages des livres universitaires qui n’empêchent pas la volonté de vouloir voir imprimer son travail donnent toutefois à penser que le prestige du papier demeure pour les auteurs surtout dans le domaine des humanités (on compte 10 332 titres en sciences humaines et sociales en France en 2017 pour à 3 130 titres en sciences/santé/médecine).

Les dictionnaires et autres guides, les livres de vulgarisation et une partie des livres pratiques ont vu baisser leurs ventes depuis le développement du web – non pas surpassés par des livres numériques mais plus simplement par des applications du web comme Wikipédia. Malgré tout, le pouvoir symbolique du livre demeure et l’on voit des sites comme Marmiton éditer des livres imprimés alors qu’il paraîtrait pourtant logique de préférer un site gratuit de recettes assorti de nombreuses possibilités de recherche (par nom de recette, par ingrédient) à un livre de cuisine que l’on doit acheter. C’est compter sans le livre cadeau et le plaisir de tourner les pages d’un beau livre plein de photos à croquer.

Les manuels scolaires continuent à constituer un genre bien présent en librairie même si le cartable numérique est en test et en développement.

Restent les romans, les essais, les livres jeunesse et les bandes dessinées. Si livres jeunesse et bandes dessinées sont des objets dont l’esthétique constitue une composante importante, cela n’empêche pas la dématérialisation. Pour ces ouvrages comme pour les romans et les essais comment expliquer cet entêtement du papier qui ne faiblit pas ?

Avantages comparatifs

Pour que l’ebook soit un succès, il faut qu’il présente des avantages pour les acheteurs. Certes avec un ebook il est possible d’agrandir les caractères (véritable plus pour des personnes ayant des problèmes de vue), de rechercher un mot, de convoquer un dictionnaire… On peut aussi souligner une partie du texte ou de laisser des jalons dans le document (sur du papier aussi, à la condition de se munir d’un crayon et de post-it). Cependant, ces avancées technologiques paraissent bien maigres pour convaincre surtout si on leur oppose le fait qu’un livre imprimé n’a pas de problème de batterie, que 500 ans d’histoire l’on rendu profondément ergonomique (table des matières, numéro de page, index…), que son usage ne nécessite pas de connaissances à acquérir sur les différents formats d’ebooks disponibles (e-pub, PDF, Kindle) ainsi que sur les moyens de récupérer les fichiers.

Les vendeurs d’ebooks insistent également souvent sur la possibilité de stocker dans un même appareil des centaines de titres. À cela on peut répondre que rares sont ceux d’entre nous qui ont besoin de pouvoir transporter toute leur bibliothèque dans leur poche et que beaucoup préfèrent l’avoir dans leur salon. En revanche, un ebook est un fichier et l’on achète un droit d’usage. Il ne fait pas un cadeau très remarquable. Il n’est pas possible de le prêter, de le revendre ou de le donner. Cet usage d’un fichier en lieu et place de la possession d’un objet ne saurait être négligé.

Depuis toujours, le livre est un objet qui circule : on prête les livres que l’on aime, on revend ses livres chez les bouquinistes ou dans des brocantes, on donne les livres aussi et cette pratique de partage demeure vivace comme le montre le succès des arbres à livres qui fleurissent dans les villes. On les garde également, pour pouvoir les retrouver, les relire, se souvenir ou seulement, parfois, pour avoir le plaisir d’afficher une belle bibliothèque bien remplie.

Enfin, un livre numérique se lit sur une liseuse, une tablette, un smartphone ou un ordinateur. Les liseuses doivent être achetées uniquement dans l’objectif de lire des ebooks, elles présentent une certaine fragilité or on lit dans son bain, sur la plage… et il est plus facile de voir un livre de poche emporté par la marée, être taché de crème solaire ou couvert de chocolat par le petit dernier que de devoir acter la perte d’un appareil assez coûteux.

Les tablettes, smartphones et autres ordinateurs, sur lesquelles on peut aussi lire des livres, permettent de multiples usages ce qui justifie leur achat, mais la lecture sur des écrans est de plus en plus décriée : elle gêne notamment l’endormissement, or on lit beaucoup… au lit. Elle serait également déconseillée pour les jeunes et les enfants. Surtout, il suffit de prendre le train pour s’apercevoir que de plus en plus de voyageurs munis de ces instruments préfèrent regarder des vidéos plutôt que de lire puisqu’ils sont équipés d’un matériel qui offre les deux possibilités.

Une autre spécificité du livre est qu’il ne demande pas d’appareil de lecture, ce qui le différencie de la musique enregistrée et des vidéos. Sa praticité n’est donc pas fonction de l’évolution technologique actuelle mais découle de siècles d’adaptation jusqu’à l’obtention d’une forme optimale qui n’a plus de raison de varier (alors que la musique enregistrée a pris la forme depuis sa mise au point à la fin du XIXe siècle de cylindres de cire, de 78 tours en bakélite, de disques vinyles, de cassettes audio, de CD, de fichiers MP3 pour ne citer que les principales). Au fil de la transformation des appareils de lecture, il a été incontestablement plus simple d’avoir sa musique sous format MP3 plutôt que sous la forme de vinyles quand les lecteurs MP3 (notamment l’iPod) sont devenus les moyens de stockage et d’écoute les plus courants. À quoi se sont ajoutées, à la même période, des pratiques de piratage d’autant plus massives qu’elles étaient très bien adaptées aux nouveaux formats musicaux (on pouvait obtenir des fichiers pirates sur le web ce qui était parfait pour alimenter son lecteur MP3).

La Librairie de Paris, place de Clichy. Wikipédia

Le nerf de la guerre

Une autre motivation importante à acheter des livres sous une forme numérique pourrait être le prix d’achat. Or, si les livres numériques sont effectivement moins chers que les livres imprimés, la différence de prix n’est pas énorme et ne compense pas forcément le fait de substituer un fichier à un objet – par exemple, 14,99 euros pour le fichier format Kindle du dernier roman de Marc Levy, Ghost in Love, sorti en mai 2019 contre 21,50 euros pour le format broché. Pour les livres de poche, la différence est profitable aux poches – sans compter qu’en cas d’usage de liseuse, il faut amortir le prix d’achat de la machine. Bien sûr il existe des offres gratuites d’ouvrages tombés dans le domaine public mais ce ne sont pas les ouvrages les plus demandés.

De plus, les services de ventes de livres en ligne offrent de plus en plus facilement la possibilité d’acquérir des livres d’occasion. Les places du marché d’Amazon ou de la FNAC par exemple proposent à la suite d’une recherche, en plus du livre neuf, l’accès à un certain nombre d’exemplaires du même titre d’occasion. Des sites dédiés se multiplient (Abebooks, Chapitre mais aussi Momox, Recylivre). La vente de livres d’occasion se développe

: non seulement il est maintenant facile de trouver un titre précis mais ces livres sont considérablement moins chers et pour le prix on achète un objet livre qu’il est toujours possible de revendre, de donner…

Par ailleurs, il y a de moins en moins de gros lecteurs (plus de 20 livres par an). Le prix d’un livre imprimé demeure raisonnable pour des lecteurs occasionnels qui achètent moins de 5 livres par an et feraient donc des économies négligeables en passant à l’électronique pour un confort de lecture moindre et un usage plus limité. On pourrait penser à l’avantage pécuniaire découlant de la possibilité de souscrire un abonnement comme il en existe pour la musique (Deezer, Spotify) ou la vidéo (Netflix, Canalplay, Amazon video) et, effectivement, de telles offres ont été ou sont encore proposées (Le Kiosk, abonnement Kindle d’Amazon). Mais ce que les lecteurs de romans recherchent avant tout ce sont les auteurs qu’ils ont aimés (et ils ne seront pas forcément présents dans ces offres). Sans ces repères, il est particulièrement difficile de se frayer un chemin dans une offre éditoriale pléthorique. Ces propositions ne fonctionnent donc pas comme leurs équivalents musicaux ou vidéo. Ce qui s’en approche le plus et prend une place effectivement intéressante mais limitée ce sont les plates-formes de mise en ligne soit d’œuvres romanesques offertes gratuitement à la lecture des internautes (Wattpad par exemple), soit les sites de fanfictions (comme Fantic ou fanfiction.fr).

Enfin, la loi Lang qui a réglementé le prix du livre en France a permis le maintien d’un important réseau de librairies. Les lecteurs fréquentent souvent ces magasins. Comment, en effet, pouvoir bénéficier d’un meilleur conseil personnalisé afin de choisir parmi les 23 000 titres de romans adultes, les 6 000 essais, les 9 600 livres pratiques, les 17 000 ouvrages jeunesse et les presque 9 600 BD, mangas, comics parus en 2017 en France ? Et les libraires vendent des livres en papier (les tentatives de ventes de fichiers d’ebooks en librairies n’ont pas rencontré un grand succès).

On connaît de mieux en mieux les lecteurs de livres numériques.

Ce sont avant tout des technophiles, 68 % d’entre eux lisent des romans. Ils utilisent principalement des tablettes et smartphones comme appareils de lecture et lisent sur plusieurs appareils. Ils sont également plus souvent adeptes des livres audio (45 % des lecteurs d’ebook ont écouté au moins un livre audio dans l’année pour 12 % de la population qui a écouté au moins une fois un livre audio). Il s’agit donc d’un profil assez spécifique peu attaché au papier et féru de technologies. Dans l’ensemble de la population, l’attrait pour le livre numérique reste plus limité car si 20 % disent avoir déjà lu entièrement ou en partie un ebook, 5 % de ceux qui ne l’ont pas fait l’envisage pour 75 % qui ne l’envisage pas. Ainsi le livre numérique a déjà trouvé en grande partie son public.

À ces usagers multi-équipé, il faut ajouter celles qui lisent sur liseuses et qui ont un profil différent puisqu’il s’agit avant tout de femmes de plus de 40 ans et qui sont de grandes lectrices. Public particulier, de niche, stabilisé, qui laisse assez peu d’espoir aux fabricants de voir le marché des liseuses exploser.

Les lecteurs numériques empruntent également des ouvrages dans les bibliothèques. L’offre numérique est de plus en plus présente avec le système PNB mais elle ne remporte pas forcément le succès attendu, les usagers étant souvent perplexes face aux contraintes techniques. Néanmoins, le chiffre global des prêts d’ebooks augmente : 500 000 en 2018(+45 % par rapport à 2017) pour 152 millions de prêts de livres physiques pour les seules bibliothèques municipales en 2012.

Un avenir en papier ?

Le phénomène des ebooks demeure un phénomène limité. La part du numérique (livres, applications, bouquets, portails) représentait 7,6 % du CA de l’édition française en 2017. Pour expliquer la résistance du codex, il est toujours possible d’évoquer le bruit de la page que l’on tourne, l’odeur de l’encre fraîche mais l’essentiel n’est pas là. C’est l’absence d’un avantage crucial offert par les ebooks qui limite leur développement. Si de nouvelles ouvertures technologiques sont toujours à attendre (comme le papier électronique couleur), des études conduisent parallèlement à préférer l’imprimé à l’électronique et pourraient freiner un éventuel développement.

Arrivant après le basculement dans l’immatériel de la musique et de la vidéo, le livre bénéficie aussi sans doute d’un enthousiasme un peu émoussé pour ces nouveautés et d’un retour au matériel (un objet plutôt qu’un fichier).

Dans l’étude sur la lecture chez les jeunes adultes de 15 à 25 ans du CNL parue en 2017

la présence des livres numériques est une réalité : 86 % des jeunes lecteurs lisent des livres dans différents formats (83 % des imprimés, 35 % des livres numériques et 13 % écoutent des livres audio). Nous pouvons également noter que si 47 % lisent exclusivement sur du papier, ils ne sont que 2 % à ne lire que des ebooks et ce sont avant tout sur leur smartphone que ces livres sont lus. Une autre étude plus récente et visant la totalité de la population montre que 24 % des personnes interrogées lisent des livres numériques majoritairement en nombre limité (pour 76 % d’entre eux de 1 à 4 livres par an). Si le nombre de lecteurs d’ebooks avait augmenté entre 2015 et 2017, on constate que le chiffre stagne depuis, ce qui confirme l’impression générale de stabilisation de ce public.

L’avenir est difficile à prévoir, néanmoins on peut remarquer que la vidéo devient de plus en plus prégnante – cela a été rendu possible par l’augmentation de la bande passante – et l’arrivée de la 5G devrait accentuer ce phénomène. Les vlogs ont remplacé les blogs et les fournisseurs de vidéo en ligne permettent de passer de plus en plus de temps à regarder des séries, ce sont donc les pratiques cultuelles dans leur ensemble qui pourraient évoluer au cours des prochaines années en fonction, notamment, du temps de loisir disponible. Dans l’étude « Les jeunes adultes et la lecture » du CNL en 2017 si les personnes interrogées disent lire en moyenne 4h43 par semaine dans le cadre des loisirs (contre 14h50 passées devant un écran), les principaux freins avancés à l’activité de lecture sont le manque de temps (à 47 %) et le fait de préférer faire d’autres activités pour 41 % des personnes interrogées.

Concernant les activités culturelles ou de loisirs pratiqués quotidiennement, la lecture de livres arrive en 9e position (18 % des réponses) après la musique, les réseaux sociaux, le fait de parler à distance aux amis, le visionnage de vidéos, la télévision, le fait de voir ses amis, la radio et les jeux vidéo…

Les enquêtes semblent montrer un profil de grand lecteur qui est avant tout une grande lectrice âgée d’une cinquantaine d’années et diplômée. Le renouvellement par des femmes plus jeunes n’étant pas assuré ou alors par des lectrices de mangas dont les pratiques ne seront pas forcément stables. Une autre tendance remarquable est l’augmentation régulière du nombre de « lecteurs » de livres audio, notamment chez les jeunes.

Ainsi, si le livre en papier continue à résister encore et toujours dans notre monde numérique, ce sont peut-être les grands lecteurs d’imprimés qui pourraient finir par manquer.

Alimentation : protégez votre santé (et la planète) grâce à la règle des « 3V »

 

Depuis les débuts de la recherche en nutrition en 1850, les chercheurs occidentaux qui se sont intéressés à l’alimentation et la nutrition humaine ont adopté une démarche réductionniste. Autrement dit, ils ont considéré chaque aliment comme une somme de nutriments sans interaction les uns avec les autres.

Les aliments ont été décortiqués selon leur composition en protéines, lipides, glucides, fibres, minéraux, vitamines, antioxydants, calories, etc. On a ensuite tenté de réduire leur « potentiel santé » à l’un ou l’autre de leurs nutriments. Citons par exemple le calcium dans le cas des produits laitiers, la vitamine C dans celui des agrumes, ou encore les protéines en ce qui concerne la viande.

De la même façon, les causes des maladies chroniques ont été cherchées dans ces nutriments isolés. Le gras a été diabolisé, tandis qu’au contraire divers régimes (hyper-protéinéscétogènes…) valorisaient certains nutriments. Des aliments nouveaux ont été produits, tels que les margarines enrichies en phytostérols (des lipides végétaux) ou en oméga-3, les céréales du petit-déjeuner enrichis en fibres, minéraux et/ou vitamines…

Cette approche réductionniste, c’est-à-dire essayant d’expliquer la globalité par les parties, ne fonctionne pas. En effet, on ne peut pas, par exemple, espérer corriger de cette façon des maladies chroniques dont l’origine dépend de nombreux facteurs (alimentation déséquilibrée, augmentation de la sédentarité et de la pollution environnementale…). En témoignent la progression constante de la prévalence desdites maladies, et la stagnation de l’espérance de vie en bonne santé, qui est d’environ 63 ans en France.

Partant de ce constat, une vision différente commence à émerger, consistant à considérer les aliments dans leur entièreté, c’est-à-dire selon une approche « holistique » (de holisme, point de vue concevant les phénomènes comme des totalités). Celle-ci peut être déclinée en pratiques alimentaires visant à protéger à la fois la santé et l’environnement.

Un tel régime alimentaire obéit à la « règle des 3V » : végétal, vrai, varié.

Le réductionnisme, un outil à double tranchant

Pour faire simple, la pensée réductionniste considère que la complexité de la réalité ne peut être étudiée telle quelle. Elle propose de la décortiquer en ses parties constitutives, afin de les étudier séparément les glucides, lipides, protéines… pour les aliments.

Cette démarche a été scientifiquement validée. Rappelons que la découverte des vitamines, et leur prise sous forme de compléments, a permis notamment d’enrayer les déficiences ; celle des vaccins et antibiotiques a permis de sauver de nombreuses vies. Mais l’approche réductionniste devient problématique dans deux cas :

  • quand elle exclut toute autre forme d’approche, la considérant comme philosophique et non scientifique (alors que le réductionnisme est basé lui aussi sur une philosophie, notamment celle de René Descartes, le cartésianisme) ;
  • quand elle cherche à généraliser à partir des parties isolées, en considérant que le tout est égal à la somme des parties selon l’équation élémentaire 2 = 1+1, excluant la synergie. Ainsi, réduire les agrumes à leur teneur vitamine C, c’est généraliser à partir du spécifique et laisser penser que les autres aliments ne sont pas sources de vitamine C.

Or, la façon dont on conçoit les aliments a des conséquences concrètes en terme de production alimentaire.

Notre vision de l’aliment devrait dépasser les limites de notre assiette

Si l’aliment n’est que la somme de ses composants, pourquoi se priver de le fractionner en ses parties constitutives, pour ensuite les combiner différemment, afin de fabriquer de nouvelles « matrices alimentaires » (comme dans les barres chocolatées, les confiseries, les sodas, certains desserts lactés ou steaks végétaux) ? Ou de le raffiner, puis ensuite l’enrichir en ses micronutriments perdus ?

Cette approche réductionniste est très rentable. Elle permet de développer sans cesse de nouveaux produits, tels que des compléments alimentaires à base de micronutriments, et des régimes vantant la consommation d’une partie du tout. Mais elle présente plusieurs inconvénients majeurs, en particulier en matière de santé.

Elle a par exemple donné naissance aux fameux aliments ultra-transformés. Or on sait aujourd’hui que la consommation régulière ou excessive de ces derniers est associée à des risques significativement accrus de plusieurs maladies chroniques (diabète de type 2, maladies cardiovasculaires, cancers totaux et du sein, syndrome de l’intestin irritable et symptômes dépressifs), de dérégulations métaboliques (surpoids, adiposité, obésité, hypertension, syndrome métabolique, dyslipidémie) et d’augmentation de mortalité. La vision réductionniste extrême – excluant toute autre forme d’approche – et exclusive des aliments semble donc bien liée au développement des maladies métaboliques chroniques.

Cette approche réductionniste pose un autre problème : elle crée un fossé entre les « sachants » (les spécialistes réductionnistes de la nutrition) et les « non sachants » (le « grand public », qui recherche désespérément des solutions miracles sur la base erronée de super nutriments ou super aliments). Au final, cette situation génère toujours plus de confusion alimentaire, avec le risque de mener à l’orthorexie, la maladie du réductionnisme extrême. Les personnes affectées par ce trouble du comportement alimentaire peuvent passer plusieurs heures par jour à choisir leurs aliments en fonction de leurs vertus, réelles ou supposées…

En outre, l’impact environnemental de cette approche est très néfaste car ces aliments ultra-transformés sont fabriqués à partir d’une multitude d’ingrédients isolés de quelques aliments bruts sur la planète et produits de façon intensive (blé, riz, maïs, soja, pois, lait, œufs…), menant à de la pollution, une perte de biodiversité, de la déforestation…

Partant de l’hypothèse d’une influence de la vision réductionniste des aliments sur la santé, on peut supposer qu’au contraire le retour à une approche plus globale de l’aliment, complémentaire, permettrait d’enrayer l’augmentation des maladies chroniques.


À lire aussi : L’orthorexie, ou quand l’obsession du « manger sain » vire à la maladie


Le tout est supérieur à la somme des parties

La confusion liée au réductionnisme peut être dissipée assez simplement en revenant à une approche plus globale (plus « holistique ») de l’alimentation. En bref, l’holisme considère que le tout est supérieur à la somme des parties (autrement dit, 2 > 1+1), car il existe entre lesdites parties une interaction ou une synergie. Cette interaction (donc le lien entre « 1 » et « 1 ») participe de l’effet santé des aliments.

Pour mieux comprendre les approches holistique et réductionniste, prenons l’exemple d’un collier de perles. L’approche réductionniste consiste à retirer les perles du collier pour les étudier séparément (elles et leurs effets supposés). Toutefois dans cette approche, on néglige le rôle du fil (le lien donc) qui est essentiel au collier ; on a aussi tendance à conclure que le collier de perles est la même chose que la somme des perles. Or le collier structuré est bien plus que la somme des perles et du fil pris isolément.

Pour revenir à l’alimentation, la matrice ou la structure d’un aliment résulte des interactions entre ses nutriments. Lors de la digestion, elle influe notamment sur la satiété, la vitesse d’absorption et le métabolisme des nutriments, la sécrétion des hormones, la vitesse de transit digestif… Autant de facteurs très importants pour notre équilibre métabolique. Par exemple un jus de fruit transite plus vite que le fruit entier correspondant, et il est moins rassasiant.

Les aliments ultra-transformés, dont les effets néfastes sur la santé sont régulièrement pointés du doigt, sont en réalité majoritairement des reconstitutions d’ingrédients et/ou d’additifs (les perles issues de plusieurs colliers différents mais sans les fils qui les lient entre elles). Il s’agit de purs produits de la pensée réductionniste. Il ne faut pas pour autant abandonner cette approche au profit d’une approche exclusivement holistique.


À lire aussi : Aliments ultratransformés : de quoi parle-t-on ?


Une approche complémentaire

Il est important de souligner que l’approche holistique n’est pas suffisante à elle seule. Les deux approches doivent coexister harmonieusement. Dans certains cas, il est essentiel de décortiquer les constituants et de les isoler, pour comprendre certains mécanismes en utilisant un modèle réductionniste. C’est par exemple le cas lorsqu’il s’agit de lutter contre des déficiences nutritionnelles graves résultant d’une carence en une vitamine donnée par exemple : la cause est unique et identifiable.

Les approches réductionnistes et holistiques doivent être considérées de façon complémentaire. A. FardetAuthor provided

Néanmoins, lorsqu’il s’agit de maladies chroniques multifactorielles ou multi-causales, rechercher une seule cause dans un aliment ou un nutriment ne fonctionne plus. Une approche plus holistique qui prend en compte la multi-dimensionnalité de ces maladies devient essentielle. Pour l’instant, cette approche n’est pas suffisamment prégnante.

Au final, il est important de considérer chaque question de recherche d’abord selon une approche holistique, puis ensuite d’appliquer – quand nécessaire – une approche plus réductionniste. Du général au particulier, en somme…

Comment tendre vers une alimentation plus holistique ?

Les tenants d’une alimentation holistique remettent l’humain au centre des préoccupations. Ils considèrent que l’alimentation doit protéger à la fois la santé mais aussi la biodiversité, le bien-être animal et l’environnement.

Qu’est-ce que le « potentiel santé » d’un aliment ? A. Fardet

Avoir une approche holistique de l’aliment c’est considérer que son potentiel ne peut être réduit à la somme de ses nutriments (la composition donc) mais aussi à sa matrice (fraction « holistique »). Comme la transformation des aliments agit à la fois sur la matrice et la composition de l’aliment, alors l’approche holistique implique de considérer le degré de transformation des aliments en lien avec la santé.

Concrètement, les résultats de la science convergent vers la définition d’un régime protecteur générique qui obéit à la « règle des 3V » (pour végétal, vrai, varié) ou aux « trois règles d’or pour une alimentation saine, durable et éthique ».

  1. privilégier les produits « végétaux » (85 % des calories quotidiennes) ;
  2. privilégier les produits non ultra-transformés ou « vrais aliments » (qui devraient représenter au moins 85 % des calories quotidiennes) ;
  3. au sein des vrais aliments, manger « varié ».

Le régime qui résulte de ces trois règles est riche d’une variété de produits végétaux peu ou pas transformés (et si possible bio, locaux et de saison).

Ces trois règles sont simples, plutôt qualitatives, et holistiques, en ce sens que si on les applique, on est sûr de remplir tous nos besoins nutritionnels sans avoir à se préoccuper de la teneur de chaque aliment en tel ou tel nutriment. On peut de cette façon « bien manger » pour rester en bonne santé sans posséder de grandes connaissances en nutrition.

Cerise sur le gâteau, cette approche holistique permet aussi d’améliorer la durabilité de nos systèmes alimentaires, ce qui ne serait pas possible sans elle.

Du fer et du cuivre aux origines de la vie

 

Stromatolithes, Australie. C. Eeckhout/WikipediaCC BY

Cet article est publié dans le cadre de la Nuit Sciences et Lettres : « Les Origines », qui se tiendra le 7 juin 2019 à l’ENS, et dont The Conversation France est partenaire. Retrouvez le programme complet sur le site de l’événement.


La chimie bio-inorganique est une discipline relativement récente, née au confluent de la chimie inorganique, de la chimie physique, de la biochimie et de la biologie dans le courant de la décennie 1970. Il y avait auparavant des références à des entités métalliques d’intérêt biologique, mais elles se généralisent à cette époque, pour peu à peu s’organiser en un champ indépendant.

La chimie bio-inorganique devient une discipline à part entière à partir de 1983 : c’est l’année du premier International Congress in Bioinorganic Chemistry. En 1995, une société savante est fondée, la Society of Bioinorganic Chemistry. Il est amusant de noter que ce terme de chimie bio-inorganique est un oxymore : à partir du XIXe siècle, on parle de chimie organique pour désigner la chimie des corps organisés, donc la chimie du vivant. Par définition, la chimie IN-organique, dite aussi chimie minérale, est la chimie de l’inanimé, du non-vivant. Et pourtant, on sait aujourd’hui que les métaux sont indispensables à la vie : c’est à la compréhension de leur rôle que la chimie bio-inorganique s’intéresse.

Différents métaux, comme le fer, le zinc, le magnésium, le mercure, l’or sont utilisés dans la pharmacopée depuis des siècles. En particulier, c’est un alchimiste célèbre, Paracelse, qui systématise leur usage. Cependant, la reconnaissance d’un rôle physiologique naturel ou endogène est beaucoup plus récente. Il faut attendre la fin du XIXe siècle pour que le fer soit identifié comme un métal essentiel à la vie parce qu’il est, sous une forme cationique Fe(II), un élément constitutif de l’hémoglobine. A la même époque, Jules Raulin, un élève de Pasteur, démontre le caractère indispensable des sels de zinc dans la croissance d’une moisissure. Mais c’est seulement à partir de deuxième quart du XXe siècle que l’essentialité des métaux (c’est-à-dire leur rôle vital) chez l’homme en particulier, est envisagée comme une question pertinente, et qu’elle est progressivement établie pour différentes espèces.

Des métaux essentiels à la vie

Parmi les métaux indispensables à la vie, on compte le fer et le zinc que nous avons déjà mentionnés, mais aussi le cuivre, le manganèse, le cobalt, le tungstène… non sous leur forme métallique, comme celle que l’on trouve dans une barre de fer par exemple, mais sous forme de métal oxydé ou de cations métalliques : Fe(II), Fe(III), Zn(II), Mn(II), Cu(II)… Leurs sels (FeCl3, FeCl2…) peuvent être solubles dans l’eau (eau de mer, eau de lac), comme le sel l’est dans l’eau des pâtes, ou, au contraire, ils peuvent être insolubles et exister sous forme solide. Ce point est crucial car pour qu’un élément puisse être utilisé par le vivant, il doit pouvoir diffuser jusqu’aux différentes formes de vie : il faut qu’il soit bio-disponible et cela passe par la solubilité dans l’eau. En effet, si les cations métalliques se dispersent, se solubilisent, dans l’eau, ils peuvent diffuser et servir de nutriments aux micro-organismes.

Prenons l’exemple du fer : il est très abondant dans l’univers car il est particulièrement stable (et sa formation lors de la nucléosynthèse stellaire est favorable). Il y a beaucoup de fer dans la croûte terrestre (5,05 % en masse). Mais cela ne suffit pas pour qu’il puisse être utilisé par le vivant. Aujourd’hui, le fer existe dans notre environnement oxygéné (ou oxydant) à l’état Fe(III) (ou Fe3+) et ce cation participe à des sels qui sont très peu solubles.

Nous avons besoin de fer mais il est peu bio-disponible : il y a aujourd’hui une véritable lutte pour l’alimentation en fer des organismes vivants. Mais ce n’était pas le cas à l’origine de la vie. Il y a environ 3,5 milliards d’années, à l’époque des premières cellules, il n’y avait pas de dioxygène dans l’atmosphère de la Terre. Dans ces conditions primitives, le fer était présent sur notre planète essentiellement sous forme ferreuse, Fe(II) ou Fe2+, et les sels correspondants sont très solubles dans l’eau, beaucoup plus que ne le sont les sels de Fe(III). La mer primitive était donc riche en cations ferreux : ce cation, dès lors bio-disponible, sera mis à profit par de nombreuses biomolécules, principalement des protéines qui possèdent un centre métallique, dites ainsi métalloprotéines.

Un échantillon de fer dit rubané, dont les gisements datent des premiers âges de la Terre. Wilson44691/Wiktionary

Apparition de la photosynthèse

Mais, il y a environ 2,5 milliards d’années, apparaissent les premiers organismes photosynthétiques, des organismes capables de transformer le dioxyde de carbone, riche dans l’atmosphère primitive, en matière organique et plus précisément en sucre. C’est un processus très efficace qui utilise la lumière solaire. Le dioxygène est un sous-produit de cette réaction : il est rejeté dans l’atmosphère de la Terre. D’une certaine manière, il est un déchet, en quelque sorte le premier polluant issu des premières formes de vie. Cet événement, qui se déroule sur un peu plus de 500 millions d’années, aussi appelé la Grande Oxydation, est une catastrophe écologique majeure qui va profondément modifier la face de la Terre.

Le fer, présent avant la Grande Oxydation sous forme de cation ferreux, va être oxydé en cation ferrique. Dès lors, il devient moins soluble et conduit à des espèces solides. En chimie, on dit qu’il précipite, un peu comme les protéines du lait qui tombent au fond du récipient quand on y met du citron. Les organismes vivants, habitués à utiliser le Fe(II), vont dès lors s’en trouver privés : il a cessé d’être bio-disponible puisqu’il n’est plus soluble. Que se passe-t-il alors ? Que faire face à cette pénurie ? Aller à la pêche au fer ? Le remplacer par un autre métal ? Deux solutions sont mises en place.

D’une part, les micro-organismes vont se mettre à produire de petites molécules qui vont aller solubiliser le fer(III) : il va dès lors pouvoir s’intégrer dans les cellules. L’intérieur des cellules, qui est un reflet des éléments existants dans la mer primitive, fonctionne selon un principe de réduction : le Fe(III) est réduit en Fe(II) et se trouve incorporé dans les voies de synthèse de biomolécules, déjà en place dans la cellule. D’autre part, une seconde solution implique un autre métal, le cuivre. C’est l’histoire inverse de celle du fer. En effet, à l’origine de la vie, dans la soupe primitive avant la Grande Oxydation, le cuivre se trouvait à l’état Cu(I) ou cuivreux. Il existait alors sous forme de sulfure de cuivre ou Cu2S, lequel est très peu soluble dans l’eau. Il était alors très peu bio-disponible et les premières cellules n’utilisaient pas d’ion cuivre. Avec l’apparition du dioxygène, les ions cuivreux vont être oxydés en ions cuivriques (Cu(II)) dont les sels sont beaucoup plus solubles. Du cuivre(II) se solubilise petit à petit dans les océans primitifs : le cuivre devient bio-disponible. Les microorganismes vont alors apprendre à l’utiliser, et on constate aujourd’hui que de nombreuses protéines utilisent du cuivre : ce sont souvent des protéines qui utilisent le dioxygène ou des enzymes de protection contre ses dommages.

On l’aura compris : le dioxygène, ou oxygène dans le langage courant, est le héros de cette histoire. Ce sous-produit de la photosynthèse, qui bouleverse le monde inorganique, est aussi une molécule très intéressante d’un point de vue énergétique : d’une certaine manière, via la photosynthèse, le dioxygène est une forme de stockage chimique de l’énergie solaire. Le vivant va apprendre à mettre à profit cette source d’énergie. Mais il est aussi à l’origine de composés délétères capables d’endommager les composants cellulaires tels que les lipides, les protéines et l’ADN : ces molécules sont connues par le public sous le nom de radicaux libres.

Avec du cuivre bio-disponible, des réactions de polymérisation radicalaires vont permettre le développement de tissus conjonctifs entre cellules et favoriser l’apparition de systèmes pluricellulaires : les cellules enfouies au cœur de ces systèmes se trouvent moins exposées au dioxygène et, de ce fait, mieux protégées des dommages liés aux espèces toxiques qui en sont dérivées.

Cette petite molécule, le dioxygène, premier polluant dérivé de la vie, va façonner la Terre pour conduire à l’émergence de la vie que nous connaissons aujourd’hui.

À quoi sert la culture générale en 2019 ?

À l’heure d’Internet, des réseaux sociaux et de l’accessibilité de tout pour tous en un simple « clic », il devient légitime – quoiqu’un peu effrayant pour un intellectuel – de se demander à quoi peut bien servir, de nos jours, la culture générale. Qu’est donc devenue cette notion, jadis si centrale dans l’éducation, dans la formation des jeunes esprits ? « L’homme sans culture est un arbre sans fruit », disait poétiquement Rivarol. « La culture, ce qui a fait de l’homme autre chose qu’un accident de la nature », déclarait philosophiquement Malraux. Mais plus récemment, cela s’est un peu gâté. Entre le constat fataliste de Bernard Pivot affirmant que « Commercialement, la culture est pénalisante » ou, plus provoquant, un ancien chef d’État (en fonction au moment des faits) dénonçant « Un sadique ou un imbécile, choisissez, avait mis dans le programme d’interroger les concurrents d’un concours d’attaché d’administration sur la Princesse de Clèves », le moins que l’on puisse dire, c’est que la culture générale est chahutée..

Alors cette fameuse « culture générale », que devons-nous en penser ? Est-elle toujours un bastion que certains qualifieraient d’élitiste et que l’on chercherait (ou pas) à conquérir ? Ou, au contraire, se serait-elle dissoute dans un populisme rampant ? Ou encore, aurait-elle muté vers de nouvelles formes moins lettrées et plus adaptées à un environnement devenu, au quotidien, plus pragmatique ?

Qu’est-ce que la culture générale ?

La culture générale devrait pouvoir, globalement, se définir comme un ensemble de connaissances culturelles, sans domaine de spécialisation précis. Mais, en France, cette définition n’est pas tout à fait exacte. En réalité, la culture n’est « générale » que par le nom qu’elle porte, tant des pans de connaissances entiers ne sont pas – ou peu – reconnus par cette expression qui se veut pourtant explicitement englobante. En effet, l’univers du savoir qu’elle recouvre se limite souvent quasi exclusivement à des domaines dits « littéraires », à savoir la philosophie, la littérature, l’histoire, les arts et la religion et concerne peu les domaines scientifiques, qu’il s’agisse de sciences dites « exactes » ou naturelles, mais aussi de savoirs techniques, ou plus éloignés encore, d’autres domaines telles l’économie ou la santé.

Et à cette discrimination des « types » de savoirs, on peut également ajouter une autre restriction importante : celle du degré de « consensus intellectuel » accordé – ou non – aux références et qui font que celles-ci appartiennent – ou non – à la fameuse Culture générale, et ce, à un moment donné et pour une population géographiquement circonscrite. Par exemple, reconnaître les premières mesures de la Sarabande d’ Haendel, savoir déclamer la « Tirade des nez » de Cyrano de Bergerac d’Edmond Rostand ou encore connaître, dans l’ordre, les Présidents de la IIIe république française, tout cela fait partie sans nul doute possible de la liste. En revanche, reconnaître une chanson de l’Astre de l’Orient, Oum Kalthoum, reproduire le schéma d’un moteur à quatre temps ou encore énumérer la liste des scores de l’Équipe de France de football à la Coupe de monde 2018, en fait-il partie ? Rien n’est moins sûr…

Quelle finalité pour la culture générale ?

Si l’on considère qu’il s’agit d’une simple accumulation, depuis la prime enfance, de données diverses et variées sans autre but que celui d’additionner des références pour avoir les « codes » bien-pensants d’un milieu élitiste, c’est, en grande partie, désavouer son but originel. En effet, si l’on reprend l’idéal de « l’honnête homme », tel qu’il a été défini au XVIIe siècle, la notion de « culture générale » s’entendait plutôt comme un « premier pas » dans une logique de dépassement de soi. C’est l’équilibre qu’incarne l’aimable, le tempéré et cultivé Philinthe dans Le Misanthrope de Molière : ni inculte (horreur !), ni pédant (horreur aussi !).

Certes, dans un premier temps, se cultiver consistait à acquérir de multiples savoirs, mais surtout, dans l’objectif de les confronter. Et ainsi permettre à l’homme cultivé de passer au-delà de sa notion de nature pour atteindre une nouvelle dimension de son être. Aujourd’hui, cette notion est fortement battue en brèche, bafouée, déviée de ses buts initiaux, voire combattue. Au mieux, on apprend des « bouts » de culture, que l’on replace si nécessaire (examens, soirées jeux entre amis). Au pire, on se détourne de la « culture générale » pour revendiquer uniquement une culture identitaire.

Devant la dérive contemporaine du rapport à la culture non comme moyen mais comme finalité, comment ne pas approuver les réticences de plus en plus nombreuses des prestigieux établissements d’enseignement supérieur et autres concours d’État vis-à-vis de l’exigence de culture générale au moment des épreuves d’entrée ? Que dire des rapports du concours de l’ENA qui, avec un peu plus d’insistance chaque année, déplore le manque de culture et surtout d’originalité des candidats ? Ce qui était censé faire la différence entre les élèves fait désormais leur ressemblance : mêmes références, mêmes citations, même chemin unique de pensée… Régurgité à partir de fiches toutes préparées par thème, sans la moindre once de pensée individuelle mais avec tous les passages obligés de… culture générale ! Cela pose donc directement la question du conformisme. Et, par ailleurs, comment imaginer et manager une société toujours en mouvement avec des références… toujours à l’arrêt ? Et non seulement à l’arrêt, mais bien également représentatives du mode de pensée de la classe dirigeante.

C’est ainsi que, dès 2013, l’IEP de Paris – dit Sciences Po – a « résolu le problème » de la culture générale, en choisissant purement et simplement de supprimer l’épreuve de la dissertation de culture G de son concours d’entrée, jugeant celle-ci discriminatoire, en s’appuyant sur le raisonnement, maintes fois prouvé depuis qu’elle était, en grande partie, le fait d’un héritage culturel. D’autres grandes écoles ont suivi la même voie : IEP de province, ENS Lyon, etc.

Vers une culture générale populaire ?

Et pourtant, les Français aiment la culture générale. Ils le disent. Ils le revendiquent parfois. Plaisir personnel, plaisir d’échanger, mais aussi marqueur d’un milieu et donc du « groupe de référence » auquel nous nous identifions, la culture générale connaît, depuis quelques années déjà – mais toujours avec le même succès – un tournant populaire notamment via la télévision et les nombreuses émissions de quiz ouvent même en prime time : citons seulement « Le grand quiz des animateurs » (TF1) « Tout le monde joue – avec… l’Histoire/la France/le Brevet » (France 2). Et, plus récemment, la nouvelle série de ce que l’on pourrait appeler des magazines divertissants, « La fabuleuse histoire de… » proposée là aussi en soirée, avec un grand succès.

Dernier argument de cette popularisation : le choix inattendu de Sylvie Tellier, présidente du comité Miss France, de mettre en place, en 2013, un test de culture générale pour les candidates. Certaines des questions peuvent, certes, prêter à sourire : « Qu’a-t-on célébré en France le 11 novembre dernier ? », « Quel est l’accent du deuxième “e” sur le mot fenetre ? », « À quel animal l’adjectif hippique se rapporte-t-il ? », mais le besoin de reconnaissance, exprimé par cette nouvelle « épreuve » qui apparaît si décalée par rapport à son objet initial montre toujours ce besoin si naturel d’entrer dans une histoire commune.

Ainsi, en 2019, que ce soit en famille, entre amis, à l’école ou dans le monde du travail, la culture générale apparaît toujours et plus que jamais comme un pont essentiel contre les ravages de l’hyperspécialisation. Que ce soit en médecine ou en éducation, ces tendances sont aujourd’hui à la fois très présentes dans la réalité et très contestées dans ce qu’elles promettent pour le futur. Car si elles offrent, à l’instant X, une solution efficace, elles ne permettent pas d’embrasser une vision d’ensemble, ni d’entremêler des connaissances qui n’ont a priori pas de lien entre elles, ce qui fait pourtant tout le sel de la personnalité et le terreau de la créativité.

En puisant ses racines dans des domaines multiples – qui gagneraient certainement à être élargis à des formes de connaissances nouvelles – la culture générale permet d’envisager une approche systémique, c’est-à-dire au-delà de son propre univers, seule façon pour tenter de comprendre, humainement, un monde devenu extrêmement complexe et technique.

L’Allemagne, le pays où les hauts fonctionnaires se forment à l’université

 

Un correspondant de l’ENA en Allemagne n’existe pas. La plupart des membres Bundestag passent par des études en droit. reisefreiheit_eu/UnsplashCC BY-SA

Le débat sur la suppression de l’École nationale d’administration est d’autant plus vif qu’il se situe à la convergence de plusieurs enjeux : principes de la méritocratie, ascension sociale, fonctionnement de l’administration publique, réseaux d’influence et rentes professionnelles que procurent les grands corps.

D’autres modèles existent chez nos voisins. Une comparaison avec l’Allemagne éclaire le rôle que peut jouer l’université dans la formation de la haute fonction publique.

Une élite administrative formée à l’université

L’Allemagne sert souvent de modèle à la France, y inclus dans la formation des élites administratives lorsque les fondateurs de l’École libre des sciences politiques s’inspirent de la Prusse pour développer le projet pédagogique de l’ancêtre de Sciences Po en 1871. Pourtant, la formation de l’élite administrative y est bien distincte.

L’Université allemande des sciences administratives de Speyer, fondée seulement deux ans après la création de l’ENA en 1947 par le Gouvernement militaire de la zone française d’occupation sous le nom de « École supérieure d’administration » n’a pas eu une trajectoire comparable à sa cousine française, entre autres du fait de résistances politiques. Elle forme aujourd’hui des juristes qui se destinent à des carrières dans l’administration publique.

La maquette de l’ENA « École nationale d’Administration » à Strasbourg. Sa création remonte à 1947. Pierre73/WikimediaCC BY

La majorité des hauts fonctionnaires allemands passent par les universités du pays. L’accès y est pour la plupart sans sélection et sans droits de scolarité. Ce n’est pas tant la qualité de l’université qui compte, mais le parcours choisi. Les études juridiques sont les plus courantes, ce qui implique de réussir les exigeants examens nationaux de qualification pour les juristes. Il est également très avantageux de finir ses études avec le titre de doctorat, qui confère un statut social bien supérieur qu’en France et qui fait partie de l’état civil de son titulaire. L’importance de ce grade universitaire pour des carrières politiques – et les moyens mis en œuvre pour l’obtenir – ont été sous le feu des projecteurs lors de révélations de cas de plagiats, qui ont coûté leur poste de ministre à plusieurs personnalités.

Des recrutements par ministères et administrations

L’absence d’une formation centralisée reflète la diversité de voies de recrutement. Au niveau fédéral et régional, chaque ministère ou administration recrute par elle-même ses agents, par des modalités ou concours adaptés aux différentes fonctions qu’il s’agit d’exercer. Par conséquent, les carrières des fonctionnaires se déroulent le plus souvent au sein de la fonction publique, avec une mobilité relativement lente et dans un domaine de compétence précis. La dimension fortement juridique des concours explique la prépondérance des juristes parmi les recrutés, mais d’importantes variations peuvent exister.

Les formations spécialisées qui préparent aux carrières dans la fonction publique s’adaptent ensuite à chaque administration et se déclinent au niveau des Länder et au niveau fédéral avec la Fachhochschule des Bundes für öffentliche Verwaltung à Brühl et l’Académie d’Agence fédérale pour l’emploi à Mannheim et Schwerin. Pour la plupart des emplois, l’accès à l’emploi de fonctionnaire passe par une période de stage professionnel (Referendariat) de deux ans, à valider après le diplôme de master.

Environ 16 % (115 personnes) des membres du Bundestag viennent d’une formation en Droit. Tobias Schwarz/AFP

Il n’est pas rare de commencer sa carrière au niveau régional avant une mobilité au niveau fédéral, mais la compétence technique prime sur la polyvalence dans ce paysage où les ministères qui recrutent sont en charge de la formation – théorique et pratique – de leurs agents sur plusieurs années.

L’investissement public le plus important dans la formation des agents est par ailleurs proposé au sein de l’armée, par deux Bundeswehr-Universitäten à Hambourg et à Munich, dont l’objectif est la formation universitaire des aspirants officiers pour la vie militaire et leur réintégration dans la vie civile après leur service.

Des réseaux partisans

Avec une telle fragmentation, ce que le modèle allemand ne permet pas, c’est de créer une cohésion transversale d’une génération de jeunes fonctionnaires. Mais comme ces réseaux restent précieux pour la vie publique, elles se font au sein des structures partisanes, parmi les militants et dans les fondations proches de chaque parti comme la Konrad Adenauer Stiftung de la CDU ou la Friedrich Ebert Stiftung du SPD.

Ces fondations jouent un rôle d’autant plus central qu’elles proposent des financements d’études qui favorisent la création de réseau pour les lauréats bien après leurs études. Dans la liste de leurs anciens membres se retrouvent les noms des élites économiques, politiques et administratives, des listes bien plus impressionnantes que ceux de chacune des écoles citées plus hautes.

L’engagement politique est ainsi le marqueur des réseaux, plus que les lieux de formations. Il en découle que l’engagement politique est plus stable dans le temps et que les partis politiques servent non seulement à faire de la représentation politique, mais aussi à assurer le maillage entre les territoires et l’élite du pays.

Népotisme, rente et mobilité sociale

Le regard outre-Rhin peut rassurer ceux qui craignent que la France tombe dans le népotisme du début du XXe siècle qui a motivé la création de l’ENA. La sélectivité des concours, à l’exemple du Ministère des affaires étrangères allemand, qui propose une quarantaine de places pour 2 000 candidats chaque année, et la multitude d’étapes, examens et formation pratique que doit passer un candidat avant d’accéder à son emploi et rang préserve des dérives du favoritisme. En absence de corps, il n’y a également pas de rente acquise tôt dans la carrière, comme le procure l’accès aux grands corps en France.

Heiko Maas, ministre des Affaires étrangères dans le quatrième cabinet Merkel, a étudié droit à l’Université de la Sarre. Christian Charisius/AFP

En revanche, le modèle allemand peine autant à lutter contre l’inégalité sociale. Même si les chiffres varient selon les administrations, 40 % des hauts fonctionnaires allemands viennent de parents appartenant à cette même catégorie socio-professionnelle et seul 5 % ont des origines ouvrières, des chiffres largement comparables à la France.

Pour le sociologue Michael Hartmann, la France et l’Espagne avec ses corps d’administration civile, l’Angleterre et la Suisse avec ses universités d’élites ou l’Allemagne, l’Italie et l’Autriche sans écoles d’élite aboutissent par des chemins très différents au même tableau de reproduction sociale. Seuls les pays scandinaves réussissent à pallier les inégalités sociales au sein de leur système scolaire et universitaire ouverts.

Une lueur d’espoir vient également des chiffres sur l’ascension sociale que permettent des recrutements qui se basent sur une expérience professionnelle déjà acquise. Ainsi, l’accès à une élite professionnelle ou à la haute fonction publique paraît plus ouvert socialement qu’il intervient tard dans une carrière, comme certains procédures de promotion ou de changement de grade. Ceci est vrai même au sein de l’ENA, qui arbore des chiffres bien distincts pour la voie du concours externe et la voie du concours internes, réservée à des fonctionnaires.

A elle toute seule, cette deuxième voie positionnerait l’ENA parmi les grandes écoles les plus ouvertes socialement en France.

La suppression de l’ENA ne sera donc pas la baguette magique pour transformer tous les problèmes de la France. Elle permettra toutefois de réduire le sentiment que l’avenir du pays est dans la main d’un petit groupe de gens auquel l’accès se verrouille avant même que ceux-ci ne commencent l’essentiel de leur expérience professionnelle. Ce sera déjà un grand pas en avant.