|
Dans le grand récit de l'humanité, chaque époque semble avoir privilégié une manière singulière de comprendre le monde, d'agir sur lui et de convaincre. Ces modes de persuasion, ces souffles qui animent le discours collectif, trouvent un écho particulier dans les concepts antiques d'Ethos, de Logos et de Pathos. Dans mon livre Bienvenue dans le dataïsme, je propose une relecture de ces trois piliers rhétoriques, non pas comme de simples outils atemporels, mais comme les reflets des grandes transformations civilisationnelles qui nous ont menés jusqu'à l'ère actuelle, celle de la donnée reine. L'Aube de l'Ethos : Quand la Parole Sacrée Fondait la Confiance
Aux commencements, lorsque l'homo sapiens s'éveillait à la conscience de soi et de l'autre, la question fondamentale était celle du "QUI". Qui croire pour m'expliquer le monde ? Qui suivre pour survivre et donner un sens à l'existence ? Dans ces sociétés naissantes, s'organisant autour de communautés et de traditions, la persuasion reposait essentiellement sur l'Ethos. C'était l'âge où la crédibilité de l'orateur, souvent une figure religieuse ou un gardien des coutumes, était le socle de toute vérité acceptée. La parole des prêtres, des chamans, des anciens, tirait sa force de la confiance et de la sympathie qu'ils inspiraient au sein de leur communauté de croyants. L'écriture, en figeant les récits sacrés et les lois immémoriales, devint l'outil d'extension de cet Ethos, assurant la pérennité d'un ordre où la foi en l'autorité du locuteur primait sur toute autre considération. La récompense promise était alors le salut, une transcendance au-delà du monde visible. Le Zénith du Logos : La Raison Éclairant le Monde Puis vint un grand basculement, celui que portèrent les Lumières. La quête de sens se déplaça du "Pourquoi" divin au "COMMENT" scientifique. Comment fonctionne l'univers ? Comment maîtriser la nature et organiser la société selon des principes rationnels ? Ce fut l'avènement du Logos, le règne de la raison, de l'argumentation logique et de la preuve empirique. Une nouvelle élite intellectuelle – philosophes, scientifiques, puis journalistes – émergea, dont le pouvoir de persuasion reposait sur la capacité à démontrer, à expliquer, à convaincre par la force du raisonnement. L'imprimerie, en démocratisant l'accès au savoir et en permettant la capitalisation des connaissances, fut le grand vecteur de ce Logos. Le citoyen était invité à adhérer à un projet collectif fondé sur le progrès, avec la promesse d'un futur meilleur éclairé par les avancées de la science et de la technique. L'Ère du Pathos : L'Émotion au Cœur du Flux Dataïste Aujourd'hui, comme je le développe dans Bienvenue dans le dataïsme, nous assistons à l'émergence d'un nouveau paradigme, celui de la donnée, qui semble propulser le Pathos au premier plan. La question centrale n'est plus tant le "Qui" croire, ni même le "Comment" comprendre, mais le "QUOI" ressentir, le "Quoi" me propose-t-on pour occuper ma vie et stimuler mes sens. Dans cet univers où l'information est surabondante et les algorithmes omnipotents, c'est la passion spontanée, l'émotion immédiate qui devient l'objectif et la mesure de nos interactions. Le numérique, succédant à l'imprimerie, est le formidable outil d'extension de ce Pathos, favorisant l'hyperpersonnalisation et la création de "bulles cognitives" où chacun est nourri de ce qui le touche, le conforte, le divertit. La promesse est celle de la satisfaction instantanée de nos désirs, de l'élimination de l'ennui par une stimulation émotionnelle constante. Nous vivons ce paradoxe fascinant d'une "émotion chaude comme valeur centrale de notre société en même temps que la technologie guidée par une data froide s’impose dans notre quotidien". De l'Ethos fondateur des premières communautés à la logique éclairée du Logos humaniste, jusqu'au Pathos vibrant de notre présent dataïste, chaque époque a ainsi façonné ses propres outils de persuasion et ses propres horizons d'attente. Comprendre cette évolution, c'est peut-être se donner les moyens de naviguer avec plus de lucidité dans le monde qui vient, un monde où, plus que jamais, la manière dont nous nous lions aux informations et aux émotions qu'elles suscitent définit notre rapport à nous-mêmes et aux autres.
0 Commentaires
Le mouvement Cyberpunk né dans l'univers geek des années 80 mettait en scène un futur proche où la technologie s'imposait dans notre quotidien avec des héros intégrant nativement l'ère de la post-vérité. Le rapprochement d'Edouard Fillias avec la société d'aujourd'hui est éclairant.
Je partage ici la réflexion d’Edouard Fillias, CEO de JIN, qui revient sur l’Univers cyberpunk projeté par certains artistes des années 80, et notamment William Gibson en … 1984 (!). Il observe que la dystopie a rejoint notre réalité. Neuromancien (qui aura le droit à deux suites) est considéré comme une œuvre de référence de ce mouvement et ses influences dans Matrix, Ghost in the shell et Player One sont évidentes. Mais ce serait oublier Blade runner sorti sur les écrans deux ans plus tôt et tiré de l'œuvre écrite en 1966 par Phlip K. Dick dont on peut apprécier le joli titre : " les androïdes rêvent-ils de moutins électriques ?". A travers la description d'un monde où l'humain s'hybride de plus en plus avec la machine et le virtuel, il s'agit à chaque fois d'interroger ce qui fonde notre humanité. A l'heure où l'intelligence s'autonomise et devient abondante, la question n'a jamais été autant d'actualité.
Contrairement à ce que prévoyait George Orwell en 1948, ce n’est pas un état autoritaire qui nous y a conduit, mais nos choix conscients dans un monde dataïste. Les religions et la société humaniste ont permis de satisfaire notre besoin vital de comprendre le monde, de donner du sens à nos vies. Après les désillusions du XXe siècle, la télévision puis le numérique vont changer les choses, car, avec eux, l’information submerge le monde. Après le temps du Pourquoi et du Comment, une nouvelle ère commence. La tradition religieuse créait une communauté de fait qui se retrouvait dans des coutumes : dans chaque église, synagogue et mosquée, des rituels identiques permettaient à chacun d’être adopté par le groupe de fidèles. Il y avait une perspective avec le Paradis proposé par la foi religieuse. L’humaniste a proposé à la place le progrès qui permet de se projeter dans un futur meilleur, pour soi et pour ses enfants. Or le XXe siècle a vu se dérouler des évènements qui vont changer la perception du pacte social. La Grande guerre avait causé 17 millions de morts, ce qui était déjà un traumatisme, mais le Seconde Guerre mondial laisse derrière elle entre 50 et 85 millions de victimes ainsi qu’un génocide industrialisé. Plus globalement, après Hiroshima, le monde entier est marqué par la puissance atomique et craint ce que les États-nation pourraient en faire.
La jeunesse des années 60, née sur ces charniers, se construit en opposition à la génération précédente à laquelle elle ne veut pas ressembler. On parle de contre-culture et celle-ci s’exprime dans l’idéologie comme dans les pratiques culturelles (musique, habillement…). Plus particulièrement, le mouvement hippie naît dans les années 60, mais il trouve son épicentre en 1967 à San Francisco : rien de surprenant sur le lieu et la date. Trois ans après l’engagement des forces américaines dans la guerre terrestre, ce sont désormais 510.000 soldats – trois fois plus que deux ans auparavant – qui sont stationnés au Vietnam, de l’autre côté du Pacifique, face à The City by the Bay. Les Américains appelleront le conflit la sale guerre, mais cette fois, elle passe à la télévision. Les caméras sont sur place presque constamment dans les zones de combat et les journalistes rapportent quotidiennement la situation le terrain. Plus rien ne sera comme avant pour l’opinion publique, pour qui les conflits militaires n’ont désormais plus rien d’abstrait. L’information change la donne. Et il devient compliqué de faire confiance à des dirigeants, prêts pour des raisons géopolitiques peu partagées par le peuple, à engager la vie de des enfants de la Nation. La défiance envers les politiques s’exprime de plus en plus clairement. La conception religieuse garantissait la vie éternelle pour les plus pieux. Rien de comparable pour l’être de raison qui veut miser sur le progrès pour offrir à ses enfants une vie meilleure que la sienne, comparable à ce qui est mis en avant dans les publicités et au cinéma. Le déclassement social devient une nouvelle peur. Si la société devient utilitaire, le citoyen mesure ce qu’il a à gagner dans le contrat que celle-ci lui propose et il peut alors le remettre en cause s’il trouve ce contrat moins avantageux. On observe alors un délitement du lien social. Le réveil est douloureux après l’euphorie des Trente Glorieuses et de l’essor de la société de consommation. Le choc pétrolier se traduit par une révision drastique de la croissance dans les pays de l’OCDE. Il provoque aussi l’apparition du chômage de masse, un concept philosophiquement destructeur dans un monde qui a érigé le travail en valeur centrale et comme un sésame pour bénéficier individuellement du progrès. Dans les pays les plus développés, non seulement la croissance baisse, mais elle bénéficie davantage à une partie de la population, qui est mieux adaptée à un monde évoluant rapidement. Le progrès est jugé bien décevant pour la majorité. Il conduit à intégrer que dans un jeu à somme nulle, ce n’est pas forcément du collectif qui faut attendre un bien-être supérieur, mais sans doute en tirant individuellement mieux partie des nouvelles règles du jeu économique, social et technologique. Pour certains, c’est même le spectre du déclassement social. La pollution et le nucléaire sont également perçus comme l’héritage d’une génération qui a fait confiance aux élites et qui propose un modèle unique. Malgré un bilan globalement positif de 200 ans de progrès technologique, il y a donc une tendance à la perte de confiance dans le collectif. La notion même de nation est réinterrogée, car elle a conduit aux conflits sans amener au bonheur. À quoi bon donc, se satisfaire de ce pacte social décrit par Rousseau et accepter une aliénation à un tel collectif. Beaucoup de conflits actuels doivent encore à cette conception d’État-nation où la géopolitique prime sur la conception du bonheur que beaucoup de citoyens se font. Comme l’avait formalisé Jean-François Lyotard dans La Condition postmoderne en 1979, c’est tout le méta-récit construit depuis les Lumières qui est remis en cause comme cadre constituant d’une unité : outre la nation, la science, la politique et les arts ne sont plus des référents de la dynamique collective. Il y a donc un doute sérieux à continuer comme avant en faisant confiance aux mêmes élites et aux mêmes méthodes. Et comme l’idéologie alternative, le communisme, s’effondre sans que le modèle libéral puisse satisfaire la grande majorité, il y a une volonté d’envisager les choses autrement pour construire un avenir meilleur. Les gouvernements sortants ne cessent d’être battus (une seule exception en France depuis 45 ans en onze élections législatives). C’est ce qui faisait dire abusivement à l’écrivain et ancien président tchèque : « L’élément tragique de l’homme moderne, ce n’est pas qu’il ignore le sens de sa vie, mais que ça le dérange de moins en moins ». En fait, il cherche une transcendance différente de celle que la société lui proposait précédemment. L’individu commence à définir un nouveau système de valeur avec lequel il apprend à négocier. Certains le trouvent, mais beaucoup cherchent. En 1995, la Commission d’enquête sur les sectes relevait une augmentation du nombre d’adeptes de 60 % depuis 1982. Il y avait alors 170 organisations identifiées. Désormais, on en compterait désormais environ 500 selon la Mission interministérielle de vigilance et de lutte contre les dérives sectaires mise en place depuis 2021. Elle relève que la France fait face à une croissance inédite des agissements à caractère sectaire avec un doublement des saisines par la justice en six ans. Comme l’a montré le sociologue Albert Hirschman dans son livre Bonheur privé, action publique, l’individu traverse son existence en allant d’espoirs en déceptions, ce qui l’amène à redéfinir régulièrement ses priorités et à osciller entre l’optimisation de ses intérêts et de ceux de la société. Face aux défaillances d’une institution privée – une entreprise – comme publique, Albert Hirschman, dans un autre ouvrage, Défection et prise de parole, expliquait que les clients et usagers ont trois types de comportement : la loyauté (continuer comme avant), l’interpellation (la prise de parole, par exemple via une manifestation ou une réclamation) et la sortie (le désengagement en partant pour la concurrence, notamment). L’après-1968 s’est traduit pendant la décennie suivante par une société qui a cherché à se libérer de son conservatisme avec une dynamique générale portée vers les aspirations collectives. En France, comme dans de nombreux pays occidentaux, c’est une période de libération des mœurs, la seconde vague du féminisme, l’émergence de SOS racisme et les premières revendications LGBT. Suivront les années 80, qui par un effet de boomerang proposent un retour à un certain conservatisme et une valorisation de la réussite individuelle. Après la loyauté comme modèle dominant, la période de l’interpellation s’est organisée depuis la fin des années 60. Mais de plus en plus de citoyens sont tentés de choisir la sortie vers un autre système. Après plusieurs siècles de croissance peinant à apporter le bonheur, cette insatisfaction des humanistes les rend particulièrement appétents à saisir un nouveau paradigme. La contre-culture des années 60 rejetait les normes conventionnelles et les autorités traditionnelles, mais il n’y avait pas – encore – de modèle alternatif à disposition. Lorsque internet arrive dans les années 90, la société est prête à à la nouveauté. le dataïsme arrive. La société de l'information est progressivement passé d'un univers orienté sur le traitement à un monde centré sur la donnée. En 1944, le bibliothécaire de la Wesleyan University, Fremont Rider, commence à percevoir un nouveau problème : la production massive de données (information explosion). Bien que portant sur une information non numérisée, les questions qu’il soulève portent déjà sur le sourcing, l’acquisition et la gestion des livres, mais aussi les coopérations entre les bibliothèques. Estimant que les volumes doubleraient tous les seize ans, il constate que la bibliothèque de Yale comporterait 200 millions d’ouvrages un siècle plus tard, ce qui nécessiterait plus de six mille employés pour les référencer correctement. Il recommande alors de remplacer les volumineuses œuvres imprimées en décomposition par des photographies – analogiques – miniaturisées. On n’est pas encore sur le numérique, mais la dématérialisation est en marche et la possibilité de duplication à la demande également. Ses travaux font déjà écho à un sujet qui taraudera l’univers informatique, mais dont les prémisses ne commencent que trois ans plus tard avec l’invention du transistor et se développeront surtout avec la création des premiers circuits intégrés en 1958. L’amélioration de la puissance de calcul va permettre des traitements plus rapides et plus élaborés. Les secteurs administratifs sont les premiers à s’informatiser, car l’informatique est une technologie de calcul et de processus.
Trente ans plus tard, l’émergence d’internet ouvre un monde interconnecté où toutes les informations sont liées entre elles. Pour s’y repérer, il faut traiter des milliards d’informations, de plus en plus de textes et d’images. Pour classer les pages d’internet, on utilise des métadonnées intégrées dans chaque page pour classer le web par des mots-clés. L’internaute qui choisit un mot est mis en relation avec une page qui a référencé ledit mot. En effet, pour être traitée par un algorithme informatique, une donnée devait alors être mise dans un format normalisé, c’est-à-dire définie selon une structure prédéfinie et précise pour être bien indexée, rangée dans une bibliothèque de stockage. Une variable peut être un nom, un numéro, une date, une devise ou un prix, par exemple. Cette approche statistique du monde est bien adaptée pour compter, trier et faire des analyses conditionnelles d’une réalité réduite à un prisme très spécifique. En revanche, la donnée a perdu de son sens intrinsèque en dehors de sa tabulation de référence. Ainsi la donnée structurée d’une photographie d’un chat correspond-elle au classement de chaque pixel en fonction de sa couleur dans une table de données, mais le chat a disparu au profit de chiffres. Cette approche altère grandement la réalité en la simplifiant et en la réduisant arbitrairement. Cela explique le sentiment de rejet qui a frappé la majorité des citoyens lorsque la statistique a voulu appréhender le monde. Ce qui fait dire à Olivier Rey à propos de l’antipathie pour la statistique : « D’un côté, on lui demande de rendre compte des faits de façon objective et impartiale, de l’autre, on lui fait grief de son insensibilité, de s’en tenir à ce qui se mesure et, ce faisant, de laisser échapper l’essentiel ». Ce manque de chaleur de l’informatique, qui devient micro-informatique dans les années 80, se traduit par l’apparition de l’adolescent geek ou du computer nerd des années 80. Comme l’a montré l’enseignante-chercheuse Isabelle Collet, spécialiste en sciences de l’éducation, les représentations dans les films et les livres défendent cet adolescent peu rebuté par une activité déshumanisée et qui trouve chez ses congénères une nouvelle sociabilité, d’ailleurs excluante pour les filles. Elle relève qu’alors qu’entre 1972 et 1985, le pourcentage des femmes en informatique est supérieur au pourcentage moyen des femmes ingénieures, toutes écoles confondues, au milieu des années 80, les filles vont s’exclure des études informatiques pour ne représenter plus que 10 % des étudiants, et de façon stable pendant trente ans. L’informatique est alors perçue comme un refuge d’une réalité virtuelle alimentée d’ailleurs par l’univers des jeux vidéo. Dans les entreprises, y compris de services, c’est une direction technique fonctionnelle un peu à part (ce qui s’oppose à ce qu’on observe dans les entreprises du tertiaire d’aujourd’hui qui ont tendance à la rapprocher de l’équipe produit au cœur de l’organisation). Le monde de la data relève d’un univers un peu obscur. En 1998, Larry Page et Sergei Brin vont changer l’univers du web en utilisant la théorie des graphes pour mettre en place l’algorithme PageRank de leur tout nouveau moteur de recherche Google. Cela constitue la première étape déployée à grande échelle de ce qui engendrera dix ans plus tard Hadoop, un environnement complet apte à traiter un très grand nombre de données, du traitement jusqu’à leur stockage. Le défi du bibliothécaire Fremont Rider a été relevé : il n’est plus alors nécessaire de structurer les informations d’une page Web pour indexer une page de texte. En 2012, Google est capable de reconnaitre un chat dans une page YouTube. Face à la complexité d’une image, il a fallu aller plus loin, car il est impossible de définir les règles permettant de reconnaitre précisément un chat, d’autant que les cas particuliers sont très nombreux (dans toutes les positions, s’il lui manque une patte, par opposition avec un léopard, etc.). On commence alors à utiliser des algorithmes implicites, c’est-à-dire des algorithmes qui vont apprendre à définir eux-mêmes des règles par apprentissage : en fournissant un très grand nombre de données que l’on va qualifier (pour ce qu’on appelle le machine learning supervisé), l’algorithme apprend via un réseau neuronal, en définissant plusieurs niveaux d’abstraction. Il va alors définir des règles implicites qu’il n’est pas possible d’expliciter clairement. Tout au plus, peut-on expliquer le résultat obtenu. La donnée structurée d’une photographie correspond à la couleur de chaque pixel alors qu’en approche non structurée, elle conserve son intégrité, ce qui permet d’analyser ce qu’elle représente. Grâce à des algorithmes implicites, nous pouvons traiter des textes, mails, images, vidéos et sons. Mais aussi tout ce qui pourra être capté des données de comportement et autres données générées par l’internet des objets. Inutile de simplifier la donnée, car elle est stockée comme elle est. La mise en commun des données non structurées démultiplie les possibilités d’analyse, mais elle permet surtout de conserver une certaine intégrité du monde. La photographie du Chat reste une image de chat dont il est possible d’analyser la race, ce qu’il fait et à quoi il ressemble. La data commence à pouvoir retranscrire le monde. Le citoyen reconnait alors dans l’information le monde qu’il connait. Cette approche ouvre aujourd’hui la voie à la création d’autres images de chats qui n’existent pas via l’IA générative dont on a pu mesurer l’acceptabilité par la vitesse d’appropriation. Ainsi y a-t-il eu une évolution d’une informatique du traitement vers celle de la donnée, d’abord structurée, puis de plus en plus capable de conserver la complétude du monde qu’elle digitalise. Le monde du digital s’avère de moins en moins un monde abstrait, réservé aux hyper-spécialistes. Il commence au contraire à s’organiser avec un écosystème de compétences variées qui comprend certes des développeurs et des architectes informatiques, mais aussi des data scientists, des designers, des experts du référencement, des chefs de projet éditorial. Et cet univers professionnel plus diversifié se réouvre alors davantage aux femmes : en 2021, on décompte 23 % d’étudiantes parmi les établissements Bac+5 membres de Talents du Numérique, soit un doublement en vingt ans. Depuis, le big data est devenu intelligence artificielle, de l’impersonnel à un terme anthropomorphiste. Les mots traduisent les faits. L’informatique, tel un animal sauvage, a été domestiquée par le citoyen. |
AuthorDocteur en sciences de l'information et de la comunication, Laurent Darmon est le Directeur de l'Innovation de l'une des dix premières banques du monde Archives
Juillet 2025
Categories
Tous
|


Flux RSS