|
Le dataïsme appréhende le monde comme un vaste flux d'informations traitées par des algorithmes, redéfinit notre économie, notre politique et nos relations sociales. Une des conséquences les plus frappantes de cette ère nouvelle est la manière dont elle semble favoriser le développement du populisme. Mais pourquoi cette convergence ? 1) La désintermédiation : une aubaine pour le discours populiste L'un des piliers du dataïsme est la désintermédiation. Les canaux traditionnels d'information et d'influence, tels que les médias établis et les partis politiques classiques, voient leur rôle d'intermédiaire s'affaiblir. Cette évolution ouvre un espace que le populisme investit avec succès, en cherchant un échange direct avec le peuple, contournant ainsi les filtres habituels. Le populisme "se fond dans le dataïsme qui, justement, rejette l’intermédiation de l’individu et prône l’échange direct du peuple avec le peuple". Cette rupture permet aux figures populistes de s'adresser directement à une large audience, sans filtre. Gianroberto Casaleggio et Beppe Grillo, avec le Mouvement 5 Étoiles en Italie, ont utilisé un blog pour identifier les attentes des électeurs et leur "tenir le discours qu’ils souhaitent", adaptant leur message en continu grâce à l'analyse des données issues des échanges avec les électeurs sur ce même blog. Nous sommes entrés dans une "société des émotions". Sur les réseaux sociaux, vecteurs privilégiés du dataïsme, l’émotion est souvent plus forte que la raison. Et comme l’émotion négative se révèle plus performante que l’émotion positive, Les partis extrémistes et les discours populistes, qui s’exprimant mieux sur les émotions négatives, permettent de polariser le débat public et de rebondir sur les colères. Chaque nouveau récit s’adresse à notre rationalité, mais en passant par nos émotions, carburant du populisme 2) L'effritement de la confiance : le populisme en embuscade Les algorithmes qui régissent notre expérience en ligne nous enferment souvent dans ce que l'on nomme des "bulles de filtres", limitant notre exposition à des perspectives diversifiées. Ces bulles peuvent se transformer en "chambres d'écho médiatique", où les narratifs populistes sont amplifiés et répétés, "gagnant en crédibilité" sans confrontation critique. Dans cet univers, la notion même de vérité objective devient malléable, et "trop d’information tue l’information", favorisant la propagation d'infox. Le dataïsme s'accompagne d'une remise en cause des représentants de l’autorité publique et d'une défiance envers les "experts de la vérité". L'affaiblissement de la parole des experts est notable. Le populisme se nourrit activement de cette défiance, se positionnant comme une alternative "anti-système", un discours qui résonne particulièrement dans une société où les corps intermédiaires sont contestés. 3) Le populisme : maître des outils dataïstes et des dynamiques identitaires Les acteurs populistes ont rapidement compris comment utiliser les outils du dataïsme à leur avantage. Ils ont, en quelque sorte, "épousé l'algorithme" pour construire des machines politiques efficaces. L'analyse de données permet un ciblage précis des messages, et la viralité inhérente aux réseaux sociaux assure une diffusion rapide des idées, même les plus clivantes. La montée du populisme dans les démocraties occidentales se renforce d’une parole libérée sur des médias où les prises de position les plus engagées sont les plus visibles par le jeu des partages et des likes. De plus, le dataïsme, en favorisant le rejet de l'intermédiation et en permettant à l'individu de se connecter à des communautés choisies, peut exacerber les revendications identitaires. Les réseaux sociaux permettent à des communautés de se former et de se renforcer autour de marqueurs identitaires spécifiques. Le populisme puise souvent sa force dans ces dynamiques, en s'adressant à des groupes qui se sentent incompris ou menacés, et en opposant une "multitude" partageant "les mêmes données pour construire la même fiction" aux élites ou à d'autres groupes. En conclusion, ce n'est pas tant que le dataïsme engendre le populisme, mais il lui fournit un écosystème et des instruments qui en amplifient la portée et l'efficacité. La convergence entre la "société de l’information" et les stratégies populistes pose des défis majeurs à nos démocraties. Il est donc nécessaire de remettre en place des contre-pouvoirs afin défendre le débat démocratique et soutenir la vérité.
0 Commentaires
Le mouvement Cyberpunk né dans l'univers geek des années 80 mettait en scène un futur proche où la technologie s'imposait dans notre quotidien avec des héros intégrant nativement l'ère de la post-vérité. Le rapprochement d'Edouard Fillias avec la société d'aujourd'hui est éclairant.
Je partage ici la réflexion d’Edouard Fillias, CEO de JIN, qui revient sur l’Univers cyberpunk projeté par certains artistes des années 80, et notamment William Gibson en … 1984 (!). Il observe que la dystopie a rejoint notre réalité. Neuromancien (qui aura le droit à deux suites) est considéré comme une œuvre de référence de ce mouvement et ses influences dans Matrix, Ghost in the shell et Player One sont évidentes. Mais ce serait oublier Blade runner sorti sur les écrans deux ans plus tôt et tiré de l'œuvre écrite en 1966 par Phlip K. Dick dont on peut apprécier le joli titre : " les androïdes rêvent-ils de moutins électriques ?". A travers la description d'un monde où l'humain s'hybride de plus en plus avec la machine et le virtuel, il s'agit à chaque fois d'interroger ce qui fonde notre humanité. A l'heure où l'intelligence s'autonomise et devient abondante, la question n'a jamais été autant d'actualité.
Contrairement à ce que prévoyait George Orwell en 1948, ce n’est pas un état autoritaire qui nous y a conduit, mais nos choix conscients dans un monde dataïste.
J'ai découvert récemment le coup de gueule de Pierre Fayolle sur LinkedIn et je ne peux m'empêcher d'y associer ma sympathie (A lire ci-contre).
Pierre s'énervait, à juste titre, de cette pratique répandue dans les visioconférences de voir une partie importante des participants couper leurs caméras. Au-delà de la perte potentielle en qualité d'échange et d'un engagement qui peut sembler moindre (ce qui n'est pas une généralité), c'est surtout notre capacité à interagir pleinement, humainement, qui s'en trouve affectée. Il devient difficile de transmettre toute la richesse des interactions humaines : capter un sourire, voir une réaction, faire passer une émotion. Ce phénomène, anodin en apparence, pourrait bien être un symptôme discret d'une transformation plus profonde de notre société, un glissement vers ce "dataïsme" ambiant, où l'interaction humaine directe cède le pas à des échanges désincarnés. Un risque majeur quand les chatbots se posent en concurrents à l'intelligence humaine.
Les confinements n'ont peut-être fait qu'accélérer une tendance de fond, un glissement vers l'individuel que le dataïsme, avec son cortège d'outils numériques, avait déjà amorcé. La formule du "monde d’après", si séduisante, laissait espérer une prise de conscience, de nouveaux réflexes. Pourtant, ce monde d'après ressemble souvent étrangement à celui d'avant, avec toutefois une accélération de certaines dynamiques. La distanciation sociale imposée par la lutte contre la Covid-19 aura été un marqueur fort, accentuant une individualisation déjà à l'œuvre :
Ces chocs réorientent le cours de nos sociétés. Albert Hirschman avait théorisé comment les individus et les sociétés oscillent par phases entre la quête du "bonheur privé" et l'engagement dans l'"action publique". Ce repli derrière l'écran noir, ce choix d'un confort individuel – ne pas avoir à se soucier de son image, de son arrière-plan – n'est-il pas une micro-manifestation de cette phase où l'on privilégie son "bonheur privé", au détriment de la richesse de l'"action publique" que constitue une réunion pleinement participative ? Et cette habitude se normalise d'autant plus vite que, comme l'a montré Robert Cialdini (dans Influence: The Psychology of Persuasion, 1984), nous sommes enclins à imiter le comportement des autres, surtout dans l'incertitude des nouvelles normes professionnelles qui émergent à l'ère du dataïsme. Le défi est de taille : il nous oblige, entreprises comme individus, à savoir nous adapter pour passer de la distanciation sociale subie à une véritable socialisation à distance, choisie et enrichie. Car derrière nos écrans noirs, c'est bien notre humanité que nous voilons, à une époque où elle est de plus en plus questionnée, voire "challengée", par l'intelligence artificielle. En estompant nos expressions, en filtrant nos présences, en rendant nos échanges plus proches d'une transaction de données que d'une rencontre, ne nous rendons-nous pas plus aisément compréhensibles comme de simples ensembles de données, plus facilement simulables ou, à terme, remplaçables par des IA qui excellent dans le traitement de l'information désincarnée ? Alors, pour préserver cette richesse irréductible de l'interaction humaine : rallumons la lumière ! La semaine dernière, j’ai eu le plaisir d’intervenir à la Maddy Keynote | MKIA organisée par Maddyness, un événement incontournable dédié à l’IA et à ses applications concrètes dans nos organisations. Sur la belle scène de la Salle Gaveau, j’ai partagé la réalité de l'évolution vers le dataïsme. Un sujet aussi fascinant que structurant, qui soulève de vraies questions pour les entreprises et pour nos comportements. Voici l'intégralité de la Keynote. L’historien Yuval Noah Harari identifie quatre leviers : accroître le nombre de « processeurs » (humains), leur variété, le nombre de connexions entre les processeurs et la liberté de circulation via les connexions existantes. Au début de l’humanité, les facultés cognitives de l’être humain lui ont permis de traiter les informations mieux que les autres animaux pour maitriser son environnement naturel. Cette faculté de communiquer a permis aux humains d’utiliser la force de la multitude, puis d’exploiter progressivement cette force sur le monde entier en s’adaptant à des contraintes environnementales différentes.
La séparation géographique s’est traduite par l’apparition de cultures hétérogènes correspondant à une augmentation de la variété des « processeurs », mais non connectés entre eux. C’est la période des chasseurs-cueilleurs. Les travaux de l’anthropologue Robin Dunbar ont montré que la taille d’une tribu tournait autour de groupes sociaux de 150 individus, ce qui constituerait la taille limite pour une gestion naturelle d’un groupe social cherchant à optimiser ses interactions. On retrouve cette limite dans le nombre de personnes avec lesquels chacun entretient des relations personnelles. La phase suivante correspond à la révolution agricole qui va permettre à de grands groupes d’humains de vivre en proximité. L’agriculture impacte positivement la démographie. Il en résulte un réseau plus dense de processeurs qui peuvent communiquer ensemble, voire coopérer. Le néolithique est marqué par de profondes mutations techniques et sociales, mais le mode de vie tribal autonome reste la norme. Ce n’est qu’avec l’invention de l’écriture et de la monnaie il y a cinq mille ans que peuvent se mettre en place des règles de vie communes au sein de villes et même d’empires. La confiance se renforce et la coopération est désormais facilitée, permettant de partager ses informations et interactions entre chacun des membres de communautés de plus en plus larges. Le nombre de connexions entre les processeurs augmente d’autant plus que des échanges s’organisent entre les cités. Des liens se structurent culturellement autour de religions communes qui permettent de commencer à unifier les réseaux d’information entre eux. Lors de la quatrième, et dernière, phase qui commence avec la révolution scientifique, la circulation d’hommes et de femmes de toutes cultures s’organise sur tout le globe. L’information circule partout et de plus en plus vite, les freins culturels et les frontières politiques s’estompant. L’État de droit, puis la mondialisation, contribuent à l’efficacité de la circulation de l’information jusqu’à constituer un réseau unique. La perspective de Yuval Noah Harari positionne la circulation de l’information comme le moteur de l’histoire de l’humanité dont le dessein est de faire émerger un réseau global regroupant tout l’univers (ce qui se traduirait pour lui par l'internet-de-tous-les-objets). En même temps qu’on instaure un droit à la déconnexion, on débat d’un droit à la connexion pour tous[1]. L’ONU allait dans ce sens dès 2012 en inscrivant le droit à l’accès à internet. Fin 2023, la Commission des Nations Unies sur le haut débit annonçait même vouloir mettre un terme à l’exclusion numérique d’ici 2030. Tous connectés ! Une question est de savoir si nous ne sommes pas au début d’une cinquième phase où nous contribuons justement à la création d’un réseau d’informations qui pourrait finalement se passer de l’homme. Cela passe par une étape intermédiaire où l’humain se conçoit non seulement comme un processeur, mais aussi comme un système de traitement de ses propres données. [1] Depuis 2016, un opérateur français ne peut déjà plus suspendre unilatéralement une ligne internet pour impayé. Lorsque l’on repense à Matrix, l’œuvre dystopique cyberpunk des Wachowski, on constate qu’il dépasse largement le cadre de la science-fiction pour se muer en une véritable réflexion sur notre époque. Certains y ont vu une allusion aux complotismes quand d’autres font le rapprochement avec l’Allégorie de la caverne de Platon. La vérité est ailleurs. Le film nous plonge dans un univers où la réalité est construite par d’incroyables flux de données. Il n’est pas avare d’effets cinématographiques plus ou moins novateurs mais très impactants (générique avec sa pluie de chiffres, dédoublement de l’agent Smith, silver bullet…).
Dans cet univers, la perspective dataïste – la croyance que les datas constituent désormais l’essence même de la réalité – se trouve incarnée par des machines impitoyables. Ces dernières représentent la force invisible de la modernité, rappelant que chaque interaction sur les réseaux sociaux et recours à un objet connecté contribuent à alimenter un système qui, tout en nous semblant nous offrir de la liberté, contrôle en fait subtilement nos comportements. Ce paradoxe, où le digital apparaît à la fois comme outil d’émancipation et asservissement, trouve un écho surprenant dans des débats actuels sur la manipulation de nos choix et la marchandisation de notre intimité. Le film date pourtant de plus d’un quart de siècle. L’angoisse de perdre notre autonomie n’a fait que s’intensifier : nous sommes, aujourd’hui, confrontés à l’omniprésence des algorithmes qui orientent nos vies et altèrent notre libre-arbitre.. À l'image du choix symbolisé par la pilule rouge ou bleue, il nous appartient de nous déconnecter mais le faire est « douloureux » tant le virtuel nous rassure. Le smartphone, prolongement de nous-mêmes, matérialise ce nouvel attachement aux algorithmes et notre addiction au virtuel. Dans ce contexte, nous oscillons constamment entre la promesse d’une connexion universelle et la menace d’une aliénation continue, perdant peu à peu le contrôle sur la narration de notre propre existence. Matrix raconte avant tout cette prise de conscience de soi-même (même si les Wachowski admettent désormais avoir couplé ce sous-texte à une perspective personnelle liée à leur coming-out, sujet connecté directement à cette idée de révélation de soi dans un monde factice). Au-delà de son impact visuel, le film reste une véritable invitation à questionner notre époque et le concept de vérité. Mardi 29 avril, J’ai eu le plaisir d’intervenir à la Maddy Keynote | MKIA organisée par Maddyness, un événement incontournable dédié à l’IA et à ses applications concrètes dans nos organisations. Sur la belle scène de la Salle Gaveau, j’ai partagé la réalité de notre évolution vers le dataïsme. Un sujet aussi fascinant que structurant, qui soulève de vraies questions pour les entreprises et pour nos comportements. Lors de cette keynote, ce fut l'occasion d'annoncer la sortie prochaine de mon livre dédié à ce mouvement post-humaniste qui change profondément notre société. En précommande ici. Sur Scène, Clara Chappaz, ministre déléguée de l'Intelligence artificielle et du numérique, est venue ensuite partagée quelques messages clé
Les religions et la société humaniste ont permis de satisfaire notre besoin vital de comprendre le monde, de donner du sens à nos vies. Après les désillusions du XXe siècle, la télévision puis le numérique vont changer les choses, car, avec eux, l’information submerge le monde. Après le temps du Pourquoi et du Comment, une nouvelle ère commence. La tradition religieuse créait une communauté de fait qui se retrouvait dans des coutumes : dans chaque église, synagogue et mosquée, des rituels identiques permettaient à chacun d’être adopté par le groupe de fidèles. Il y avait une perspective avec le Paradis proposé par la foi religieuse. L’humaniste a proposé à la place le progrès qui permet de se projeter dans un futur meilleur, pour soi et pour ses enfants. Or le XXe siècle a vu se dérouler des évènements qui vont changer la perception du pacte social. La Grande guerre avait causé 17 millions de morts, ce qui était déjà un traumatisme, mais le Seconde Guerre mondial laisse derrière elle entre 50 et 85 millions de victimes ainsi qu’un génocide industrialisé. Plus globalement, après Hiroshima, le monde entier est marqué par la puissance atomique et craint ce que les États-nation pourraient en faire.
La jeunesse des années 60, née sur ces charniers, se construit en opposition à la génération précédente à laquelle elle ne veut pas ressembler. On parle de contre-culture et celle-ci s’exprime dans l’idéologie comme dans les pratiques culturelles (musique, habillement…). Plus particulièrement, le mouvement hippie naît dans les années 60, mais il trouve son épicentre en 1967 à San Francisco : rien de surprenant sur le lieu et la date. Trois ans après l’engagement des forces américaines dans la guerre terrestre, ce sont désormais 510.000 soldats – trois fois plus que deux ans auparavant – qui sont stationnés au Vietnam, de l’autre côté du Pacifique, face à The City by the Bay. Les Américains appelleront le conflit la sale guerre, mais cette fois, elle passe à la télévision. Les caméras sont sur place presque constamment dans les zones de combat et les journalistes rapportent quotidiennement la situation le terrain. Plus rien ne sera comme avant pour l’opinion publique, pour qui les conflits militaires n’ont désormais plus rien d’abstrait. L’information change la donne. Et il devient compliqué de faire confiance à des dirigeants, prêts pour des raisons géopolitiques peu partagées par le peuple, à engager la vie de des enfants de la Nation. La défiance envers les politiques s’exprime de plus en plus clairement. La conception religieuse garantissait la vie éternelle pour les plus pieux. Rien de comparable pour l’être de raison qui veut miser sur le progrès pour offrir à ses enfants une vie meilleure que la sienne, comparable à ce qui est mis en avant dans les publicités et au cinéma. Le déclassement social devient une nouvelle peur. Si la société devient utilitaire, le citoyen mesure ce qu’il a à gagner dans le contrat que celle-ci lui propose et il peut alors le remettre en cause s’il trouve ce contrat moins avantageux. On observe alors un délitement du lien social. Le réveil est douloureux après l’euphorie des Trente Glorieuses et de l’essor de la société de consommation. Le choc pétrolier se traduit par une révision drastique de la croissance dans les pays de l’OCDE. Il provoque aussi l’apparition du chômage de masse, un concept philosophiquement destructeur dans un monde qui a érigé le travail en valeur centrale et comme un sésame pour bénéficier individuellement du progrès. Dans les pays les plus développés, non seulement la croissance baisse, mais elle bénéficie davantage à une partie de la population, qui est mieux adaptée à un monde évoluant rapidement. Le progrès est jugé bien décevant pour la majorité. Il conduit à intégrer que dans un jeu à somme nulle, ce n’est pas forcément du collectif qui faut attendre un bien-être supérieur, mais sans doute en tirant individuellement mieux partie des nouvelles règles du jeu économique, social et technologique. Pour certains, c’est même le spectre du déclassement social. La pollution et le nucléaire sont également perçus comme l’héritage d’une génération qui a fait confiance aux élites et qui propose un modèle unique. Malgré un bilan globalement positif de 200 ans de progrès technologique, il y a donc une tendance à la perte de confiance dans le collectif. La notion même de nation est réinterrogée, car elle a conduit aux conflits sans amener au bonheur. À quoi bon donc, se satisfaire de ce pacte social décrit par Rousseau et accepter une aliénation à un tel collectif. Beaucoup de conflits actuels doivent encore à cette conception d’État-nation où la géopolitique prime sur la conception du bonheur que beaucoup de citoyens se font. Comme l’avait formalisé Jean-François Lyotard dans La Condition postmoderne en 1979, c’est tout le méta-récit construit depuis les Lumières qui est remis en cause comme cadre constituant d’une unité : outre la nation, la science, la politique et les arts ne sont plus des référents de la dynamique collective. Il y a donc un doute sérieux à continuer comme avant en faisant confiance aux mêmes élites et aux mêmes méthodes. Et comme l’idéologie alternative, le communisme, s’effondre sans que le modèle libéral puisse satisfaire la grande majorité, il y a une volonté d’envisager les choses autrement pour construire un avenir meilleur. Les gouvernements sortants ne cessent d’être battus (une seule exception en France depuis 45 ans en onze élections législatives). C’est ce qui faisait dire abusivement à l’écrivain et ancien président tchèque : « L’élément tragique de l’homme moderne, ce n’est pas qu’il ignore le sens de sa vie, mais que ça le dérange de moins en moins ». En fait, il cherche une transcendance différente de celle que la société lui proposait précédemment. L’individu commence à définir un nouveau système de valeur avec lequel il apprend à négocier. Certains le trouvent, mais beaucoup cherchent. En 1995, la Commission d’enquête sur les sectes relevait une augmentation du nombre d’adeptes de 60 % depuis 1982. Il y avait alors 170 organisations identifiées. Désormais, on en compterait désormais environ 500 selon la Mission interministérielle de vigilance et de lutte contre les dérives sectaires mise en place depuis 2021. Elle relève que la France fait face à une croissance inédite des agissements à caractère sectaire avec un doublement des saisines par la justice en six ans. Comme l’a montré le sociologue Albert Hirschman dans son livre Bonheur privé, action publique, l’individu traverse son existence en allant d’espoirs en déceptions, ce qui l’amène à redéfinir régulièrement ses priorités et à osciller entre l’optimisation de ses intérêts et de ceux de la société. Face aux défaillances d’une institution privée – une entreprise – comme publique, Albert Hirschman, dans un autre ouvrage, Défection et prise de parole, expliquait que les clients et usagers ont trois types de comportement : la loyauté (continuer comme avant), l’interpellation (la prise de parole, par exemple via une manifestation ou une réclamation) et la sortie (le désengagement en partant pour la concurrence, notamment). L’après-1968 s’est traduit pendant la décennie suivante par une société qui a cherché à se libérer de son conservatisme avec une dynamique générale portée vers les aspirations collectives. En France, comme dans de nombreux pays occidentaux, c’est une période de libération des mœurs, la seconde vague du féminisme, l’émergence de SOS racisme et les premières revendications LGBT. Suivront les années 80, qui par un effet de boomerang proposent un retour à un certain conservatisme et une valorisation de la réussite individuelle. Après la loyauté comme modèle dominant, la période de l’interpellation s’est organisée depuis la fin des années 60. Mais de plus en plus de citoyens sont tentés de choisir la sortie vers un autre système. Après plusieurs siècles de croissance peinant à apporter le bonheur, cette insatisfaction des humanistes les rend particulièrement appétents à saisir un nouveau paradigme. La contre-culture des années 60 rejetait les normes conventionnelles et les autorités traditionnelles, mais il n’y avait pas – encore – de modèle alternatif à disposition. Lorsque internet arrive dans les années 90, la société est prête à à la nouveauté. le dataïsme arrive. La société de l'information est progressivement passé d'un univers orienté sur le traitement à un monde centré sur la donnée. En 1944, le bibliothécaire de la Wesleyan University, Fremont Rider, commence à percevoir un nouveau problème : la production massive de données (information explosion). Bien que portant sur une information non numérisée, les questions qu’il soulève portent déjà sur le sourcing, l’acquisition et la gestion des livres, mais aussi les coopérations entre les bibliothèques. Estimant que les volumes doubleraient tous les seize ans, il constate que la bibliothèque de Yale comporterait 200 millions d’ouvrages un siècle plus tard, ce qui nécessiterait plus de six mille employés pour les référencer correctement. Il recommande alors de remplacer les volumineuses œuvres imprimées en décomposition par des photographies – analogiques – miniaturisées. On n’est pas encore sur le numérique, mais la dématérialisation est en marche et la possibilité de duplication à la demande également. Ses travaux font déjà écho à un sujet qui taraudera l’univers informatique, mais dont les prémisses ne commencent que trois ans plus tard avec l’invention du transistor et se développeront surtout avec la création des premiers circuits intégrés en 1958. L’amélioration de la puissance de calcul va permettre des traitements plus rapides et plus élaborés. Les secteurs administratifs sont les premiers à s’informatiser, car l’informatique est une technologie de calcul et de processus.
Trente ans plus tard, l’émergence d’internet ouvre un monde interconnecté où toutes les informations sont liées entre elles. Pour s’y repérer, il faut traiter des milliards d’informations, de plus en plus de textes et d’images. Pour classer les pages d’internet, on utilise des métadonnées intégrées dans chaque page pour classer le web par des mots-clés. L’internaute qui choisit un mot est mis en relation avec une page qui a référencé ledit mot. En effet, pour être traitée par un algorithme informatique, une donnée devait alors être mise dans un format normalisé, c’est-à-dire définie selon une structure prédéfinie et précise pour être bien indexée, rangée dans une bibliothèque de stockage. Une variable peut être un nom, un numéro, une date, une devise ou un prix, par exemple. Cette approche statistique du monde est bien adaptée pour compter, trier et faire des analyses conditionnelles d’une réalité réduite à un prisme très spécifique. En revanche, la donnée a perdu de son sens intrinsèque en dehors de sa tabulation de référence. Ainsi la donnée structurée d’une photographie d’un chat correspond-elle au classement de chaque pixel en fonction de sa couleur dans une table de données, mais le chat a disparu au profit de chiffres. Cette approche altère grandement la réalité en la simplifiant et en la réduisant arbitrairement. Cela explique le sentiment de rejet qui a frappé la majorité des citoyens lorsque la statistique a voulu appréhender le monde. Ce qui fait dire à Olivier Rey à propos de l’antipathie pour la statistique : « D’un côté, on lui demande de rendre compte des faits de façon objective et impartiale, de l’autre, on lui fait grief de son insensibilité, de s’en tenir à ce qui se mesure et, ce faisant, de laisser échapper l’essentiel ». Ce manque de chaleur de l’informatique, qui devient micro-informatique dans les années 80, se traduit par l’apparition de l’adolescent geek ou du computer nerd des années 80. Comme l’a montré l’enseignante-chercheuse Isabelle Collet, spécialiste en sciences de l’éducation, les représentations dans les films et les livres défendent cet adolescent peu rebuté par une activité déshumanisée et qui trouve chez ses congénères une nouvelle sociabilité, d’ailleurs excluante pour les filles. Elle relève qu’alors qu’entre 1972 et 1985, le pourcentage des femmes en informatique est supérieur au pourcentage moyen des femmes ingénieures, toutes écoles confondues, au milieu des années 80, les filles vont s’exclure des études informatiques pour ne représenter plus que 10 % des étudiants, et de façon stable pendant trente ans. L’informatique est alors perçue comme un refuge d’une réalité virtuelle alimentée d’ailleurs par l’univers des jeux vidéo. Dans les entreprises, y compris de services, c’est une direction technique fonctionnelle un peu à part (ce qui s’oppose à ce qu’on observe dans les entreprises du tertiaire d’aujourd’hui qui ont tendance à la rapprocher de l’équipe produit au cœur de l’organisation). Le monde de la data relève d’un univers un peu obscur. En 1998, Larry Page et Sergei Brin vont changer l’univers du web en utilisant la théorie des graphes pour mettre en place l’algorithme PageRank de leur tout nouveau moteur de recherche Google. Cela constitue la première étape déployée à grande échelle de ce qui engendrera dix ans plus tard Hadoop, un environnement complet apte à traiter un très grand nombre de données, du traitement jusqu’à leur stockage. Le défi du bibliothécaire Fremont Rider a été relevé : il n’est plus alors nécessaire de structurer les informations d’une page Web pour indexer une page de texte. En 2012, Google est capable de reconnaitre un chat dans une page YouTube. Face à la complexité d’une image, il a fallu aller plus loin, car il est impossible de définir les règles permettant de reconnaitre précisément un chat, d’autant que les cas particuliers sont très nombreux (dans toutes les positions, s’il lui manque une patte, par opposition avec un léopard, etc.). On commence alors à utiliser des algorithmes implicites, c’est-à-dire des algorithmes qui vont apprendre à définir eux-mêmes des règles par apprentissage : en fournissant un très grand nombre de données que l’on va qualifier (pour ce qu’on appelle le machine learning supervisé), l’algorithme apprend via un réseau neuronal, en définissant plusieurs niveaux d’abstraction. Il va alors définir des règles implicites qu’il n’est pas possible d’expliciter clairement. Tout au plus, peut-on expliquer le résultat obtenu. La donnée structurée d’une photographie correspond à la couleur de chaque pixel alors qu’en approche non structurée, elle conserve son intégrité, ce qui permet d’analyser ce qu’elle représente. Grâce à des algorithmes implicites, nous pouvons traiter des textes, mails, images, vidéos et sons. Mais aussi tout ce qui pourra être capté des données de comportement et autres données générées par l’internet des objets. Inutile de simplifier la donnée, car elle est stockée comme elle est. La mise en commun des données non structurées démultiplie les possibilités d’analyse, mais elle permet surtout de conserver une certaine intégrité du monde. La photographie du Chat reste une image de chat dont il est possible d’analyser la race, ce qu’il fait et à quoi il ressemble. La data commence à pouvoir retranscrire le monde. Le citoyen reconnait alors dans l’information le monde qu’il connait. Cette approche ouvre aujourd’hui la voie à la création d’autres images de chats qui n’existent pas via l’IA générative dont on a pu mesurer l’acceptabilité par la vitesse d’appropriation. Ainsi y a-t-il eu une évolution d’une informatique du traitement vers celle de la donnée, d’abord structurée, puis de plus en plus capable de conserver la complétude du monde qu’elle digitalise. Le monde du digital s’avère de moins en moins un monde abstrait, réservé aux hyper-spécialistes. Il commence au contraire à s’organiser avec un écosystème de compétences variées qui comprend certes des développeurs et des architectes informatiques, mais aussi des data scientists, des designers, des experts du référencement, des chefs de projet éditorial. Et cet univers professionnel plus diversifié se réouvre alors davantage aux femmes : en 2021, on décompte 23 % d’étudiantes parmi les établissements Bac+5 membres de Talents du Numérique, soit un doublement en vingt ans. Depuis, le big data est devenu intelligence artificielle, de l’impersonnel à un terme anthropomorphiste. Les mots traduisent les faits. L’informatique, tel un animal sauvage, a été domestiquée par le citoyen. La guerre d'influence s'étend naturellement au domaine culturel. Jusqu'à maintenant la Chine restait à l'écart et se concentré sur le versant économique de la guerre d'influence en cours. les choses pourrait changer. La Chine s’affirme comme une puissance majeure dans un nombre croissant de domaines. Il est loin le temps où l’on pensait que l’Empire du Milieu se cantonnerait aux produits à faible valeur ajoutée. La Chine s’impose désormais dans les technologies d’avenir, grâce à un volontarisme politique et un investissement fort dans l’éducation. Cela se traduit par une place prépondérante sur le marché croissant des voitures électriques mais aussi plus récemment dans l’intelligence artificielle générative. Au-delà de DeepSeek et de Qwen (Alibaba), la Chine occupe la première place du classement mondial en termes d’impact des publications scientifiques concernant les algorithmes d’IA. Et face à l’embargo américain, le pays a annoncé récemment une avancée majeure dans le développement des puces de haute technologie avec une innovation prometteuse : le plasma de décharge par arc.
La Chine devient une puissance technologique majeure. Parallèlement, elle se dote d’un marché intérieur qui compte de plus en plus dans l’essor de son économie. Dernier symbole de cette évolution : le succès de Ne Zha 2. Qu’est ce que Ne Zha 2 ? C’est tout simplement la suite de NeZha, un film d’animation sorti dans les salles en 2019, adaptation d’un conte historique et fantastique du 16ème siècle (L'Investiture des dieux). Record. C’est le premier film qui dépasse le seuil du milliard de dollars de recettes en Chine. Plus fort, c’est la première fois qu’un film non hollywoodien dépasse ce seuil dans un seul pays, États-Unis compris (le record appartenait à Star Wars VII : le Réveil de la Force avec 936 M$). Plus fort encore, le film est en fait largement au-dessus du milliard, puisqu’il a dépassé les 2 Md$ de recettes, ce qui en fait le plus grand succès d’un dessin-animé, loin devant tous les Pixar, et le place déjà au 5ème rang de tous les temps. Seuls Titanic, Avengers et Avatar (1 et 2) résistent pour le moment. Le score au box-office va continuer de progresser, d’autant qu’en Chine, Ne Zha 2 rapportait encore plus de 50 M$ (8 M de spectateurs chinois) cette semaine, un mois et demi après sa sortie. Cette performance illustre une réalité structurante : depuis 2020, le marché chinois du cinéma dépasse celui des Etats-Unis, devenant le plus grand marché au monde. Et ses films (The wandering earth, Wolf warrior) n’ont rien à envier à ceux d’Hollywood en matière de grand spectacle, avec une vision politique nationaliste qui freine encore leur succès à l’export. Pour autant, Ne Zha 2, sorti dans moins de 1000 cinémas aux États-Unis, est dans le top 20 américain de 2025, face à des blockbusters hollywoodiens qui ont bénéficié de trois fois plus de salles à leur sortie. L’exportation culturelle chinoise pourrait bien être le prochain challenge. |
AuthorDocteur en sciences de l'information et de la comunication, Laurent Darmon est le Directeur de l'Innovation de l'une des dix premières banques du monde Archives
Mars 2026
Categories
Tous
|







Flux RSS