Mardi 29 avril, J’ai eu le plaisir d’intervenir à la Maddy Keynote | MKIA organisée par Maddyness, un événement incontournable dédié à l’IA et à ses applications concrètes dans nos organisations. Sur la belle scène de la Salle Gaveau, j’ai partagé la réalité de notre évolution vers le dataïsme. Un sujet aussi fascinant que structurant, qui soulève de vraies questions pour les entreprises et pour nos comportements. Lors de cette keynote, ce fut l'occasion d'annoncer la sortie prochaine de mon livre dédié à ce mouvement post-humaniste qui change profondément notre société. En précommande ici. Sur Scène, Clara Chappaz, ministre déléguée de l'Intelligence artificielle et du numérique, est venue ensuite partagée quelques messages clé
0 Commentaires
Les religions et la société humaniste ont permis de satisfaire notre besoin vital de comprendre le monde, de donner du sens à nos vies. Après les désillusions du XXe siècle, la télévision puis le numérique vont changer les choses, car, avec eux, l’information submerge le monde. Après le temps du Pourquoi et du Comment, une nouvelle ère commence. La tradition religieuse créait une communauté de fait qui se retrouvait dans des coutumes : dans chaque église, synagogue et mosquée, des rituels identiques permettaient à chacun d’être adopté par le groupe de fidèles. Il y avait une perspective avec le Paradis proposé par la foi religieuse. L’humaniste a proposé à la place le progrès qui permet de se projeter dans un futur meilleur, pour soi et pour ses enfants. Or le XXe siècle a vu se dérouler des évènements qui vont changer la perception du pacte social. La Grande guerre avait causé 17 millions de morts, ce qui était déjà un traumatisme, mais le Seconde Guerre mondial laisse derrière elle entre 50 et 85 millions de victimes ainsi qu’un génocide industrialisé. Plus globalement, après Hiroshima, le monde entier est marqué par la puissance atomique et craint ce que les États-nation pourraient en faire.
La jeunesse des années 60, née sur ces charniers, se construit en opposition à la génération précédente à laquelle elle ne veut pas ressembler. On parle de contre-culture et celle-ci s’exprime dans l’idéologie comme dans les pratiques culturelles (musique, habillement…). Plus particulièrement, le mouvement hippie naît dans les années 60, mais il trouve son épicentre en 1967 à San Francisco : rien de surprenant sur le lieu et la date. Trois ans après l’engagement des forces américaines dans la guerre terrestre, ce sont désormais 510.000 soldats – trois fois plus que deux ans auparavant – qui sont stationnés au Vietnam, de l’autre côté du Pacifique, face à The City by the Bay. Les Américains appelleront le conflit la sale guerre, mais cette fois, elle passe à la télévision. Les caméras sont sur place presque constamment dans les zones de combat et les journalistes rapportent quotidiennement la situation le terrain. Plus rien ne sera comme avant pour l’opinion publique, pour qui les conflits militaires n’ont désormais plus rien d’abstrait. L’information change la donne. Et il devient compliqué de faire confiance à des dirigeants, prêts pour des raisons géopolitiques peu partagées par le peuple, à engager la vie de des enfants de la Nation. La défiance envers les politiques s’exprime de plus en plus clairement. La conception religieuse garantissait la vie éternelle pour les plus pieux. Rien de comparable pour l’être de raison qui veut miser sur le progrès pour offrir à ses enfants une vie meilleure que la sienne, comparable à ce qui est mis en avant dans les publicités et au cinéma. Le déclassement social devient une nouvelle peur. Si la société devient utilitaire, le citoyen mesure ce qu’il a à gagner dans le contrat que celle-ci lui propose et il peut alors le remettre en cause s’il trouve ce contrat moins avantageux. On observe alors un délitement du lien social. Le réveil est douloureux après l’euphorie des Trente Glorieuses et de l’essor de la société de consommation. Le choc pétrolier se traduit par une révision drastique de la croissance dans les pays de l’OCDE. Il provoque aussi l’apparition du chômage de masse, un concept philosophiquement destructeur dans un monde qui a érigé le travail en valeur centrale et comme un sésame pour bénéficier individuellement du progrès. Dans les pays les plus développés, non seulement la croissance baisse, mais elle bénéficie davantage à une partie de la population, qui est mieux adaptée à un monde évoluant rapidement. Le progrès est jugé bien décevant pour la majorité. Il conduit à intégrer que dans un jeu à somme nulle, ce n’est pas forcément du collectif qui faut attendre un bien-être supérieur, mais sans doute en tirant individuellement mieux partie des nouvelles règles du jeu économique, social et technologique. Pour certains, c’est même le spectre du déclassement social. La pollution et le nucléaire sont également perçus comme l’héritage d’une génération qui a fait confiance aux élites et qui propose un modèle unique. Malgré un bilan globalement positif de 200 ans de progrès technologique, il y a donc une tendance à la perte de confiance dans le collectif. La notion même de nation est réinterrogée, car elle a conduit aux conflits sans amener au bonheur. À quoi bon donc, se satisfaire de ce pacte social décrit par Rousseau et accepter une aliénation à un tel collectif. Beaucoup de conflits actuels doivent encore à cette conception d’État-nation où la géopolitique prime sur la conception du bonheur que beaucoup de citoyens se font. Comme l’avait formalisé Jean-François Lyotard dans La Condition postmoderne en 1979, c’est tout le méta-récit construit depuis les Lumières qui est remis en cause comme cadre constituant d’une unité : outre la nation, la science, la politique et les arts ne sont plus des référents de la dynamique collective. Il y a donc un doute sérieux à continuer comme avant en faisant confiance aux mêmes élites et aux mêmes méthodes. Et comme l’idéologie alternative, le communisme, s’effondre sans que le modèle libéral puisse satisfaire la grande majorité, il y a une volonté d’envisager les choses autrement pour construire un avenir meilleur. Les gouvernements sortants ne cessent d’être battus (une seule exception en France depuis 45 ans en onze élections législatives). C’est ce qui faisait dire abusivement à l’écrivain et ancien président tchèque : « L’élément tragique de l’homme moderne, ce n’est pas qu’il ignore le sens de sa vie, mais que ça le dérange de moins en moins ». En fait, il cherche une transcendance différente de celle que la société lui proposait précédemment. L’individu commence à définir un nouveau système de valeur avec lequel il apprend à négocier. Certains le trouvent, mais beaucoup cherchent. En 1995, la Commission d’enquête sur les sectes relevait une augmentation du nombre d’adeptes de 60 % depuis 1982. Il y avait alors 170 organisations identifiées. Désormais, on en compterait désormais environ 500 selon la Mission interministérielle de vigilance et de lutte contre les dérives sectaires mise en place depuis 2021. Elle relève que la France fait face à une croissance inédite des agissements à caractère sectaire avec un doublement des saisines par la justice en six ans. Comme l’a montré le sociologue Albert Hirschman dans son livre Bonheur privé, action publique, l’individu traverse son existence en allant d’espoirs en déceptions, ce qui l’amène à redéfinir régulièrement ses priorités et à osciller entre l’optimisation de ses intérêts et de ceux de la société. Face aux défaillances d’une institution privée – une entreprise – comme publique, Albert Hirschman, dans un autre ouvrage, Défection et prise de parole, expliquait que les clients et usagers ont trois types de comportement : la loyauté (continuer comme avant), l’interpellation (la prise de parole, par exemple via une manifestation ou une réclamation) et la sortie (le désengagement en partant pour la concurrence, notamment). L’après-1968 s’est traduit pendant la décennie suivante par une société qui a cherché à se libérer de son conservatisme avec une dynamique générale portée vers les aspirations collectives. En France, comme dans de nombreux pays occidentaux, c’est une période de libération des mœurs, la seconde vague du féminisme, l’émergence de SOS racisme et les premières revendications LGBT. Suivront les années 80, qui par un effet de boomerang proposent un retour à un certain conservatisme et une valorisation de la réussite individuelle. Après la loyauté comme modèle dominant, la période de l’interpellation s’est organisée depuis la fin des années 60. Mais de plus en plus de citoyens sont tentés de choisir la sortie vers un autre système. Après plusieurs siècles de croissance peinant à apporter le bonheur, cette insatisfaction des humanistes les rend particulièrement appétents à saisir un nouveau paradigme. La contre-culture des années 60 rejetait les normes conventionnelles et les autorités traditionnelles, mais il n’y avait pas – encore – de modèle alternatif à disposition. Lorsque internet arrive dans les années 90, la société est prête à à la nouveauté. le dataïsme arrive. La société de l'information est progressivement passé d'un univers orienté sur le traitement à un monde centré sur la donnée. En 1944, le bibliothécaire de la Wesleyan University, Fremont Rider, commence à percevoir un nouveau problème : la production massive de données (information explosion). Bien que portant sur une information non numérisée, les questions qu’il soulève portent déjà sur le sourcing, l’acquisition et la gestion des livres, mais aussi les coopérations entre les bibliothèques. Estimant que les volumes doubleraient tous les seize ans, il constate que la bibliothèque de Yale comporterait 200 millions d’ouvrages un siècle plus tard, ce qui nécessiterait plus de six mille employés pour les référencer correctement. Il recommande alors de remplacer les volumineuses œuvres imprimées en décomposition par des photographies – analogiques – miniaturisées. On n’est pas encore sur le numérique, mais la dématérialisation est en marche et la possibilité de duplication à la demande également. Ses travaux font déjà écho à un sujet qui taraudera l’univers informatique, mais dont les prémisses ne commencent que trois ans plus tard avec l’invention du transistor et se développeront surtout avec la création des premiers circuits intégrés en 1958. L’amélioration de la puissance de calcul va permettre des traitements plus rapides et plus élaborés. Les secteurs administratifs sont les premiers à s’informatiser, car l’informatique est une technologie de calcul et de processus.
Trente ans plus tard, l’émergence d’internet ouvre un monde interconnecté où toutes les informations sont liées entre elles. Pour s’y repérer, il faut traiter des milliards d’informations, de plus en plus de textes et d’images. Pour classer les pages d’internet, on utilise des métadonnées intégrées dans chaque page pour classer le web par des mots-clés. L’internaute qui choisit un mot est mis en relation avec une page qui a référencé ledit mot. En effet, pour être traitée par un algorithme informatique, une donnée devait alors être mise dans un format normalisé, c’est-à-dire définie selon une structure prédéfinie et précise pour être bien indexée, rangée dans une bibliothèque de stockage. Une variable peut être un nom, un numéro, une date, une devise ou un prix, par exemple. Cette approche statistique du monde est bien adaptée pour compter, trier et faire des analyses conditionnelles d’une réalité réduite à un prisme très spécifique. En revanche, la donnée a perdu de son sens intrinsèque en dehors de sa tabulation de référence. Ainsi la donnée structurée d’une photographie d’un chat correspond-elle au classement de chaque pixel en fonction de sa couleur dans une table de données, mais le chat a disparu au profit de chiffres. Cette approche altère grandement la réalité en la simplifiant et en la réduisant arbitrairement. Cela explique le sentiment de rejet qui a frappé la majorité des citoyens lorsque la statistique a voulu appréhender le monde. Ce qui fait dire à Olivier Rey à propos de l’antipathie pour la statistique : « D’un côté, on lui demande de rendre compte des faits de façon objective et impartiale, de l’autre, on lui fait grief de son insensibilité, de s’en tenir à ce qui se mesure et, ce faisant, de laisser échapper l’essentiel ». Ce manque de chaleur de l’informatique, qui devient micro-informatique dans les années 80, se traduit par l’apparition de l’adolescent geek ou du computer nerd des années 80. Comme l’a montré l’enseignante-chercheuse Isabelle Collet, spécialiste en sciences de l’éducation, les représentations dans les films et les livres défendent cet adolescent peu rebuté par une activité déshumanisée et qui trouve chez ses congénères une nouvelle sociabilité, d’ailleurs excluante pour les filles. Elle relève qu’alors qu’entre 1972 et 1985, le pourcentage des femmes en informatique est supérieur au pourcentage moyen des femmes ingénieures, toutes écoles confondues, au milieu des années 80, les filles vont s’exclure des études informatiques pour ne représenter plus que 10 % des étudiants, et de façon stable pendant trente ans. L’informatique est alors perçue comme un refuge d’une réalité virtuelle alimentée d’ailleurs par l’univers des jeux vidéo. Dans les entreprises, y compris de services, c’est une direction technique fonctionnelle un peu à part (ce qui s’oppose à ce qu’on observe dans les entreprises du tertiaire d’aujourd’hui qui ont tendance à la rapprocher de l’équipe produit au cœur de l’organisation). Le monde de la data relève d’un univers un peu obscur. En 1998, Larry Page et Sergei Brin vont changer l’univers du web en utilisant la théorie des graphes pour mettre en place l’algorithme PageRank de leur tout nouveau moteur de recherche Google. Cela constitue la première étape déployée à grande échelle de ce qui engendrera dix ans plus tard Hadoop, un environnement complet apte à traiter un très grand nombre de données, du traitement jusqu’à leur stockage. Le défi du bibliothécaire Fremont Rider a été relevé : il n’est plus alors nécessaire de structurer les informations d’une page Web pour indexer une page de texte. En 2012, Google est capable de reconnaitre un chat dans une page YouTube. Face à la complexité d’une image, il a fallu aller plus loin, car il est impossible de définir les règles permettant de reconnaitre précisément un chat, d’autant que les cas particuliers sont très nombreux (dans toutes les positions, s’il lui manque une patte, par opposition avec un léopard, etc.). On commence alors à utiliser des algorithmes implicites, c’est-à-dire des algorithmes qui vont apprendre à définir eux-mêmes des règles par apprentissage : en fournissant un très grand nombre de données que l’on va qualifier (pour ce qu’on appelle le machine learning supervisé), l’algorithme apprend via un réseau neuronal, en définissant plusieurs niveaux d’abstraction. Il va alors définir des règles implicites qu’il n’est pas possible d’expliciter clairement. Tout au plus, peut-on expliquer le résultat obtenu. La donnée structurée d’une photographie correspond à la couleur de chaque pixel alors qu’en approche non structurée, elle conserve son intégrité, ce qui permet d’analyser ce qu’elle représente. Grâce à des algorithmes implicites, nous pouvons traiter des textes, mails, images, vidéos et sons. Mais aussi tout ce qui pourra être capté des données de comportement et autres données générées par l’internet des objets. Inutile de simplifier la donnée, car elle est stockée comme elle est. La mise en commun des données non structurées démultiplie les possibilités d’analyse, mais elle permet surtout de conserver une certaine intégrité du monde. La photographie du Chat reste une image de chat dont il est possible d’analyser la race, ce qu’il fait et à quoi il ressemble. La data commence à pouvoir retranscrire le monde. Le citoyen reconnait alors dans l’information le monde qu’il connait. Cette approche ouvre aujourd’hui la voie à la création d’autres images de chats qui n’existent pas via l’IA générative dont on a pu mesurer l’acceptabilité par la vitesse d’appropriation. Ainsi y a-t-il eu une évolution d’une informatique du traitement vers celle de la donnée, d’abord structurée, puis de plus en plus capable de conserver la complétude du monde qu’elle digitalise. Le monde du digital s’avère de moins en moins un monde abstrait, réservé aux hyper-spécialistes. Il commence au contraire à s’organiser avec un écosystème de compétences variées qui comprend certes des développeurs et des architectes informatiques, mais aussi des data scientists, des designers, des experts du référencement, des chefs de projet éditorial. Et cet univers professionnel plus diversifié se réouvre alors davantage aux femmes : en 2021, on décompte 23 % d’étudiantes parmi les établissements Bac+5 membres de Talents du Numérique, soit un doublement en vingt ans. Depuis, le big data est devenu intelligence artificielle, de l’impersonnel à un terme anthropomorphiste. Les mots traduisent les faits. L’informatique, tel un animal sauvage, a été domestiquée par le citoyen. La guerre d'influence s'étend naturellement au domaine culturel. Jusqu'à maintenant la Chine restait à l'écart et se concentré sur le versant économique de la guerre d'influence en cours. les choses pourrait changer. La Chine s’affirme comme une puissance majeure dans un nombre croissant de domaines. Il est loin le temps où l’on pensait que l’Empire du Milieu se cantonnerait aux produits à faible valeur ajoutée. La Chine s’impose désormais dans les technologies d’avenir, grâce à un volontarisme politique et un investissement fort dans l’éducation. Cela se traduit par une place prépondérante sur le marché croissant des voitures électriques mais aussi plus récemment dans l’intelligence artificielle générative. Au-delà de DeepSeek et de Qwen (Alibaba), la Chine occupe la première place du classement mondial en termes d’impact des publications scientifiques concernant les algorithmes d’IA. Et face à l’embargo américain, le pays a annoncé récemment une avancée majeure dans le développement des puces de haute technologie avec une innovation prometteuse : le plasma de décharge par arc.
La Chine devient une puissance technologique majeure. Parallèlement, elle se dote d’un marché intérieur qui compte de plus en plus dans l’essor de son économie. Dernier symbole de cette évolution : le succès de Ne Zha 2. Qu’est ce que Ne Zha 2 ? C’est tout simplement la suite de NeZha, un film d’animation sorti dans les salles en 2019, adaptation d’un conte historique et fantastique du 16ème siècle (L'Investiture des dieux). Record. C’est le premier film qui dépasse le seuil du milliard de dollars de recettes en Chine. Plus fort, c’est la première fois qu’un film non hollywoodien dépasse ce seuil dans un seul pays, États-Unis compris (le record appartenait à Star Wars VII : le Réveil de la Force avec 936 M$). Plus fort encore, le film est en fait largement au-dessus du milliard, puisqu’il a dépassé les 2 Md$ de recettes, ce qui en fait le plus grand succès d’un dessin-animé, loin devant tous les Pixar, et le place déjà au 5ème rang de tous les temps. Seuls Titanic, Avengers et Avatar (1 et 2) résistent pour le moment. Le score au box-office va continuer de progresser, d’autant qu’en Chine, Ne Zha 2 rapportait encore plus de 50 M$ (8 M de spectateurs chinois) cette semaine, un mois et demi après sa sortie. Cette performance illustre une réalité structurante : depuis 2020, le marché chinois du cinéma dépasse celui des Etats-Unis, devenant le plus grand marché au monde. Et ses films (The wandering earth, Wolf warrior) n’ont rien à envier à ceux d’Hollywood en matière de grand spectacle, avec une vision politique nationaliste qui freine encore leur succès à l’export. Pour autant, Ne Zha 2, sorti dans moins de 1000 cinémas aux États-Unis, est dans le top 20 américain de 2025, face à des blockbusters hollywoodiens qui ont bénéficié de trois fois plus de salles à leur sortie. L’exportation culturelle chinoise pourrait bien être le prochain challenge. Le reverse engineering assisté par l’IA permet de concevoir des solutions inédites et plus performantes, mais dont la logique échappe à l’intelligence humaine. Sommes-nous prêts à accepter et à explorer ces possibilités, au risque de sacrifier une partie de notre souveraineté humaine ? Un succès majeur a récemment été observé dans l’industrie informatique. Selon un article publié dans la revue scientifique Nature, une intelligence artificielle a su concevoir des puces sans fil aux performances supérieures à ce que l’on connaissait. Leur particularité est d’avoir des architectures qui s’écartent de tout ce que les chercheurs imaginaient jusqu’à aujourd’hui, sans référence à aucune logique de l’ingénierie humaine. Les circuits intégrés suivent des formes biologiques ou chaotiques et non plus géométriques. Or personne ne sait expliquer la logique d’efficacité qui opère. On observe simplement que ces puces sont plus performantes car elles ont été conçues ainsi. Les tests réalisés le prouvent. Le reverse engineering assisté par l’IA : un tournant pour l’innovation Nous commençons à déléguer de plus en plus nos capacités créatives aux IA pour trouver des solutions innovantes à nos problèmes opérationnels. Dans le domaine industriel, cette approche renouvelle la démarche scientifique dite des problèmes inverses. L’expression désigne une situation dans laquelle on détermine les causes d'un phénomène à partir de ses effets. En imagerie médicale, la technologie des échographies repose sur ce principe. L’Intelligence Artificielle permet d’aller beaucoup plus loin. Lorsque nous confions un problème à une IA, celle-ci propose la meilleure option en s’appuyant sur ses capacités de réflexion. Comme un être humain, elle combine des principes appris et des tests en apprentissage pour en déduire de nouvelles règles. Or cette méthode qu’on appelle le reverse engineering assisté par l'IA pourrait notamment révolutionner des pans entiers de l’économie. Pensez par exemple à une médecine personnalisée où les traitements seraient conçus pour chaque patient en fonction d’un profil génétique unique. Des performances accrues, mais une logique inconnue
Nous entrons dans un nouveau paradigme où l’intelligence artificielle développe une capacité de raisonnement profondément différente de l’intelligence humaine. A la clé, en plus de l’optimisation des performances, les cycles d’innovations s’accélèrent à mesure que leur coûts de développement diminuent. La perspective est très séduisante. Cependant, n’est il pas troublant de parvenir à un niveau d’abstraction que nous nous sentons incapables d’expliquer, alors que depuis la révolution scientifique, l’être humain cherche à contrôler le monde qui l’entoure et encore plus celui qu’il crée ? Un débat devra sans doute s’ouvrir sur l’utilisation de technologies et de systèmes que nous ne comprenons plus car nous risquons de nous mettre en dépendance d’algorithmes dont nous ne maîtrisons plus la complexité. Sommes-nous prêts à embrasser ce changement et à explorer les possibilités du reverse engineering assisté par l'IA en abandonnant une partie de notre souveraineté humaine ? Frankenstein n’est pas loin. Bienvenue dans l’ère du dataïsme. Après le moment religieux et le moment humaniste, les profondes mutations technologiques engendrées par l’informatique nous ont propulsés dans un univers dataïste. Un monde où tout se réduit à un traitement de données. Les États-Unis d’Elon Musk en sont une illustration saisissante, où la quête de performance technique éclipse les fondements économiques, sociaux et géopolitiques, qui vacillent à mesure que nous tentons de les optimiser.
Au-delà d’être un curieux oxymore, l’intelligence artificielle devient l’incarnation ultime de notre époque : de l’information qui produit d’information. Ce changement civilisationnel modifie profondément nos rapports à nous-mêmes, aux autres, au réel, à la souveraineté et au pouvoir. Dans ce monde hyperconnecté, perpétuellement absorbés par le flux d’information, nous devenons addicts au virtuel. Alors que populistes et techno-libertariens exploitent pleinement les opportunités offertes par le dataïsme, j'interroge dans mon nouveau livre les choix cruciaux auxquels nous sommes confrontés, aussi bien à titre individuel que collectif, pour éviter que le post-humanisme ne glisse vers un anti-humanisme radical. S’appuyant sur une riche mosaïque de références cinématographiques, il propose une analyse percutante et un guide essentiel pour comprendre notre époque et choisir la société que nous souhaitons construire. Ensemble. |
AuthorDocteur en sciences de l'information et de la comunication, Laurent Darmon est le Directeur de l'Innovation de l'une des dix premières banques du monde Archives
Juillet 2025
Categories
Tous
|






Flux RSS