BIENVENUE DANS LE DATATAÏSME
  • Blog
  • Présentation
  • Revue de presse
  • Achat Livre
  • Contact

Interview au Festival Atmosphère 2025

30/10/2025

0 Commentaires

 
Picture
J'ai eu le plaisir d'être interviewé par Caroline Blaes au Festival Atmosphère le 12 octobre dernier. Il s'agit du festival pionnier pour "un monde durable, plus juste en harmonie avec la nature".
En voici la vidéo avec une retranscription plus littéraire.

Partie 1 – CHANGEMENT CIVILISATIONNEL

​Vous défendez une thèse forte, celle que nous ne sommes pas simplement dans une évolution technologique, mais dans un changement de civilisation. Pouvez-vous nous éclairer : qu’est-ce qui, selon vous, change de nature ?
Ce qui change de nature, c’est le fondement même de notre rapport au monde et à la vérité. Pendant des siècles, nous nous sommes reposés sur deux grands paradigmes. D'abord, le paradigme religieux, qui répondait à la question du "Pourquoi ?" en s'appuyant sur la foi et des textes sacrés. Puis, avec les Lumières, nous sommes passés au paradigme humaniste, qui répondait au "Comment ?" grâce à la raison, à la science et à l’autorité des experts.
Aujourd’hui, nous entrons dans un troisième paradigme, celui que j’appelle le dataïsme. Ce nouveau monde ne se demande plus "pourquoi" ou "comment", mais "Quoi ?" : "Que me proposent les données pour optimiser ma vie, pour satisfaire mes désirs ?". L’autorité ne vient plus de Dieu ou de la raison humaine, mais du flux constant d’informations et des algorithmes qui le traitent. Ce n'est pas juste une nouvelle technologie, c'est un transfert d'autorité de l'humain vers la donnée. Ce qui change, c'est que notre société s'organise désormais autour de la collecte, du traitement et de la valorisation de l'information, modifiant en profondeur notre économie, notre politique et même nos relations sociales.

• Quand pensez-vous que ce basculement est devenu réel : à quel moment ou dans quels signes concrets a-t-on vu ce changement de paradigme émerger ?
Ce basculement ne s'est pas fait en un jour, mais il y a eu des accélérateurs et un "moment Spoutnik". Le premier signe a été l'émergence d'Internet dans les années 90, qui a créé une architecture décentralisée où l'information est devenue ouverte et accessible à tous. Puis, un tournant majeur a été la démocratisation du smartphone avec l'iPhone en 2007. Soudain, plus de 90% de la population a eu dans sa poche un accès permanent et intuitif à ce flux d'informations.
Mais le véritable "moment Spoutnik", celui où le grand public a pris conscience de la puissance de l'algorithme, c'est le 30 novembre 2022, avec l'arrivée de ChatGPT. D'un coup, tout le monde a pu "toucher du doigt" la capacité de la machine à produire de l'information, à raisonner, à créer. Ce jour-là, nous avons collectivement réalisé que la donnée n'était plus un simple outil, mais une force capable de défier le paradigme humaniste centré sur la raison humaine.

• Donc avant, on faisait confiance aux experts, aux institutions… aujourd’hui, chacun cherche, vérifie, décide par lui-même. Qu’est-ce que ça change dans notre manière de vivre ensemble ?
Cela change tout. Nous passons d'une société verticale, guidée par des corps intermédiaires (l'Église, l'État, les médias, les syndicats), à une société horizontale où la désintermédiation est la règle. Avant, l'autorité était conférée par le savoir d'une élite. Aujourd'hui, chacun se sent légitime. Un exemple frappant est celui du professeur Didier Raoult pendant la crise du Covid : il a court-circuité le circuit académique traditionnel en s'adressant directement au public via YouTube et Twitter, flattant un sentiment anti-système. Des millions de personnes ont préféré croire un individu contre "l'establishment" médical.
Cette dynamique fragilise le contrat social de Rousseau, qui reposait sur le renoncement à nos droits particuliers au profit d'institutions collectives. Aujourd'hui, l'individu, armé de données, tend à reprendre ses droits. Cela crée des "communautés d'émotion" qui se forment en ligne, non plus autour d'un récit national commun, mais autour de croyances et d'intérêts partagés, comme on l'a vu avec les mouvements #MeToo ou les Gilets Jaunes, nés en dehors des partis et des syndicats.

• Est-ce qu’on peut dire qu’on a basculé dans une société qui ne se pense plus à partir des idées, mais à partir des données ?
Oui, absolument. Nous passons d'une société structurée par la culture du collectif (des idées, des valeurs, une histoire commune) à un monde guidé par la nature des individus, c'est-à-dire par des tendances statistiquement observables. Les grandes idéologies qui ont marqué le XXe siècle cèdent la place à une vision où tout devient nombre et mesure. On n'évalue plus une politique sur ses principes, mais sur son "étude d'impact" ; la pertinence d'une formation à son classement PISA ; la qualité d'un restaurant à sa note sur TripAdvisor.
Le dataïsme considère l'univers comme un vaste flux de données. Dans cette perspective, l'être humain lui-même est un système de traitement de données. Nos décisions, nos émotions, nos désirs sont vus comme le résultat d'algorithmes biochimiques. La donnée devient l'unité de mesure pour comprendre le monde et agir dessus, reléguant les grandes idées au rang de récits subjectifs.
Picture
Partie 2 – LE MONDE DATAÏSTE

• On entend souvent que la data est devenue la « matière première » de notre époque. Vous, comment la définiriez-vous ?
Je dirais qu'elle est bien plus que ça. Le pétrole est une ressource finie qui perd de sa valeur une fois consommée. La donnée, elle, est une ressource qui s'enrichit à mesure qu'on l'utilise et qu'on la partage. C'est une matière première qui, une fois raffinée par les algorithmes, produit non seulement de la connaissance, mais aussi de l'émotion et de la satisfaction.
Dans mon livre, je définis l'individu dans ce monde comme un "dividuel" : un être unique, mais dont l'identité est divisible en un ensemble de données analysables. La data, c'est donc le reflet numérique de nos désirs, de nos comportements, de nos aspirations. C'est le carburant d'une nouvelle économie de la satisfaction, où l'objectif n'est plus seulement de vendre un produit, mais une expérience hyper-personnalisée.

• L’intelligence artificielle s’entraîne avec nos données : c’est-à-dire que tout ce qu’on produit, écrit, regarde, alimente ces systèmes. Est-ce que ça doit nous inquiéter ?
Cela doit nous rendre conscients. Le vrai sujet n'est pas tant l'alimentation de l'IA que l'échange implicite que nous acceptons chaque jour. Nous donnons nos données en échange de services souvent gratuits et de plus en plus performants. Qui refuserait "mieux pour moins cher" ? La proposition est devenue irrésistible. L'inquiétude doit naître si nous ne réalisons pas que, comme le dit l'adage, "si c'est gratuit, c'est que vous êtes le produit".
Le risque n'est pas un Big Brother étatique à la Orwell, mais des "Big Tech bienveillantes" qui nous connaissent mieux que nous-mêmes et orientent nos choix pour notre "bien". L'algorithme de Netflix choisit le film qui va nous plaire, Waze choisit notre route, Meetic choisit notre futur conjoint. Nous cédons peu à peu l'exercice de nos choix, de notre libre-arbitre. L'enjeu est de ne pas devenir les architectes de notre propre obsolescence.

• Comment trouver un équilibre entre ce que la data peut nous apporter et le risque d’en devenir dépendants et prisonniers ?
L'équilibre passe par la conscience et l'éducation. Il faut comprendre que nous sommes le produit de cette nouvelle industrie pour pouvoir arbitrer lucidement entre le désir de bénéficier du Big Data et la peur de Big Brother.
Concrètement, cela passe par plusieurs choses :
 * Exiger la transparence des algorithmes : Nous devrions pouvoir choisir les biais qui nous conviennent, un peu comme on choisit sa ligne éditoriale de journal. L'IA doit proposer un paramétrage à la main de ses utilisateurs.
 * Développer notre esprit critique : L'école a un rôle immense à jouer. Il ne s'agit plus seulement d'apprendre, mais d'apprendre à trier, à hiérarchiser l'information face à l'infobésité.
 * Cultiver ce qui nous rend humains : Face à une machine qui calcule, nous devons développer ce qu'elle ne fait que simuler : l'empathie, la créativité face à l'imprévu, l'éthique dans la décision. La banque en est un bon exemple : le conseiller "augmenté" par l'IA allie l'efficacité de la machine à la chaleur de la relation humaine.
L'équilibre ne viendra pas de l'interdiction, qui est illusoire, mais d'une hybridation réfléchie entre l'homme et la machine.

Photo
Partie 3 – NOTRE SOCIÉTÉ DANS L’ÈRE DATAÏSTE

• Les données influencent déjà nos choix : ce qu’on consomme, ce qu’on lit, ce qu’on croit. Jusqu’où cette influence peut-elle aller selon vous ?
Elle peut aller jusqu'à redéfinir notre perception de la réalité et notre libre-arbitre. L'influence la plus profonde est la création de ce que j'appelle des "bulles de filtres" ou bulles cognitives. Les algorithmes nous enferment dans un univers intellectuel isolé où nous ne voyons que ce qui confirme nos opinions.
Cela a deux conséquences majeures. Premièrement, la notion de vérité devient relative. Dans notre bulle, nous choisissons les "faits" qui nous arrangent, comme on l'a vu avec les antivax ou les différentes théories sur la pandémie. Deuxièmement, cela nous conduit à une forme de "servitude bienheureuse". Les algorithmes utilisent des nudges, des "coups de pouce" pour nous inciter à prendre les "bonnes" décisions, celles qui sont optimales pour le système. Pensez à votre nouvelle voiture qui vous alerte, puis durcit la pédale d'accélérateur si vous dépassez la vitesse autorisée. Est-ce encore de la liberté ? L'influence peut aller jusqu'à nous faire abandonner notre libre-arbitre au profit d'une optimisation permanente.

• Les données sont aussi devenues un enjeu de pouvoir : politique, économique, géopolitique. Comment ne pas en perdre la maîtrise ?
La maîtrise est déjà en partie perdue car le pouvoir a changé de mains. Il est passé des États-nations aux "orchestrateurs", ces géants de la tech comme les GAFAM qui organisent les flux d'information. Google, par son algorithme, a plus d'influence sur l'accès au savoir que n'importe quel ministère de l'Éducation. Elon Musk, en rachetant Twitter/X, a redéfini les normes de la liberté d'expression à l'échelle mondiale, sans aucun débat démocratique.
Reprendre la maîtrise est un défi immense car ces entreprises sont devenues des entités mondiales qui échappent aux règles nationales, notamment fiscales grâce à des montages comme le "Double Irish" et le "sandwich néerlandais".
La seule réponse possible est supranationale. Il faut une gouvernance mondiale de la donnée, avec des principes juridiques communs sur la dignité humaine, la manipulation, la propriété des créations de l'IA et le contrôle humain. C'est un chantier colossal, mais c'est la seule voie pour que le politique reprenne la main sur un phénomène qui le dépasse.

• On entend souvent parler de régulation, de RGPD, de lois pour encadrer tout cela et l’Europe semble être moteur… mais est-ce que le cadre suit vraiment le rythme des technologies ?
L'Europe a le mérite d'essayer. Avec le RGPD, le DMA, et surtout l'IA Act, elle tente de poser un cadre éthique pour défendre l'individu. Le problème, c'est que la loi de Moore est difficilement conciliable avec le temps long de la démocratie. Le cadre réglementaire a toujours un temps de retard. L'IA Act, par exemple, a été négocié alors que les IA génératives comme ChatGPT bouleversaient déjà toutes les certitudes.
De plus, cette volonté de réguler peut devenir un handicap dans la compétition mondiale. En protégeant la privacy, l'Europe freine potentiellement l'innovation par rapport aux modèles américains, plus pragmatiques, et chinois, qui privilégient le collectif. Le risque est de créer une IA européenne sous contraintes, moins performante que ses concurrentes qui bénéficient d'un accès plus large aux données. La loi court après une technologie qui accélère de façon exponentielle.

• Est-ce que la question n’est-elle pas aussi à qui profitent les données ? Comment faire pour qu’elles servent davantage l’intérêt commun que les intérêts privés ?
C'est la question centrale. Actuellement, la valeur se concentre massivement entre les mains de quelques orchestrateurs. On observe un double mouvement paradoxal : une centralisation de la valeur chez les Big Tech, et une atomisation des travailleurs via des plateformes comme Amazon Mechanical Turk, où des diplômés sont payés 2 dollars de l'heure.
Pour que les données servent l'intérêt commun, il faut repenser la redistribution. Cela peut passer par une fiscalité adaptée, non plus sur des bénéfices volatils, mais sur le chiffre d'affaires ou la valeur ajoutée. Cela peut aussi signifier de reconnaître et financer le travail social (santé, éducation, aide aux personnes âgées), qui est le rempart humain face à la machine. Enfin, des initiatives comme la mise à disposition des données de santé pour la recherche (en respectant l'anonymat) montrent comment la data peut servir la prévention collective. Aux États-Unis, cela permet déjà d'anticiper les zones géographiques où des cancers vont se développer. C'est un arbitrage politique majeur : acceptons-nous de partager plus pour un bien commun supérieur ?
Partie 4 – QUEL MONDE VOULONS-NOUS ?

• Si on se projette dans un futur plus ou moins proche, vous évoquez dans votre livre 4 scénarios pour demain. Quels sont-ils ?
Ces scénarios se basent sur deux axes : l'évolution de l'emploi face à l'IA, et notre capacité à encore tirer de l'émotion de cette société de l'information.
 * Scénario "Her" : C'est le plus optimiste. L'IA crée plus d'emplois qu'elle n'en détruit, la croissance est au rendez-vous, et la technologie nous apporte une vie plus confortable, plus saine, plus divertissante. Nous vivons dans une société hédoniste où la machine est notre alliée pour le bonheur.
 * Scénario "Wall-E" : Le chômage de masse s'installe car les machines nous remplacent. La société se fracture entre les anywhere, qui profitent de la technologie, et les somewhere, qui sont laissés pour compte. Pour maintenir la paix sociale, on distribue un revenu universel et on occupe la population avec du divertissement à bas coût. "Du pain et des jeux" version 2.0.
 * Scénario "Blade Runner" : Le plein emploi est maintenu, mais nous sommes blasés. L'abondance de choix et de plaisirs a généré une lassitude. Nous cherchons des émotions toujours plus fortes, quitte à nous perdre dans des mondes virtuels et à brouiller la frontière entre l'humain et l'artificiel.
 * Scénario "Time Out" : C'est le plus sombre. Le chômage est massif ET la technologie ne procure plus de satisfaction. Les inégalités explosent, notamment face à la santé et à l'augmentation de la durée de vie, qui devient un luxe réservé aux plus riches. Le sentiment d'injustice généralisé peut mener à des conflits majeurs.

• Dans cette course à l’optimisation et à la performance, que pouvons-nous perdre d’essentiel ?
Nous risquons de perdre trois choses fondamentales qui constituent notre humanité :
 * Notre libre-arbitre : En nous en remettant systématiquement à l'algorithme "plus intelligent", nous cessons d'exercer notre jugement, notre capacité à faire des choix imparfaits mais personnels.
 * Notre rapport au réel : À force de vivre dans des mondes fictionnels, des bulles cognitives et des réalités augmentées, nous perdons le contact avec une vérité commune. Le faux devient un élément du vrai, comme l'annonçait Guy Debord.
 * Le sens du temps long : La société de l'émotion privilégie la gratification instantanée. La dopamine l'emporte sur le bonheur durable. Nous perdons notre capacité à nous projeter, à construire, à accepter l'effort et la frustration qui sont nécessaires à tout accomplissement.

• Dans ce monde Dataïste, comment vivre dans ce monde de la donnée sans le subir ? Et quels sont les choix de société majeurs à faire maintenant pour demain ?
Pour ne pas le subir, il faut politiser le sujet de toute urgence. Ce n'est pas une fatalité technologique, ce sont des choix de société.
Les choix majeurs sont :
 * L'Éducation : Il faut réformer l'école pour qu'elle n'enseigne plus seulement un savoir accessible partout, mais la capacité à exercer son esprit critique, à naviguer dans l'infobésité et à développer l'intelligence émotionnelle.
 * La Redistribution : Face à une concentration inévitable de la richesse, il faut un nouveau pacte social pour garantir la cohésion. Cela passe par une fiscalité mondiale et la valorisation des métiers du lien social.
 * La Régulation : Il faut un cadre éthique fort, décidé démocratiquement et à l'échelle internationale, pour définir ce que nous autorisons ou non aux machines (reconnaissance faciale, score social, manipulation...).
 * La Souveraineté : Nous devons décider si nous acceptons de déléguer des pans entiers de notre vie (santé, justice, sécurité) à des algorithmes conçus par des entreprises privées, ou si nous voulons garder un contrôle démocratique sur ces fonctions régaliennes.

• Est-ce qu’il y a, selon vous, des gestes simples ou des prises de conscience à avoir au quotidien ?
Oui, absolument. Le premier geste est une prise de conscience : chaque fois que nous utilisons un service "gratuit", nous payons avec nos données et notre attention. Réaliser cela change tout.
Ensuite, quelques gestes concrets :
 * Pratiquer l'hygiène numérique : Se forcer à des moments de déconnexion, couper les notifications inutiles pour reprendre le contrôle de son temps et de sa capacité d'attention.
 * Sortir de sa bulle : Consulter consciemment des sources d'information qui ne confirment pas nos opinions. Suivre des personnes avec qui nous ne sommes pas d'accord pour nourrir notre esprit critique.
 * Privilégier le réel : Choisir une conversation en face à face plutôt qu'un chat, une activité manuelle plutôt qu'un écran. Réinvestir le temps long, la nuance, l'ennui même, qui est souvent le berceau de la créativité.
 * Questionner les recommandations : Ne pas suivre aveuglément ce que propose l'algorithme. Se demander "Pourquoi me propose-t-on cela ? Quel est l'intérêt de la plateforme ?". C'est un simple exercice mental pour réactiver notre libre-arbitre.
En somme, il s'agit de ne pas être un simple consommateur passif de données, mais de redevenir un citoyen acteur et éclairé.
0 Commentaires



Leave a Reply.

    Author

    Docteur en sciences de l'information et de la comunication, Laurent Darmon est le Directeur de l'Innovation de l'une des dix premières banques du monde

    View my profile on LinkedIn

    Archives

    Octobre 2025
    Septembre 2025
    Juillet 2025
    Juin 2025
    Mai 2025
    Avril 2025
    Mars 2025

    Categories

    All
    Cinéma
    Cinéma
    Data
    Ecole
    Livre
    Politique
    Pré Dataïsme
    Société
    Technologie

    RSS Feed

Proudly powered by Weebly
  • Blog
  • Présentation
  • Revue de presse
  • Achat Livre
  • Contact