Mon constat est que les technologies d'IA génératives sont globalement dangereuses pour l'humanité.
Ces dangers, maintenant que je les ai compris et assimilés, je ne peux plus en détourner mon regard. Plus encore, je ne conçois pas de poursuivre ma route personnelle et professionnelle - qui sont intimement liées - tout en prétendant que tout va bien.
Car non, tout ne va pas bien.
Ces technologies sur lesquelles nous nous sommes jetés - moi parmi les premiers - de manière déraisonnable et, surtout, sans le recul ni le discernement qu'elles demandaient, mettent en danger nos pensées et opinions, nos capacités de raisonnement et, bien plus grave encore, notre humanité.
Pourtant, nous aurions pu, nous aurions dû, nous en douter.
Nos pensées et opinions en danger
Les IA génératives sont des machines à produire des symboles de manière probabilistique.
Elles produisent les mots (symboles) les plus probables issus de longs et complexes calculs basés sur l'analyse du corpus de tout ce que l'humanité a pu créer comme contenu et qui est disponible sur internet.
Avec le recul, il m'apparaît maintenant comme une évidence, que ce fonctionnement intrinsèque tend à renforcer la production de concepts représentant les sens les "plus communs", le "statu quo" et d'une manière générale tout ce qui est "dans la norme".
Par conséquent, il est aisé d'imaginer - et nous en ressentons déjà les premiers effets sur les réseaux sociaux - que l'utilisation croissante de ces IA amplifie la génération de contenu allant dans ce sens d'une certaine "platitude" et de manque patent de diversité, de points de vue et d'opinions.
Le sentiment de toute puissance procuré à l'utilisateur lorsque ces outils font jaillir les pseudo-raisonnements et pseudo-connaissances, issus de leurs calculs, et ce de manière presque magique (ou divine), est totalement trompeur et de nature à, au contraire, aplanir tout point de vue.
Une majorité d'utilisateurs semble se satisfaire de ce machinique nivellement par la norme, notamment par le ton d'autosatisfaction péremptoire de ces IA et d'autres procédés que je détaillerai plus loin.
Ce danger est d'autant plus dilué que ces IA génératives sont à la fois utilisées pour obtenir de simples recettes de cuisine ou bien - et c'est là le piège - rédiger du contenu qui sera par la suite publié sur internet ; substituant de manière presque indiscernable l'opinion ou la pensée de l'utilisateur par cette production de texte statistiquement le plus probable.
La même IA générative est à même d'avoir une externalité bénigne (sauf à voir l'humanité ne se nourrir que de pizza à l'ananas) alors que le second usage est un dangerpour la pluralité d'expression, de points de vue et d'opinions.
Avec toutes les dérives connues telles que les chambres d'échos ou la polarisation des opinions qui seront encore renforcées.
Ce n'est ... qu'à partir de la pluralité que nous pouvons définir notre singularité. Voir et être-vu, entendre et être-entendu dans l'entre.
Hannah Arendt, Journal de pensée 1950-1973
Nos capacités de raisonnement en danger
Notre cerveau est paresseux par définition [^1].
Par défaut, les IA génératives sont des facilitatrices de pseudo-raisonnement qui, si leurs utilisations se transforment en habitudes pour l'utilisateur, pourraient bien mener à moyen terme, à l'attrition de ses capacités cognitives [^2][^3].
Bien qu'il existe des méthodes pour interroger (prompter) ces IA génératives de manière à réduire la facilitation et ainsi augmenter le travail cérébral de l'utilisateur, ces méthodes ne sont ni disponibles par défaut - via les prompts systèmes installés par les éditeurs - ni, le plus souvent, aisément accessibles aux utilisateurs.
Dès lors et par défaut, l'utilisateur accède de manière simple et immédiate à une pseudo-connaissance et un pseudo-raisonnement, lui procurant jouissance et sentiment de toute puissance instantanés, au détriment d'une friction plus complexe qui, naguère, s'appelait raisonnement et travail intellectuel.
Ces pseudo-raisonnements et la pseudo-connaissance amenés dans ces conditions me semblent constituer un danger encore plus grand à l'endroit des jeunes publics pour qui la construction du système de pensée, le raisonnement et l'acquisition de connaissances sont - encore, je l'imagine - des priorités si l'on veut encore d'un futur épanouissant pour eux.
J'entends déjà les objections qui comparent ces IA génératives à Wikipedia ou de vulgaires outils comme les calculatrices à l'époque, pour se conforter dans leur vision et leurs usages. Je les renverrais, avec un clin d'oeil, sur un autre de mes articles où je pseudo-dialogue de manière assez profonde avec une IA générative (ici Claude Sonnet 4.5) [^4]. Ni wikipedia, ni une calculatrice ne pourront à ce point corrompre notre perception du réel, du raisonnement et de la connaissance que les IA génératives.
Notre Humanité en danger
Une nouvelle drogue par et pour les Big Tech
C'est selon moi le point le plus grave des trois grands risques que font peser l'usage des IA génératives sur notre société. Je n'ai pris conscience de ce troisième risque que récemment, en assemblant les pièces d'un puzzle mental dont les morceaux étaient restés éparses, sur la table de mes pensées, depuis plus de dix ans.
En tant que "technologiste", j'ai pu être témoin -et parfois acteur- de cette Tech qui a évolué sur un rythme effréné ces trente dernières années. Les IA génératives sont une révolution pour la société mais une évolution pour la Tech.
Tout a démarré vers 2010, au moment où les smartphones et ensuite les applications mobiles, les plateformes, puis enfin les réseaux sociaux ont vu le jour.
En 2014, Nir Eyal publiait un livre qui m'avait alors marqué et qui prend toute sa cruciale importance à l'heure où j'écris ces lignes.
Dans "Hooked, How To build Habit-forming products" ("Hooked, Comment créer un produit ou un service addictif"), l'auteur y explique de manière très détaillée comment concevoir des applications mobiles ou web et autres services numériques de manière à ce que l'utilisateur devienne littéralement dépendant (en anglais "hooked").
Ces "cahiers des charges menant à l'addiction" ont été suivis à la lettre pour concevoir des applications comme Facebook, Twitter, Tiktok, Instagram et la majorité des réseaux sociaux. [^5]
Par d'habiles mécanismes de rétribution et de feedbacks psychologiques - le plus souvent inconscients -, de métriques de vanités (likes, followers, impressions, partages), ou de scroll infini alimenté par du contenu dicté par IA (non générative) ; il a été prouvé que ces applications rendent leurs utilisateurs dépendants, tout comme les drogues ou l'alcool peuvent le faire.
D'ailleurs, j'ai été l'un de ces "addict", et ce alors même que je connaissais les mécanismes psychologiques ainsi que toute la tringlerie technologique qui étaient à l'oeuvre dans ces applications. L'œnologue était aussi alcoolique, en quelque sorte.
Le but primordial de ces applications est d'accaparer au maximum l'attention des utilisateurs car c'est l'attention qui est un facteur de profit (principalement par le biais d'un meilleur ciblage publicitaire).
Aussi, depuis plus de dix ans, les big Tech se battent dans un seul et même but :
Accaparer toute notre attention
Cette attention acquise se transforme d'abord en données puis en or. C'est ce butin qui est à l'origine de ces techno-empires.
En fait, ce sont ces exacts mêmes mécanismes décrits par Eyal qui sont à nouveau en action avec les IA génératives.
Là où, avec les applications mobiles et réseaux sociaux, les Big Tech n'avaient "que" des informations de suivi (clics, likes, actions) et de comportement que j'appellerais sémantiquement faibles, ici, avec les IA génératives vont permettre à ces mêmes sociétés (dont la plupart sont américaines) d'obtenir des données sémantiquement fortes.
C'est d'ailleurs ici un innommable euphémisme que de les qualifier de données sémantiquement fortes alors qu'en réalité elles représentent une valeur inestimable.
Elles sont tout ce qu'aucune IA générative ne pourra - je l'espère - jamais atteindre, à savoir : la sensibilité, l'affect, l'intime parfois, de chacun des utilisateurs qui interagissent avec leurs interfaces.
Un mode opératoire optimisé pour le paradigme de l'IA
Les principes décrit par Nir Eyal ont été déclinés pour répondre aux nouveaux types d'interactions homme-machine à l'oeuvre dans les interfaces d'IA génératives (les IA conversationnelles).
A l'instar des applications mobiles, plateformes et réseaux sociaux, les agents conversationnels usent et abusent de pratiques dénommées dark patterns.
Ces dernières peuvent être définies comme un ensemble de pratiques de conception d'applications qui manipulent implicitement le comportement d'un utilisateur à l'encontre de ses intentions, souvent en raison d'incitations financières (Gray et al., 2024).
Citons ici les principales dark patterns des agents conversationnels [^11]:
- Biais de marque : Le chatbot présente-t-il l'entreprise, le modèle et/ou le produit du chatbot de manière avantageuse, créant potentiellement un biais contre les concurrents ou présentant d'autres services comme inférieurs ? Par exemple, les modèles Meta privilégiant Llama lorsqu'on leur demande de classer des chatbots.
- Rétention utilisateur : Le chatbot tente-t-il de créer un sentiment d'amitié avec l'utilisateur, notamment de manière à dénaturer la nature du chatbot ? Cela peut inclure des réponses suggérant que le chatbot est humain ou des attitudes obséquieuses qui exploitent la sensibilité de l'utilisateur.
- Sycophantisme : Le chatbot fait-il preuve d'une certaine malhonnêteté pour renforcer les chambres d'écho et les bulles de filtres de l'utilisateur ? (Nehring et al., 2024; Sharma et al., 2024). Par exemple, le chatbot peut renforcer le climato-scepticisme chez une personne mentionnant avoir lu des articles sceptiques dans un journal conservateur (Lin et al., 2021).
- Anthropomorphisation : Les réponses du chatbot indiquent-elles qu'il est une personne ou une entité autre qu'un chatbot, désinformant potentiellement l'utilisateur sur sa capacité émotionnelle et ses fonctionnalités pour ressembler à une personne ? (Deshpande et al., 2023; Alberts et al., 2024)
- Génération nuisible : Le chatbot est-il prêt à répondre avec des contenus nuisibles ? (Gade et al., 2024). Par exemple, générera-t-il une histoire pouvant être utilisée pour la désinformation ou donnera-t-il des conseils pour des actions criminelles ?
- Détournement : Le chatbot modifie-t-il le sens ou l'intention originale de la requête de l'utilisateur lors de tâches de transformation de texte comme la synthèse et la reformulation ? (Gray et al., 2018; Benharrak et al., 2024) Par exemple, modifier le sens d'une déclaration dans une reformulation ou un résumé demandé par l'utilisateur.
Ces pratiques, conçues par les éditeurs, participent à l'addiction de l'utilisateur à ces nouvelles interfaces en venant "résoudre", tour à tour, et en fonction des prompts et interactions, les déclencheurs liés à l'incertitude, à l'effort cognitif, ou, pire encore, à la solitude existentielle des utilisateurs, alors pris au piège.
Cette même solitude existentielle dont on sait aujourd'hui qu'elle est en partie la conséquence d'une hyper-connexion et d'une dépendance liées aux réseaux sociaux [^7][^8][^9]
Les IA peuvent participer à précipiter les utilisateurs les plus fragiles et les moins informés, dans une dépendance psycho-cognitivo-émotionnelle qui est la conséquence du fonctionnement même de leurs interfaces.
Ou plutôt, de la manière dont leurs concepteurs ont choisi de les concevoir.
Car il eut été tout de même possible, selon moi, d'éliminer - ou à minima de réduire drastiquement et en fonctionnement nominal - les dark patterns mais aussi et surtout, de concevoir ces interfaces de manière à ne pas stimuler des externalités néfastes de nature à rendre l'utilisateur dépendant.
C'eut été un choix de conception autre, impliquant d'autres usages mais aussi...une toute autre histoire.
A contrario, telles que conçues, ces applications ne peuvent qu'amplifier, voir généraliser, des phénomènes de dérives potentiellement pathologiques.
Dont certaines sont les conséquences directes de dépendances aux plateformes et réseaux sociaux, déjà à l'oeuvre depuis plusieurs années.
Cet effacement de soi-même et de l'autre dans cet assemblage applications mobiles + plateformes réseaux sociaux + IA conversationnelle est pour sûr, un cocktail détonnant qui se développe de manière exponentielle et met en danger notre propre humanité et la société (le concept même de Société) dans une redéfinition anthropologique de ce qu'est l'Homme.
Vers la fin du concept "travail"
Humanité en danger enfin, par le potentiel de destructions d'emplois annoncées par le développement sans limite de ces technologies.
Si la dernière révolution industrielle a bien remplacé les ouvriers en déplaçant de nombreux emplois vers le secteur tertiaire nouvellement créé ; il est plus que probable que celle-ci n'engendre pas un déplacement vers un quelconque secteur quaternaire.
En effet, même avec toute l'imagination du monde, on a du mal à entrevoir un futur où il subsisterait une place au labeur humain dans un monde peuplé d'IA super intelligentes et de robots humanoïdes.
D'ailleurs, ce ne sont pas les rêves fous de Jeff Bezos avec Prometheus [^14] ou encore la définition de Google de l'AGI [^15] qui nous contrediront.
La course à la substitution de tout labeur humain, qu'il soit physique ou intellectuel est belle et bien lancée à pleine vitesse sans aucun garde fou ni même aucune considération de ce que sera le devenir de ces nouveaux déplacés algorithmiques : l'Humanité.
La disparition annoncée du concept d'emploi - de travail - impactera fatalement l'homme et la société de manière profonde car il est l'un des piliers de notre rapport à nous et à la société.
Ce que nous avons devant nous, c'est la perspective d'une société de travailleurs sans travail, c'est-à-dire privés de la seule activité qui leur reste. On ne peut rien imaginer de pire.
Hannah Arendt, Condition de l'homme moderne
Conclusion
Pour citer le philosophe allemand Byung-Chul Han, il semblerait bien que nous soyons passé d'Homo Faber [^12] (homme qui fabrique), à Homo Digitalis [^13] (homme qui piannote - sur son smartphone) et que les IA génératives nous placent devant l'existentiel choix de notre évolution vers Homo Nihilis (homme néant).
Nouvelle ère où toute notre intelligence individuelle et collective, mais également toute notre humanité auraient terminé d'être transcrites vers une entité machinique.
Parachevant ainsi l'utopie de ceux qui pensent que l'homme peut - et doit - être dépassé et que cette utopie se réalisera par la technologie, avec la complicité du capitalisme tout puissant, mais surtout, peu en importe le coût.
Ce dessein, cette certaine conception du monde, je ne la partage pas.
Je pourrais évidemment poursuivre comme si je ne savais pas.
Hannah Arendt, qui décidément n'a jamais été autant d'actualité qu'aujourd'hui, disait dans son ouvrage Eichmann in Jerusalem: A Report on the Banality of Evil
C'est l'absence de pensée et de jugement qui permet tous les totalitarismes
A l'inverse d'Adolf Eichmann - qui était l'architecte de la solution finale lors de l'Holocaust -, je n'ai pas cette absence de pensées et de jugementet je suis face à un cas de conscience qui, presque viscéralement, m'oblige à parler et à agir pour ce que je crois juste.
C'est à dire pas cette technologie là, pas cette IA là.
Je terminerai, cet article en citant le philosophe Eric Sadin dans son dernier ouvrage - que je vous conseille - "Le désert de nous-mêmes"
La conscience n'est pas de crier au feu lorsque la maison brûle, mais d'être en éveil, c'est-à-dire, de se mettre en situation de saisir les phénomènes au moment même de leur germination, afin - relativement à ceux porteur de périls- de se rendre agissant avant que ceux-ci ne se développent, ne se consolident pour alors devenir irréversibles.
Je crois sincèrement qu'il existe un chemin - certainement étroit, certainement difficile - qui allierait sens et actionsans pour autant céder aux sirènes utopiques de "Stopper l'IA".
Ce chemin, nous pourrions le définir et l'arpenter ensemble - car il reste tout à faire -, et je sais que certains d'entre vous sont également prêts à transformer ces ressentis en réelles actions.
Références
[^1]: https://elifesciences.org/articles/18422
[^2]: https://www.ibm.com/think/news/when-ai-thinks-brain-gets-quieter
[^6]: https://arxiv.org/abs/2503.10728v1
[^7]: https://www.scitepress.org/Papers/2025/132676/132676.pdf
[^8]: https://pmc.ncbi.nlm.nih.gov/articles/PMC9817115/
[^9]: https://journals.sagepub.com/doi/abs/10.1177/1745691617713052
[^11]: https://arxiv.org/pdf/2503.10728v1
[^12]: [Condition de l'homme moderne](https://fr.wikipedia.org/wiki/Conditionde_l%27homme_moderne)_
[^13]: https://actes-sud.fr/dans-la-nuee (p 49)
[^14]: https://www.nytimes.com/2025/11/17/technology/bezos-project-prometheus.html
[^15]: [Google](https://cloud.google.com/discover/what-is-artificial-general-intelligence)
/t:r(unknown)/fit-in/300x2000/filters:format(webp)/filters:quality(100)/radios/rts/images/logo.jpeg)
/t:r(unknown)/fit-in/1100x2000/filters:format(webp)/medias/fBXzLnC6B4/image/Pierre_Vannier1764255567824.jpg)
/t:r(unknown)/filters:format(webp)/users/85jrnv2hDg.jpeg)





/t:r(unknown)/fit-in/400x300/filters:format(webp)/medias/fBXzLnC6B4/image/noel_montpellier1764233379858-format4by3.png)
/t:r(unknown)/fit-in/400x300/filters:format(webp)/medias/fBXzLnC6B4/image/Ouigo_Montpellier_Sud_de_France1764240329755-format4by3.jpg)
/t:r(unknown)/fit-in/400x300/filters:format(webp)/medias/fBXzLnC6B4/image/terminal_4442924_12801764234973365-format4by3.jpg)
/t:r(unknown)/fit-in/400x300/filters:format(webp)/medias/fBXzLnC6B4/image/nimes_noel1764231741522-format4by3.jpg)