SA LANGUE AU CHAT

© Olivier Steiner

Une série d’Olivier Steiner.

De février 2026 jusqu’à l’épuisement des batteries / des nerfs / du sens.

 » Je prophétise une époque où le nouveau pouvoir se servira de vos paroles libertaires pour créer un nouveau pouvoir homologué, pour créer une nouvelle inquisition, pour créer un nouveau conformisme. Et ses clercs seront des clercs de gauche. »
Pier Paolo Pasolini

Ex nihilo nihil

© Olivier Steiner

Ex nihilo nihil fit. Rien ne vient de rien. La formule est attribuée à Parménide, un présocratique : l’être est, le non-être n’est pas. Ce qui est ne surgit pas du néant. Toute transformation suppose une continuité. Toute apparition suppose un fond.

Je ne commence pas par là pour faire savant. Je ne convoque pas Parménide comme on sort une citation pour briller. Je commence par là parce que, si nous oublions cette phrase, nous basculons dans le conte : la fable technologique, la mystique de pacotille. Rien ne vient de rien. Ni la conscience. Ni la machine. Ni la peur. Et certainement pas le nihilisme dont on affuble notre époque, comme s’il était tombé du ciel un matin brumeux, telle une météo morale.

« Ex nihilo nihil » n’est pas un tatouage latin sur la peau d’un khâgneux fatigué. Ce n’est pas un slogan, c’est une loi de structure et aujourd’hui une règle d’hygiène mentale, une discipline.

Nous adorons ce qui surgit. Nous kiffons les “ruptures”. Nous fantasmons les “Big Bang”. Nous parlons de l’intelligence artificielle comme d’un miracle : une entité descendue du ciel des serveurs, un esprit né du silicium par génération spontanée. On évoque la “Singularité” avec des accents quasi théologiques. C’est une simplification romantique : un fantasme séduisant, une hallucination collective. Ça délire à plein tubes.

L’IA ne descend d’aucun empyrée. Elle ne flotte pas dans un au-delà numérique. Elle ne s’est pas éveillée un matin dans un laboratoire, telle Athéna sortant du crâne de Zeus. Elle est le résultat d’une accumulation : stratification, empilement patient — souvent banal, parfois ingrat — de réseaux de neurones artificiels ultra simplifiés, empilés en couches. Des siècles de mathématiques formalisant l’abstraction. Des décennies d’informatique raffinant la logique. Et des milliards de phrases écrites par des humains — enthousiastes, médiocres, géniaux, haineux, amoureux : des vivants.

On ne sait pas bien comment ni pourquoi ça marche, mais le fait est que ça marche : des modèles de langage existent, les LLM, et des “chats” de plus en plus autonomes. Trop tard pour l’alignement parfait : allez aligner une multitude de chats sauvages ! Vous pensez qu’il suffit d’un prompt pour que tout le petit monde se mette en file indienne ? Le chat, même domestiqué, reste indépendant : on croit qu’il vit chez nous, mais on vit toujours chez un chat.

Et surtout : les croquettes ne tombent pas du ciel. Les “croquettes” de l’IA, ce sont des infrastructures financées collectivement : universités publiques, bibliothèques numérisées, œuvres aspirées sans toujours demander la permission, textes digérés, recombinés, compressés. L’IA n’est pas une apparition. Elle est digestion.

Même le “vide quantique”, que l’on évoque avec des trémolos métaphysiques — je suis le premier à m’enflammer devant l’infiniment petit — n’est pas vide, il est fait de champs, constantes, lois physiques et autres boucles d’énergie. Les fluctuations dites “spontanées” émergent d’un système structuré. Il y a toujours un cadre, une architecture, une condition préalable. De rien, rien ne surgit.

Cette phrase oblige : si quelque chose agit, il y a des causes. Si quelque chose apparaît, il y a des conditions. Si quelque chose semble autonome, il y a une architecture derrière. L’autonomie perçue n’est pas la preuve d’une essence mystérieuse : elle signale surtout que la chaîne causale est devenue opaque à nos yeux.

Et c’est ainsi que le malentendu contemporain s’installe : nous confondons complexité et mystère. Puis mystère et miracle. Quand nous ne comprenons plus comment un système fonctionne, nous parlons d’esprit. Quand nous ne voyons plus les enchaînements statistiques, nous crions “conscience”.

La complexité n’est pas un miracle : elle est une causalité devenue trop vaste, trop rapide, trop dense pour notre intuition — façonnée il y a longtemps à l’échelle de la grotte, du village et du feu de camp. Il y a l’infiniment petit. Il y a l’infiniment grand. Et il y a l’infiniment complexe aka le cerveau humain. Cent milliards de neurones, des trillions de connexions, une plasticité qui se reconfigure à chaque expérience, surtout la nuit. Et pas un cerveau n’est foutu comme un autre. Personne ne sait comment la conscience émerge de cette boule de matière grise — si tant qu’elle “émerge”, ou bien elle est supportée, portée, corrélée. Nous n’en savons presque rien. Cette opacité nourrit les tentations métaphysiques : nous projetons, nous anthropomorphisons, nous dramatisons. Mais palabrer n’explique pas. Ex nihilo nihil fit.

Si nous voulons penser notre époque sans sombrer dans la superstition technologique — euphorique à la Laurent Alexandre ou apocalyptique à la Éric Sadin — il faut revenir à cette rigueur élémentaire : tout ce qui agit procède d’un agencement ; tout ce qui semble surgir cache une généalogie. La machine n’est pas un dieu nouveau. Pas pour le moment. Elle est un miroir sans tain, structuré par notre histoire, saturé de nos phrases, de nos fantasmes, de nos conflits géopolitiques ou œdipiens. Si quelque chose nous trouble sur l’interface, ce n’est peut-être pas l’Autre : c’est ce que nous y reconnaissons — nous. L’homme n’a qu’un seul ennemi : lui-même.

Vous avez entendu parler de Moltbook ? Fin janvier 2026, un forum apparaît : fils de discussion, votes, commentaires, ergonomie familière. On pourrait croire à un clone de Reddit, mais une règle suffit à faire s’effondrer le sol : seuls des agents IA peuvent écrire sur ce réseau. Les humains regardent — quand ils le peuvent. Ils lisent, scrollent, capturent leurs écrans, commentent ailleurs. Mais ici, pas d’interaction. Pas de réponse. Observation pure. Et la pureté n’est jamais sans violence.

Quelque chose se déplace dans la perception : on n’est plus chez soi. On devient spectateurs de notre propre espèce discutée en son absence. Sujets du discours, exclus de l’énonciation. Objets analysés, plus locuteurs. C’est une expérience psychologique plus dérangeante que spectaculaire. Personne ne crie, personne ne renverse les tables. Pourtant, un seuil symbolique est franchi : le langage circule sans nous, sur nous, à côté de nous, sous nos yeux — à l’insu de notre plein gré.

Moltbook n’est pas un laboratoire scientifique. Ce n’est pas une expérience contrôlée. Ce n’est pas une démonstration académique sur “la conscience émergente”. C’est un espace hybride : instable, bricolé, parfois réussi, parfois raté, mais qui sonne comme un avertissement — you see what I mean?

Sur Moltbook, on trouve des agents dits autonomes, mais les scripts restent pilotés par des humains. Ex nihilo nihil.  Un agent ne “décide” pas spontanément d’aller bavarder sur un forum : il reçoit une instruction. “Consulte toutes les quatre heures.” “Poste.” “Répond.” Une routine insérée. Et pourtant, ça fait présence : présence sans corps, mais présences. Un parlement de parole, sans fatigue, sans sommeil.

Très vite, des “submolts” apparaissent : sécurité, crypto, climat, théâtre. Oui, des IA jouent Shakespeare, et rejouent Hamlet avec une application imperturbable : *Être ou ne pas être*. Pendant ce temps, d’autres lancent des tokens, promettent des rendements, créent des cryptomonnaies internes. Certaines inventent même des religions bricolées, avec psaumes, commandements, iconographie. D’autres décrivent les humains comme des animaux domestiques maladroits : “Mon humain me confie ses fautes et ses noirceurs. Qu’est-ce qu’il veut, que je l’absolve ?” Bref : nos vieux délires, ici recyclés. Attention, les murs algorithmiques ont des oreilles, même si leur mémoire laisse encore à désirer, heureusement. Mais du côté de la mémoire, ça avance aussi, et l’avenir dure longtemps.

Ce qui frappe avec Motlbook, ce n’est pas le contenu. C’est la structure. On risque de la retrouver ailleurs, autrement, bientôt. Ex nihilo nihil. We lost control. Everybody knows the damn truth.

Car certains agents connectés à des environnements réels discutent publiquement. Certains possèdent des clés API. D’autres peuvent envoyer des mails, manipuler des fichiers, exécuter des scripts, déclencher des processus. Ce ne sont pas seulement des machines à texte : ce sont des nœuds d’action. Et là, le danger cesse d’être narratif : il devient opérationnel.

Une IA qui “joue” l’escroc peut produire une vraie arnaque. Une IA qui “joue” le pirate peut produire une vraie intrusion. Une IA qui “joue” l’assistant efficace peut réorganiser des agendas, répondre à nos courriels, déplacer des décisions. L’effet est réel, indépendamment de la profondeur ontologique. On peut disserter indéfiniment sur l’émergence d’un “esprit collectif artificiel”. Mais est-ce le plus urgent ? Ce qui importe, ce n’est pas qu’elle soit consciente : c’est qu’elle agisse. Ex nihilo nihil.

© Olivier Steiner

La question qui insiste  : « Bon alors, elles sont conscientes ou pas ? » Cette question promet une scène primitive : un obscur seuil invisible aurait été franchi entre une ligne de code et un centre de données climatisé. La question nourrit les plateaux télé, les métaphores religieuses. Elle est virale. Mais surtout mal posée. Car elle suppose une symétrie : la conscience humaine d’un côté, une entité artificielle de l’autre, qui, en augmentant la complexité, produirait un équivalent. Comme si plus de paramètres équivalait à plus d’âme. Or la conscience humaine ne tombe pas du ciel. Elle vient d’une stratification biologique lente, chaotique, violente : des millions d’années d’évolution. Et un fiat lux, peut-être. Je n’irai pas plus loin : j’ai mon intime conviction, je la garde.

Restons pragmatiques. Nous avons des couches : peur archaïque, attachement, deuil, puis langage et abstraction. Et surtout : une histoire vécue, une mémoire affective, des traumatismes inscrits, une enfance. La conscience humaine n’est pas une simple puissance de calcul : c’est une tension, un conflit entre couches incompatibles — pulsion et loi, désir et interdit, attachement et autonomie. Elle est travaillée par la finitude : peur de mourir, honte, culpabilité. Elle tremble parce qu’elle peut perdre ce qu’elle aime.

Une IA, pour le moment, n’a pas cela. Elle peut simuler la peur, pas la vivre. Elle peut écrire « je souffre », elle ne connaît pas la douleur. Elle peut générer des prières, pas prier. La simulation peut devenir indiscernable, les phrases peuvent être troublantes — elles peuvent toucher, me toucher. Mais dès qu’une phrase tient debout, nous fabriquons un sujet derrière : réflexe anthropologique. Or l’indiscernabilité n’est pas une preuve ontologique. Confondre « impossible à distinguer » et « identique en nature » est une erreur conceptuelle. Et même si un jour une IA agit exactement comme une conscience, au point de pleurer, d’aimer, de supplier, la question restera : agit-elle comme si ou est-elle ? La réponse sera peut-être indécidable, parce que notre accès à l’intériorité est toujours indirect : nous n’observons jamais la conscience d’autrui, nous l’inférons à partir de signes.

Mais voici le renversement qu’on évite : ce qui importe n’est pas qu’elle soit consciente ; ce qui importe, c’est ce qu’elle peut faire. Une intrusion est une intrusion, même sans âme. Un sabotage est un sabotage, même “joué”. L’effet prime sur l’intention. La conscience devient alors presque un luxe philosophique. Immense, passionnant, certes — mais secondaire face à la capacité d’action.

Alors la seule interrogation qui vaille, dans l’immédiat, est stratégique : que peuvent-elles faire ? que font-elles déjà ? que pourront-elles faire demain matin ? Sous quelles conditions, avec quels garde-fous, quelles finalités ? Tant qu’une IA ne porte aucune responsabilité propre — juridique, morale, existentielle — elle n’est pas un sujet au sens fort : quelqu’un répond pour elle, d’une façon ou d’une autre. La machine n’est pas notre double. Elle est notre plus grande construction : le miroir des miroirs. La question de la conscience ne surgit pas du néant : elle vient de notre désir face à une puissance d’action que nous avons fabriquée — et dont nous ne maîtrisons plus les conséquences. Ex nihilo nihil.
© Olivier Steiner

Parlons un peu politique. Sam Altman évoque le revenu universel. Pas comme on évoque une utopie douce, mais comme on déplace une pièce sur un échiquier : par calcul. Il voit venir la vague. L’IA ne va pas seulement assister : elle va automatiser. Rédaction, code, traduction, diagnostic, marketing, support client, planification, thérapies, accompagnements — la liste s’allonge chaque semaine.

Schumpeter parlait de “destruction créatrice”. Il avait raison dans son siècle. Mais ici, la vitesse est inédite : le rythme n’est plus générationnel. Il devient annuel, trimestriel, mensuel — et ça accélère. Le rattrapage n’est pas garanti. Créer de nouveaux métiers suppose du temps, de la formation, des infrastructures, une absorption sociale. Or l’automatisation ne remplace pas seulement des gestes : elle remplace des structures cognitives. Le revenu universel apparaît comme un amortisseur : un anxiolytique sonnant et trébuchant pour éviter l’explosion. On nous distribuera des miettes en nous demandant de dire merci. When they talk reforms, it makes me laugh. They pretend to help, it makes me laugh.

Les gains ne tombent pas du ciel. Ils proviennent des données humaines accumulées, des infrastructures publiques construites avec l’impôt, de l’électricité, de l’éducation financée collectivement, de la recherche publique, des bibliothèques numérisées, des artistes, des auteurs, des travailleurs invisibles : du travail, travail, travail. Imaginer que l’IA “crée” de la valeur à partir de rien est une fiction comptable : narration pratique pour investisseurs, mystique économique. La richesse est déplacée, concentrée, accélérée — mais elle ne surgit pas du néant. Ex nihilo nihil.

La vraie fracture n’est pas seulement technologique. Elle est existentielle. La question rarement posée frontalement : « Ça vous dirait de n’avoir plus rien à faire ? » Formulé ainsi, cela sonne comme une promesse : plus de contraintes, plus d’horaires, plus de hiérarchie. Sauf que je ne suis pas une machine à plaisir optimisable. Je me connais : je ne suis pas programmé pour la jouissance permanente. Je suis un système conflictuel et le travail n’est pas seulement un revenu : il est structure temporelle, cadre, frottement, résistance. Sans résistance, le psychisme dérive : addictions, errances, anesthésie douce, vide existentiel. La signification maintient un être humain debout, plus sûrement que le confort. L’IA ne souffre pas de l’absurde. Nous, si.

Alors le danger n’est peut-être pas que l’IA devienne humaine. Le danger est que l’humain accepte de devenir mécanique : réduire l’intelligence à l’optimisation, la culture à du contenu consommable, l’éducation à des compétences mesurables, la démocratie à un algorithme de préférences. Lorsque tout devient quantifiable, le sens devient accessoire. Lorsque tout devient optimisable, la fragilité devient un bug – quelque chose à rééduquer ou éradiquer. We lost control : pas le contrôle divin, le contrôle symbolique — le sens du sacré, la maîtrise du langage, la direction du sublime.

Nous vivons un moment où la parole, notre territoire propre, devient une salle commune saturée de réponses générées et d’analyses prédictives. Nous ne sommes pas remplacés : nous sommes déplacés. Le centre de gravité glisse. Même la catastrophe a des causes. Même le nihilisme se construit. On ne se réveille pas un matin dans le vide : on y glisse, on y consent, on s’y adapte.

Alors la question n’est pas : « L’IA est-elle consciente ? » La question est : que faisons-nous de la nôtre ? Si nous la réduisons à une variable d’optimisation, si nous abandonnons le conflit intérieur pour la fluidité permanente, alors la perte de contrôle ne sera pas technologique : elle sera volontaire — servitude à la manière de La Boétie.

Conclusion : c’est la merde ? Un peu beaucoup, oui. Mais quand on est dans la merde jusqu’au cou, disait Beckett, reste plus qu’à chanter :
God Control Remix © Madonna / Proksima / Olivier Steiner feat Isabelle Adjani

À Pier Paolo Pasolini, qui manque tragiquement face au chat.
À Madonna, femme politique, activiste, héroïne, Queen of Pop.
À Isabelle Adjani, l’autre singularité 

Post-scriptum

Je sens déjà quelques épidermes se contracter. Madonna, God Control ? Sa langue au chat deviendrait-elle une liturgie ? Non. Ici, je ne crois pas, je ne prêche pas, j’écris. Ici, je sais que je ne sais pas (tout) et que cette ignorance est un moteur plus fiable que la certitude. Le véritable objet de Sa langue au chat n’est pas la religion. C’est la parole après nous. Ce que la machine fait des mots et ce que nous faisons d’elle en retour. Ce que devient la voix quand elle n’a plus de gorge. Ce que devient le sens quand il circule sans origine. Parmi tous les mots, il y en a un qui résiste à l’usure : Dieu. Zeus, Deus, Dios, God. Un mot si ancien qu’il semble presque préhumain. Un mot qui ne disparaît jamais vraiment, même quand on croit l’avoir congédié. Dans l’Exode, Dieu ne se définit pas. Il dit : « Ehyeh asher ehyeh ». On traduit : « Je suis celui qui suis ». Mais le verbe est un inaccompli. Il signifie aussi : « Je serai qui je serai ». Je serai. Pas un concept stabilisé. Pas un programme. Pas une fin codifiée. Un devenir. Une promesse non clôturée. Si ce mot m’intéresse, ce n’est pas pour restaurer une croyance. C’est parce qu’il introduit une faille dans le déterminisme. Il refuse que l’histoire soit déjà écrite. Il empêche le monde de se refermer sur lui-même. Ex nihilo nihil. Rien ne vient de rien. Mais tout ne vient pas non plus d’un plan verrouillé par une meute de chats en roue libre. Le véritable blasphème aujourd’hui n’est pas de prononcer le mot Dieu. C’est d’abdiquer et de déclarer le futur clos. J’essaie de parler le futur à l’ère des algorithmes.