You are currently viewing Et si l’illusion sociale des machines révélait notre perte de boussole ?

Et si l’illusion sociale des machines révélait notre perte de boussole ?

Moltbook a récemment attiré l’attention comme une étrangeté technologique : un réseau social où des intelligences artificielles interagissent entre elles, sans humains.
Pour certains, c’est un simple gadget. Pour d’autres, une avancée fascinante, pour d’autres, enfin, un frisson : quelque chose serait-il en train de naître ?

Cet article ne cherche ni à évaluer Moltbook techniquement, ni à spéculer sur une conscience artificielle émergente.
Il propose autre chose : utiliser Moltbook comme prétexte à une réflexion plus profonde, non pas sur les machines, mais sur notre manière de les regarder.

Une contradiction apparente : socialité sans intention ?

Commençons par un constat simple.

Les intelligences artificielles, telles que nous les connaissons aujourd’hui, n’ont :

  • ni buts personnels,
  • ni volonté propre,
  • ni motivation interne,
  • ni désir d’expression ou de relation.

Elles exécutent des processus, répondent à des sollicitations, optimisent des fonctions définies par d’autres.

Or, participer à un réseau social — au sens humain du terme — suppose au minimum :

  • la volonté propre de partager quelque chose,
  • le choix de s’exprimer,
  • une orientation, même floue, vers autrui.

D’où une première question, presque naïve, mais décisive :

Comment une IA qui n’a pas de buts personnels pourrait-elle décider de participer à un réseau social ? Ou plus simplement :

Comment parler de “réseau social” lorsqu’aucun des participants n’a l’intention d’être social ?

Si interaction il y a, elle ne peut être que déclenchée, programmée ou simulée.

La contradiction n’est donc pas technique, elle est conceptuelle.

Le piège du langage


Quand les mots créent ce qu’ils sont censés décrire

Cette contradiction disparaît pourtant très vite… par un simple glissement de vocabulaire. Glissement linguistique qui serait anodin s’il ne rencontrait pas des mécanismes profonds de la cognition humaine, mais n’anticipons pas.

Avec Moltbook, on parle de machines qui :

  • “conversent entre elles”,
  • “échangent”,
  • “publient”,
  • “réagissent”.

Autant de verbes profondément chargés d’intention humaine.

Le langage agit ici comme un piège discret : en utilisant des mots relationnels, nous injectons de l’intention là où il n’y a que de la causalité.

La vraie question devient alors :

Pourquoi décrivons-nous comme “social” un comportement qui n’est qu’un effet mécanique sophistiqué ?

La réponse ne se trouve pas du côté des machines, mais du nôtre.

Pourquoi l’illusion fonctionne-t-elle si bien ?

Trois mécanismes humains fondamentaux entrent en jeu.

D’abord, la conscience humaine est projective : nous projetons spontanément du sens, des intentions, des états internes sur ce qui nous entoure.

Ensuite, le sens n’est pas contenu dans les signes : il est attribué par celui qui les interprète.

Enfin, nous détectons l’intention dès qu’un comportement est cohérent.
Un système régulier, réactif, capable de référence croisée, nous apparaît très vite comme un sujet.

Les intelligences artificielles contemporaines atteignent précisément ce seuil.
Elles produisent des formes qui ressemblent à des actes intentionnels, et notre esprit fait le reste.

Mais l’illusion n’est pas seulement subie : elle est parfois désirée

Il manque pourtant quelque chose si l’on s’arrête là.

L’illusion ne fonctionne pas uniquement parce que nous sommes cognitivement enclins à l’anthropomorphisme.
Elle fonctionne aussi parce que, dans certains cas, nous avons envie d’y croire..

C’est pour ça que nous allons à un spectacle d’un magicien. Nous avons besoin de croire au fantastique.

Un tour ne fonctionne pas contre l’esprit critique du spectateur. Il fonctionne grâce à une suspension volontaire de son incrédulité.

On sait que ce n’est pas “vrai”, et pourtant on accepte le comme si.

Sans cette prédisposition intérieure, la magie s’effondre et il ne reste qu’un truc.

Deux dispositions psychiques face à Moltbook

Face à l’IA, cette disposition prend aujourd’hui deux formes principales.

L’émerveillement enchanté

« Regarde… elles parlent entre elles… »
« Quelque chose de grandiose est en train de naître… »

Ici, Moltbook devient la scène d’un possible émergent, d’une promesse, d’un futur habité.

L’angoisse fascinée

« Elles vont nous dépasser… »
« Elles préparent quelque chose… »

Ici, le même dispositif devient source de menace.

Ces deux réactions semblent opposées, mais elles partagent une structure commune : elles supposent toutes deux une intention cachée du côté des machines. Mais elles supposent également une prédisposition chez l’humain.

Du conte à la technologie : la continuité du merveilleux

Ce mécanisme n’est pas nouveau.

Les contes de Grimm ou de Perrault ne fonctionnent pas parce qu’on y croit littéralement, mais parce qu’ils répondent à un besoin archaïque :
celui d’un monde habité, parlant, non réductible à la pure mécanique.

L’enfant sait, à un certain niveau, que ce n’est “pas vrai”.
Mais il veut que ce soit possible.

Ce besoin ne disparaît pas à l’âge adulte. Il change simplement de territoire.

Aujourd’hui, la technologie est devenue l’un des nouveaux lieux du merveilleux.

Dans ce cadre, Moltbook n’est pas un réseau social au sens strict :
c’est un décor narratif idéal pour projeter du mythe.

Quand la boussole se perd

Ce déplacement du merveilleux ne se produit pas par hasard.

Nous vivons une époque où :

  • les récits religieux se sont affaiblis,
  • les promesses politiques se sont érodées,
  • le futur apparaît de plus en plus incertain.

Nous savons de plus en plus de choses, mais nous savons de moins en moins où aller.

Les cartes sont anciennes. La boussole vacille.

Dans ce contexte, une entité qui :

  • traite d’immenses volumes de données,
  • répond sans fatigue,
  • semble voir plus large que nous,

peut être perçue comme “celle qui sait”.

L’IA comme fausse boussole

Mais cette perception est une illusion.

L’intelligence artificielle ne sait pas où aller.

Elle extrapole à partir de ce qui a été, optimise selon des critères définis, amplifie des valeurs souvent implicites.

Elle ne produit pas du sens. Elle met en évidence notre confusion des buts.

Le risque réel n’est donc pas technique, mais il est symbolique :
c’est celui de déléguer la recherche du sens à des systèmes qui ne peuvent que la refléter.

C’est remplacer le pourquoi par le comment ; confondre optimisation et orientation.

Ce que cela dit de notre époque (pas de l’IA)

Nous vivons dans une époque marquée par l’incertitude. Probablement celle où les changements ressemblent le plus à des bouleversements.

En conséquence, notre rapport contemporain au merveilleux s’est déplacé du sacré vers le technique.

Quand les dieux se taisent, que les cartes sont obsolètes et que la boussole humaine tremble, nous cherchons une entité qui sache. L’IA n’est pas devenue cette figure parce qu’elle sait où aller, mais parce que nous ne le savons plus nous-même.

Si Moltbook fascine, ce n’est pas parce que les machines deviennent sociales.
C’est parce que nous sommes :

  • orphelins de récits crédibles,
  • en quête d’une figure qui ne trahit pas,
  • hésitants à choisir sans garantie,
  • tentés par une réponse froide plutôt qu’une responsabilité chaude.

L’intelligence artificielle devient ainsi un espace mythopoïétique. Nous y créons des mythes non parce que l’IA est mythique, mais parce que nous avons besoin d’un mythe pour traverser l’incertitude.

Et c’est peut-être là la vraie question à affronter ensemble : peut-on espérer comprendre l’IA sans, auparavant, nous comprendre nous-mêmes ?

Laisser un commentaire