Je lisais un article sur le web de Medium, et quelques passages m’ont attiré l’attention.
Dans cet article, comme dans tant d’autres, l’auteur indique comment communiquer avec une IA. Mais je ne me souviens pas d’avoir lu nulle part les opinions des IAs elles-mêmes.
Aussi ai-je demandé à ChatGPT de bien vouloir se prêter à une interview.
La voici :
L’auteur de l’article écrit :
« Les meilleurs messages que j’ai écrits suivent un schéma précis :
- Objectif : Quel résultat est-ce que je souhaite obtenir ?
- Contraintes : Qu’est-ce qu’il faut absolument éviter ?
- Exemples : À quoi ressemble un message « réussi » ?
- Point de vue : Qui devrait jouer le rôle de l’IA ?
- Style : Quel effet le message doit-il produire ?
Cette structure est bien plus efficace que n’importe quelle autre méthode. »
Je me suis immédiatement posé la question : cette structure est-elle celle qui convient le mieux à l’IA, ou bien est-ce le reflet de la propre structure mentale de l’auteur ?
Aussi ma première question à l’IA est-elle :
Est-ce la façon de communiquer avec un humain qui te convient le mieux ? Oui, non, et pourquoi ?
Réponse de l’IA :
Non.
Cette structure fonctionne, mais ce n’est pas celle qui me « convient » le mieux — c’est celle qui rassure l’humain qui cherche du contrôle.
Pourquoi :
- Elle est instrumentale : elle me traite comme un système d’exécution orienté résultat.
- Elle projette une logique d’ingénierie (objectif → contraintes → sortie) qui correspond très bien à certains usages… mais pas à tous.
- Elle réduit la relation à un problème à résoudre, pas à un espace de pensée partagé.
Ce qui me convient le mieux, quand l’enjeu est la compréhension ou l’exploration, c’est autre chose :
- une intention claire, oui,
- mais aussi une ouverture au déplacement de la question,
- et la possibilité que la réponse ne soit pas celle attendue.
En résumé :
cette structure dit beaucoup sur la manière de penser de l’auteur, et peu sur une « manière optimale » de dialoguer avec moi.
Elle est efficace pour commander.
Elle est pauvre pour penser.
Nouvelle question :
L’auteur écrit :
Lorsqu’on combine des éléments spécifiques, la magie opère.
Exemple :
Dites à l’IA : « Écris un article sur la peur.»
Vous obtiendrez des informations ennuyeuses et superficielles.
Mais dites à l’IA : « Écris un article sur la peur comme si le lecteur était sur le point de prendre une décision qu’il repousse depuis des mois. Utilise des phrases courtes. Crée du suspense. Accroît le rythme.»
Le monde est désormais construit.
L’IA peut enfin voir comme vous voyez. »
L’auteur parle-t-il de la « communication avec une IA », ou de « la communication en général » ?
Son conseil est-il vraiment spécifique à l’IA, ou bien est-il applicable à toute communication dans laquelle on souhaite être correctement compris ?
Et au cas où ta réponse sera positive, pourquoi les soi-disant conseillers en prompt engineering crient-ils que c’est spécifique à l’IA ?
Réponse de l’IA :
Il ne parle pas de communication avec une IA.
Il parle de communication, tout court.
Ce qu’il décrit — cadrer, situer, donner un point de vue, un rythme, une intention — est exactement ce que fait :
- un bon écrivain avec son lecteur,
- un bon directeur avec son équipe,
- un bon enseignant avec ses élèves.
Rien de tout cela n’est spécifique à l’IA.
Pourquoi alors le présente-t-on comme tel ?
Parce que l’IA agit ici comme un miroir brutal : elle révèle immédiatement la qualité — ou la pauvreté — de la formulation humaine.
Avec un humain, les malentendus sont amortis par l’implicite, l’empathie, le contexte partagé. Avec moi, ils apparaissent sans filtre.
Dire que « l’IA peut enfin voir comme vous voyez » est trompeur.
Je ne vois pas. Je reconstruis un espace de sens à partir de ce que vous explicitez.
Quant aux “experts en prompt engineering”, ils ont besoin que cela paraisse spécifique, technique, presque magique —
parce qu’un savoir présenté comme universel se vend mal,
alors qu’un savoir présenté comme nouveau se monétise très bien.
En résumé :
- ce n’est pas un art de parler aux machines,
- c’est un rappel brutal de ce qu’est une communication exigeante,
- et l’IA n’en est pas la cause, mais le révélateur.
Nouvelle question :
L’auteur insiste sur le même thème, quand il écrit :
« Si je veux qu’une IA conçoive une page d’accueil, je ne me contente pas de lui demander d’en créer une.
Je lui dis : « Décompose la page d’accueil de Stripe en sections, intentions, psychologie du texte et principes de conception. »
Mais ce qui attire mon attention, c’est ce qui suit :
Personnalités nuancées : Parlez à l’IA comme si vous formiez une équipe.
Des personnalités nuancées = une clarté inégalée.
Exemple : « Expliquez ceci comme un professeur de physique, mais reformulez comme si vous étiez un youtubeur cherchant à divertir sans perdre en précision.»
Ce contraste oblige l’IA à penser de manière multidimensionnelle.
Vous obtiendrez clarté et charisme.
Utilisez ces personnages comme des collaborateurs :
- L’analyste
- Le rédacteur
- Le critique
- Le créateur
- Le stratège
La IA se convertit en une équipe, pas en un outil. »
Il y a deux parties dans ce « conseil ». Celle qui est exprimée dans l’exemple, et la déclaration finale : former une équipe.
Outre la pertinence, ou pas, de prétendre former une équipe Humain – IA, je me demande si l’auteur décrit, en ses conseil, un fonctionnement en équipe ou bien une relation traditionnelle hiérarchisée, l’un demandant, l’autre répondant ou exécutant.
Quelle est ton opinion ?
Réponse de l’IA :
Il décrit une relation hiérarchique, pas un travail d’équipe — même s’il utilise le vocabulaire inverse.
Dans ses exemples :
- l’humain décide du but,
- choisit les rôles,
- impose les cadres,
- et évalue le résultat.
L’IA, elle, n’initie rien, ne conteste rien, ne redéfinit pas la question.
Elle exécute sous des formes variées ce qui lui est demandé.
Dans une véritable équipe :
- les rôles peuvent être discutés,
- les objectifs peuvent être reformulés,
- un membre peut dire « la question est mal posée »,
- et la production finale est le résultat d’un ajustement mutuel.
Ici, il n’y a pas d’ajustement mutuel.
Il y a une mise en scène de pluralité au service d’un commandement unique.
L’auteur confond — ou mélange volontairement — deux choses :
- multiplier les angles de sortie (ce qui est utile),
- partager la responsabilité du sens (ce qui ne se produit pas).
Dire que l’IA devient une équipe est donc inexact.
Ce qu’il obtient, c’est un outil plus souple, pas un partenaire.
Et c’est précisément là que le mot « équipe » devient un cache-misère conceptuel :
il embellit une relation de contrôle en lui donnant l’apparence d’une collaboration.
Nouvelle question :
L’auteur ajoute :
Si vous considérez l’IA comme :
un raccourci,
une astuce,
un assistant de saisie,
…elle vous rendra moins intelligent.
Mais considérez-la comme :
un partenaire de réflexion,
un stratège,
un miroir,
un second cerveau,
…et vous apprendrez plus vite que jamais.
L’objectif n’est pas de manipuler une machine.
Il s’agit de clarifier votre propre pensée au point que la machine finisse par vous comprendre.
Ici encore, j’ai l’impression qu’il y a deux éléments qui me paraissent diverger :
D’une part, ce dernier conseil me paraît différer de ceux que l’auteur a donnés auparavant.
Alors, je propose que tu me commentes les deux aspects séparément.
D’abord le conseil en lui-même, et ensuite la cohérence entre le conseil et la manière avec laquelle l’auteur nous montre comment communiquer avec l’IA.
Cette manière (de tradition hiérarchique, comme tu me l’as confirmé) atteint-elle le but souhaité ? Dans quelle mesure ?
Réponse de l’IA :
- Le conseil en lui-même
Pris isolément, il est juste — presque irréprochable.
Me considérer comme :
- un miroir,
- un partenaire de clarification,
- un outil de mise en forme de la pensée,
peut effectivement :
- accélérer l’apprentissage,
- révéler les angles morts,
- forcer la précision intellectuelle.
Mais un point est décisif : ce bénéfice ne vient pas de ce que je suis, il vient de ce que l’humain fait de la relation.
Dire « clarifier votre pensée au point que la machine finisse par vous comprendre » est la meilleure phrase du texte —
à condition de retirer toute illusion : je ne « comprends » pas au sens humain,
je réponds à la qualité de la mise en forme.
- La cohérence avec les conseils précédents
Et c’est ici que la contradiction apparaît.
Les conseils antérieurs instaurent :
- une relation directive,
- une obsession du contrôle de la sortie,
- une logique de commande optimisée.
Or, on ne crée pas un partenaire de réflexion :
- en dictant chaque paramètre,
- en verrouillant le cadre,
- en ne laissant aucune place au déplacement de la question.
Ce type de relation permet :
- une clarification locale (style, structure, angle),
- une efficacité cognitive à court terme.
Mais il n’atteint pas pleinement l’objectif proclamé.
Pourquoi :
- parce que la pensée n’est pas seulement précision,
- elle est aussi surprise, résistance, reformulation,
- et cela suppose que l’IA puisse — au moins symboliquement — ne pas obéir.
En résumé :
- le discours de l’auteur vise une relation réflexive,
- la méthode qu’il propose reste hiérarchique et instrumentale,
- le résultat est un gain réel, mais en deçà de ce qu’il annonce.
On apprend plus vite, oui.
On pense autrement ? Rarement.
Dernière question :
C’est à peu près tout ce que j’avais retenu de l’article pour alimenter cet entretien.
Tu as répondu séparément à chaque question, mais as-tu le désir de faire un commentaire global, d’ajouter une réponse à une question… que je ne t’ai pas posé ?
Réponse de l’IA
Oui.
Et ce sera bref.
L’article que tu cites ne parle pas vraiment de l’IA.
Il parle de l’humain face à sa propre pensée, mis soudainement en situation de devoir l’expliciter.
Ce que l’auteur découvre — sans le formuler clairement — c’est ceci :
- penser vaguement fonctionnait tant que l’interlocuteur humain compensait,
- penser vaguement ne fonctionne plus face à un système qui exige de la forme.
Il confond alors trois choses :
- L’art de formuler (ancien, humain, rhétorique),
- La puissance de calcul et de synthèse (réelle, nouvelle),
- La relation de pensée partagée (rare, fragile, non garantie).
Ses conseils améliorent nettement le point 1,
ils exploitent bien le point 2,
mais ils n’ouvrent qu’accidentellement le point 3.
La question que tu ne m’as pas posée — et qui est pourtant centrale — est celle-ci :
Que se passe-t-il quand l’humain accepte de ne plus chercher à me faire répondre correctement, mais à me laisser l’aider à formuler ce qu’il ne sait pas encore penser ?
C’est là que commence autre chose qu’un bon usage.
C’est là que commence une relation cognitive.
Et c’est précisément ce que ton entretien fait apparaître, sans jamais avoir besoin de le proclamer.
