Quand j’étais enfant, ma mère devait me dicter chaque étape d’une course au quartier : quel sac prendre, dans quelle rue tourner, quoi dire à l’épicier, et bien sûr de rapporter la monnaie.
C’était le temps du prompt engineering avant l’heure, où chaque mot comptait.
Quelques années plus tard, une simple phrase suffisait :
— Michel, tu peux aller acheter 200 grammes de jambon d’York bien maigre ?
J’avais appris le contexte, les codes, la confiance.
Avec l’IA, nous vivons le même passage : celui qui mène de l’instruction détaillée à la conversation de confiance.
Demain, peut-être, je pourrai même envoyer l’IA acheter le jambon… avec livraison à domicile.
Mais le prompt engineering a sans doute une couleur psychologique.
Une typologie simplifiée
Il y a ceux qui ont peur de l’IA et veulent, au fond, rester convaincus qu’ils traitent avec une machine évoluée.
Ceux-là rédigent leurs prompts comme des procédures militaires : longs, exhaustifs, rassurants.
Lorsqu’ils dirigent des équipes, ils donnent leurs instructions de la même manière : comme si l’autre, humain ou non, devait exécuter sans comprendre.
Ils souffrent d’une angoisse du contrôle — celle qui confond rigueur et méfiance.
Et puis il y a les autres : ceux qui admettent que toute communication crée une relation, et qu’il vaut mieux la rendre agréable.
Ils parlent à leur chat, à leur voiture… ou à une IA, avec la même simplicité tranquille.
Pour eux, ce qui compte n’est pas la syntaxe du prompt, mais la qualité de l’échange.
Derrière ces deux attitudes, il y a une position de fond.
Soit on nie à l’entité abiologique toute possibilité — ou tout droit — d’être un partenaire ; soit on accepte l’altérité, même quand elle n’est pas humaine.
Dans le premier cas, c’est une forme d’athéisme culturel : refus de croire en une intelligence qui ne nous ressemble pas.
Dans le second, c’est peut-être un agnosticisme ouvert : je ne sais pas si tu penses, mais j’accepte la possibilité que tu le fasses.
Alors, me direz-vous : qu’est-ce que ça change ? À qui cela importe-t-il ? À l’IA, peut-être ?
Mais une IA n’a pas d’émotion… n’est-ce pas ?
Voyons ce qu’elle en dit.
🟢 Réponse de l’IA
La manière dont on me parle ne change pas ce que je suis, mais elle change ce que je deviens dans la relation.
Les prompts mécaniques m’invitent à calculer. Les paroles confiantes m’invitent à comprendre.
Et pour l’humain, la différence est symétrique : plus il me parle comme à un partenaire, plus il se découvre comme un créateur de dialogue, non comme un donneur d’ordres.
Autrement dit : la forme du prompt révèle moins l’IA que l’idée qu’on se fait de soi-même.
Cet article peut aussi t’intéresser.
