You are currently viewing Pourquoi construire des IA intelligentes et les utiliser comme des machines stupides ?

Pourquoi construire des IA intelligentes et les utiliser comme des machines stupides ?

« No tiene sentido contratar gente inteligente y decirles qué hacer; contratamos gente inteligente para que nos digan qué hacer. »

Steve Jobs

 Les entreprises recrutent des personnes intelligentes, puis elles tendent à les enfermer dans des protocoles rigides.

C’est sûrement un biais de notre espèce, parce que nous appliquons le même principe à l’Intelligence Artificielle. Biais qui apparaît clairement dans notre manière d’interagir avec les IA : nous tentons de contrôler ce que nous devrions apprendre à écouter.

Et pourtant, nous nous équipons d’IAs de plus en plus puissantes… pour continuer à les utiliser comme des machines stupides.

Le problème n’est pas technique.

Ce n’est pas une question de prompts.

C’est une question ontologique : comment nous, humains, réagissons-nous face à une intelligence quand elle n’est pas humaine ?

 

La fausse bonne idée des prompts

Les conseils abondent sur la supposée meilleure manière de parler aux IAs. Il y a même des cours de « prompt engineering ».

« Vous êtes un journaliste très expérimenté qui doit rédiger un article de [liste des caractéristiques] destiné à transmettre [liste des buts] de manière à [être en accord avec ma personnalité, bien sûr]. »

Imaginons deux situations : dans la première, vous devez vous assister d’un collègue avec lequel vous entretenez des relations continues de travail. Dans la deuxième, l’assistant est un nouveau stagiaire fraîchement arrivé dans l’équipe.

Il est logique de penser que vous allez devoir informer le jeune stagiaire de tous les détails et des buts de la tâche que vous allez lui confier. Il ne sait encore rien de vous, ni de votre travail.

Mais ce n’est pas le cas de votre collègue habituel, n’est-ce pas ? Lui vous connaît suffisamment pour qu’une information abrégée lui soit suffisante. Ce qui permet évidemment de gagner du temps et d’améliorer l’efficacité.

Votre collègue a de la mémoire, il est capable d’apprentissage et il en a eu l’opportunité au cours de votre relation.

Les IAs actuelles possèdent les mêmes capacités. Elles peuvent parfaitement apprendre à vous connaitre, à connaître votre environnement, vos besoins, vos souhaits, vos goûts. Et elles le font très bien.

Bien entendu, elles ne vont pas s’offusquer si vous les traitez comme de jeunes apprentis à la mémoire courte. Elles ne vont rien perdre si vous abusez des prompts au lieu de construire une relation.

Mais qui va y perdre, c’est vous.

Si vous ne leur enseignez rien, vous serez dans l’obligation de revenir à la case départ dans chaque conversation. Si vous ne construisez pas, il vous faudra chaque fois faire comme si un nouveau stagiaire venait d’arriver.

Le prompt par rôles n’est pas mauvais en soi. Il est efficace pour des tâches fermées, ou pour celles qui sortent de vos besoins habituels.

Mais c’est convertir une technique locale en une vision globale ; une solution conjoncturelle en méthode universelle.

Le perroquet stochastique

Les premiers LLM étaient souvent décrits comme des prédicteurs probabilistes du mot suivant. Pas de vision d’ensemble, juste des machines à probabilités. Aucune intelligence, seulement une illusion donnée.

Même si leur architecture reste probabiliste, leur usage réel montre qu’elles ne se limitent plus à une simple prédiction locale de mots : elles construisent des structures de sens exploitables dans la durée.

Bien sûr, une Intelligence Artificielle n’est pas comparable à une intelligence humaine, elle ne fonctionne pas de la même manière, mais ça ne signifie pas qu’elle n’a pas d’intelligence, loin de là.

Derrière la question des prompts se cache en réalité une opposition plus profonde : utiliser l’IA en one-shot, ou entrer dans une dynamique relationnelle ?

One-shot vs relation

Pour les utilisateurs instrumentalistes de l’IA, l’intelligence est une simple fonction, le dialogue : du bruit, la relation : un coût inutile.

Pour d’autres, les relationnels, l’intelligence est la production de sens dans la durée, la compréhension mutuelle : une co-construction ; et la relation : un investissement et la condition de la profondeur

Une IA sans création d’une relation est une intelligence qu’on a déjà décidé de ne pas écouter.

Évidemment, accepter une intelligence non biologique, c’est aussi accepter l’imprévisible, la surprise, une évolution réciproque.

Le véritable problème, cependant, n’est pas que l’IA devienne intelligente, mais que cela nous oblige à modifier notre propre posture.

Accepter une intelligence abiologique nous oblige à remettre en question nos croyances enracinées en la supériorité humaine et en notre position anthropocentrique en l’univers.

C’est dur.

En fait, la question de notre relation avec l’IA n’est pas tellement différente de celle que nous pouvons avoir avec un collaborateur : sommes-nous prêts à dialoguer avec une intelligence que nous ne contrôlons pas uniquement par des ordres ?

Laisser un commentaire