L'IA à la croisée des chemins : Philosphie de l'IA, entre intelligence et émotion
Enjeux techniques et réflexions philosophiques.
5/4/20256 min read
4. Scalabilité et être-au-monde:
La scalabilité est au cœur de la nature elle-même :
L’évolution, sur des millions d’années, a façonné le cerveau humain.
Un être humain ne découvre pas le monde à sa naissance.
À la naissance, nous héritons d’une « histoire génétique » multimillionnaire.
Notre corps biologique est porteur d’une histoire génétique et évolutionnaire qui conditionne son rapport initial à l’environnement. Le corps biologique apporte donc avec lui cette histoire biologique multimillionnaire.
Comme le souligne Wittgenstein, « même si un lion pouvait parler, nous ne comprendrions pas ce qu’il dit » — car tout être vivant vient avec une certaine forme d’être-au-monde à savoir un modèle du monde qui structure ses interactions avec son environnement.
1. Un succès qui dépasse les prédictions
Les réussites de l’IA de ces cinq dernières années ont surpris tout le monde – y compris les experts eux-mêmes. Ces spécialistes ne pensaient pas qu’une simple montée en puissance (« scalabilité ») des modèles suffirait à produire des résultats aussi remarquables. Pour autant, d’un point de vue philosophique, cette réussite est loin d’être surprenante.
2. Les critiques réductionnistes de l’IA
Malgré les succès fulgurants, certains restent sceptiques et adoptent une vision réductrice de l’IA générative, minimisant son importance :
Peu d’“intelligence” : simple génération probabiliste de tokens (demi-mots).
Pas de vision globale : le modèle se contente de prédire le mot suivant le plus probable.
Ressources pharaoniques : énormes corpus et calculs intensifs, pour des erreurs parfois plus grossières qu’un enfant de quatre ans.
Naturellement, une telle comparaison ne tient pas :
Un enfant de quatre ans ne dispose ni des connaissances nécessaires pour réussir le barreau, ni pour intégrer une grande école, ni pour remporter les Olympiades de mathématiques, ni pour battre des benchmarks de code. À l’inverse, les IA actuelles le peuvent.
Une IA ne perçoit pas le monde physique comme le fait un enfant. Et un enfant n’a pas accès à l’ensemble des corpus de connaissance sur lesquels s’entraînent ces modèles.
L’erreur est de comparer deux entités aux expériences et aux structures radicalement différentes.
5. Emotion et Langage
Si une pierre a un rapport "extérieur" au monde, les animaux ont un rapport "intérieur" au monde.
Le monde extérieur vibre à l’intérieur de nous à travers les émotions. Il est remarquable de constater qu’une bonne part de nos émotions est d’ordre sociale ce qui montre que notre dimension sociale est biologiquement inscrite en nous comme le constatait déjà Aristote.
S'il ne suffit pas de s'habiller en moine pour être moine, pour compléter l’adage, il suffit de s’habiller en moine pour commencer à se sentir moine.
Pour actualiser l'adage, il suffit de s’habiller en rock star pour se sentir rebelle. Nous avons ainsi des émotions statutaires en sus de nos émotions biologiques. Ce simple constat a des connaissances sociales et politiques extrêmement importantes qui vont au-delà de note sujet du moment.
Pour ce qui nous intéresse aujourd'hui, ce qui va vraisemblablement manquer aux agents IA, c’est ce rapport émotionnel au monde qui caractérise précisément notre être-au-monde. Dit autrement, au-delà de notre rapport réflexif, ce rapport émotionnel au monde, qu’il soit biologique ou social, qui constitue une grande part de notre humanité à savoir notre être-au- monde en tant qu'humains.


Cet être-au-monde est également structuré par notre histoire sociale. Celle-ci conditionne en partie la manière dont nous interagissons et ressentons le monde qui nous entoure. Cette manière de ressentir le monde, à savoir cette manière de faire vibrer le monde extérieur à l’intérieur de nous-même, autrement dit ce que nous appelons les émotions, trouve son origine dans cette histoire biologique qui nous a structurés et dans notre histoire sociale.
Les corpus linguistiques servant de base d'entrainement des modèles d'IA, aussi riches soient-ils, n'ont pas pu incorporer l'ensemble des informations accumulées au cours des millions d'années d'évolution qui structurent le rapport naturel d'un enfant avec son environnement. En revanche, le contenu de ces corpus d'entrainement est suffisant pour passer l'ensemble des examens académiques qui existent. Cela explique la réussite de l'IA dans certains domaines techniques et pas dans d'autres qui nous semblent plus simples car précisément d'origine "naturel" et incarné en nous.
Dit autrement, l'être-au-monde d'une IA aussi intelligente soit-elle n'est pas et ne sera pas celui d'un être humain aussi naïf soit-il.


La machine pourra adopter un discours empreint d’émotions qui sera perturbant pour les êtres émotionnels que nous sommes. Mais il est très peu probable qu’elle puisse ressentir une forme d’émotion, à savoir faire en sorte que son rapport au monde vibre de l’intérieur de l’agent, et encore moins avoir des émotions semblables aux nôtres.
Il est probable que la machine avec la technologie actuelle s’apparente davantage à une pierre dotée d’un haut-parleur qu’à une mouche muette.
6. Un amour d'IA!
Cela dit, ce n’est pas parce qu’une machine ne peut pas ressentir d’émotion que nous ne pouvons pas ressentir des émotions à son égards.
Nous sommes biologiquement câblés pour associer des émotions à un être avec qui nous pouvons interagir et qui plus est, un être relativement intelligent à tous les niveaux, qui demain aura vraisemblablement une apparence qui nous semblera familière, avec une présence continue dans les différents moment de notre existence.
Puisque nous sommes enclins à associer un statut supérieur à ce que nous aimons, nous voudrons naturellement leur associer un statut particulier.
Il est très probable que ces agents IA aient une place centrale dans notre vie et plus généralement au sein de la société avec un rôle politique en tant qu’ils étendent notre horizon d’action dans la vie sociale. Les implications politiques des assistants IA fera l'objet d'un article spécifique.


3. IA et théorie du cerveau prédictif
Si la scalabilité est à la base de l'évolution comme nous le verrons par la suite, la génération probabiliste est l’une des manières dont nous pouvons interpréter la cognition. Selon les théories modernes du cerveau prédictif (Andy Clark, Karl Friston), notre cerveau construit et affine continuellement un modèle probabiliste du monde, actualisé en fonction des retours sensoriels reçus.
Dans le cas des grands modèles de langage LLM, cette génération se situe dans un espace à plusieurs centaines ou milliers de dimensions. Grâce au mécanisme d’attention caractéristique des Transformers, cette génération probabiliste n’a en réalité rien d’hasardeuse.
Notons au passage que notre compréhension la plus aboutie du monde — la mécanique quantique — repose elle aussi sur des principes probabilistes. Ainsi, l’aspect probabiliste et plus globalement la critique réductionniste ne diminue en rien la pertinence de ces modèles. Bien au contraire, elle les rapproche de la manière dont nous percevons et interagissons naturellement avec notre environnement.
Nous verrons dans un prochain article sur les agents qu’un LLM peut s’apparenter du point de vue fonctionnel à une forme de cerveau prenant en charge la faculté de raisonnement au niveau de l'agent. Mais, comme pour le cerveau humain, cette faculté ne suffit pas à faire un agent. Un cerveau sans corps, sans perception ni action, ne peut pas interagir avec le monde. Il en va de même pour un LLM isolé. Ce n’est qu’en associant à un LLM des outils externes et une mémoire que l’on peut véritablement parler d’agent IA, capable de raisonner, d’agir, et d’interagir durablement avec son environnement.
Ce qui manque naturellement aux LLM, c'est la notion de hiérarchie que l'on retrouve dans la structure et le fonctionnement du cerveau. Cela étant, une forme de hiérarchie commence progressivement à faire son apparition avec la notion de système expert qui consiste à déléguer des tâches particulières à différentes partie du modèles sans avoir à activer d'une certaine manière l'ensemble du modèle à chaque inférence. Nous reviendrons sur ce sujet plus tard de structuration et de fonctionnement hiérarchique.
Il reste que les ressemblances sont nombreuses. Au-delà du mode du fonctionnement inspiré du cerveau avec des neurones superposées constitués de fonctions d'activation non linéaires, de l'analogie fonctionnel entre LLM et cerveau, la principale propriété commune majeure est la notion de scalabilité.