Vous l'avez sans doute compris dans l'article précédent : la grande nouveauté de l'IA, ce n'est pas de pouvoir parler à son ordinateur et l'entendre parler en retour. Ça, c'est presque aussi vieux que la micro-informatique elle-même. Oui, je sais plus personne n'appelle ça comme ça. Mais bon, vous avez l'idée. La vraie nouveauté, c'est que l'ordinateur peut vraiment comprendre le langage des humains. Quiconque n'a pas encore goûté à ChatGPT et consorts ne peut pas comprendre à quel point les cartes ont été rebattues en l'espace d'une paire d'années.
L'ordinateur semble nous comprendre
Avec la sortie de ChatGPT, du chat de Mistral, de Gemini, de Perplexity, de Copilot, de Claude, de Grok (X), de Cohere, de Meta AI, de Lucie (ah non pardon, pas de Lucie), le commun des mortels a découvert ce qui se tramait depuis plusieurs années dans les arrière-boutiques des géants de l'informatique et de quelques jeunes pousses. Après des années de recherches théoriques, les concepts de deep learning et de réseaux de neurones (à retrouver dans notre glossaire en début de série) avaient enfin été traduits en outils réels, grâce à la puissance de centres de serveurs à la puissance inédite.

Avec ces outils, accessibles gratuitement, nous avons pu mettre des mots sur un concept qui nous échappait complètement : celui de l'intelligence artificielle, fantasmée depuis des décennies dans la littérature et le cinéma. Point de sentiment, ni de machines qui rêvent, mais une possibilité complètement folle de discuter de tout et de rien avec ces ramassis de transistors qui occupent nos bureaux et déforment nos poches.
L'impact médiatique de cette révolution a été à la hauteur du bouleversement qu'elle apporte dans le fondement même de l'informatique. On l'a dit en introduction : l'intelligence générative a été rendue possible par les progrès phénoménaux de la puissance de calcul des data centers modernes. Alors qu'on avait tenté à de nombreuses reprises de discuter avec nos ordinateurs, sans grand succès, voilà qu'on oublie tout et qu'on découvre un monde nouveau, où l'ordinateur est capable de nous répondre autre chose que « J'ai trouvé quelques réponses sur le web » ou « Désolé, je ne suis pas capable de vous aider avec ça ».
Résultat : on s'est installés devant les interfaces de discussion, dénommées chatbots (pour chat robots ou robots de conversation), et on a commencé à écrire n'importe quoi. On se demandait même si ChatGPT allait passer l'hiver, mais bon, on essayait quand même, parce que pourquoi pas. Pour voir s'il avait réponse à tout (oui) et s'il disait beaucoup de bêtises (oui aussi, surtout au début).

L'ordinateur reste un ordinateur
Les réseaux de neurones qui animent les modèles de langage cachés derrière les chatbots n'ont en réalité pas grand-chose à voir avec nos cerveaux à nous. Les réseaux informatiques sont composés de dizaines voire de centaines de milliards de paramètres qui sont pris en compte par des millions de « neurones » informatiques, des unités de calculs en réalité très basiques mais dont le nombre et la rapidité fait la force.
En face, on trouve donc notre cerveau. Nos neurones biologiques ont un temps de réaction mille fois plus lent que celui des réseaux de neurones, et le signal qu'ils transmettent est des milliards de fois moins rapide. Mais tous nos neurones (86 milliards tout de même d'après les dernières estimations) s'activent en même temps et chacun d'eux peut établir des connexions avec des milliers d'autres neurones, adapter dynamiquement sa sensibilité, et traiter simultanément des signaux chimiques et électriques.
Notre cerveau n’est pas un simple calculateur statistique : il évolue dans un corps, apprend en interaction avec le monde réel, développe une mémoire multisensorielle et une plasticité synaptique qui échappent totalement aux architectures informatiques actuelles.
Bref, tout ça pour dire que même si l'on a parfois l'impression anthropomorphique de parler avec quelqu'un — ou à tout le moins avec une entité douée d'une forme de raison —, on doit garder en tête que l'on ne fait qu'entrer des paramètres dans une grosse machine qui va nous renvoyer un résultat qu'elle aura calculé. Il n'y a pas plus de compréhension ni de magie dans ChatGPT que dans une calculatrice de base. Et pour obtenir les résultats que l'on espère, il faut donc commencer par entrer les bons paramètres.