4 - Nos outils4.2 - L'intelligence artificielle

Chapitre 4.2.1
Introduction à l'intelligence artificielle

Un immense sac fourre-tout.
Temps de lecture : 5 minutes


Tout le monde parle d'IA. Dans les médias, en réunion, sur LinkedIn... Les équipes marketing veulent des campagnes "boostées par l'IA". Les équipes produit veulent intégrer de l'IA dans leurs fonctionnalités. Les dirigeants veulent une "stratégie IA".

L'IA divise. Certains se réjouissent des nouvelles possibilités, d'autres s'inquiètent pour leur emploi.

L'IA fait peur. Beaucoup ne peuvent s'empêcher de penser aux IA maléfiques des scénarios hollywoodiens. Les avancées modernes rendent les IA "magiques" et accessibles au grand public. Elles prennent de plus en plus de pouvoir sur les décisions et actions du quotidien. Il devient difficile de distinguer le vrai du faux, l'humain de la machine.

Mais l'IA n'a rien de magique. L'IA ne comprend pas, elle n'a rien d'intelligent au sens humain du terme. Ce n'est qu'un ensemble de fonctions mathématiques, de calculs de probabilités, exécutés par des circuits logiques électroniques.

Le terme "intelligence artificielle" est en réalité un immense sac fourre-tout. Il regroupe des dizaines de disciplines, de techniques et d'approches très différentes les unes des autres. Quand quelqu'un dit "on va utiliser l'IA", c'est un peu comme dire "on va utiliser la médecine" : ça ne dit rien sur ce qu'on va réellement faire. De la chirurgie cardiaque ? De l'homéopathie ? Un scanner ?

Naissance d'un rêve

En 1950, le mathématicien britannique Alan Turing, déjà célèbre pour avoir contribué à casser le code de la machine Enigma pendant la Seconde Guerre mondiale, publie un article fondateur. Il y pose une question simple : une machine peut-elle penser ?

Pour y répondre, il propose un test, aujourd'hui connu sous le nom de "test de Turing" :
Un humain discute par écrit avec deux interlocuteurs cachés, l'un humain, l'autre machine. Si l'humain n'arrive pas à distinguer lequel est la machine, alors on peut considérer que la machine fait preuve d'une forme d'intelligence.

Six ans plus tard, en 1956, une poignée de chercheurs américains se retrouvent à Dartmouth College pour un atelier d'été. En quelques mois, ils souhaitent formaliser les bases d'une science capable de simuler chaque aspect de l'intelligence humaine : apprentissage, raisonnement, créativité... C'est lors de cette conférence que John McCarthy invente officiellement le terme "intelligence artificielle".

L'optimisme est immense. Les chercheurs pensent que le problème sera résolu en une génération.

Les systèmes experts

Dans les années 60 et 70, les premiers programmes d'IA voient le jour. Ils reposent sur une approche simple : des humains codent des règles explicites que la machine applique mécaniquement.

"Si le patient a de la fièvre ET une éruption cutanée, ALORS suspecter la rougeole."

Ces programmes, appelés systèmes experts, reproduisent le raisonnement d'un spécialiste dans un domaine précis. Ils sont développés pour le diagnostic médical, la prospection géologique, la configuration d'ordinateurs... Le plus célèbre, MYCIN, est capable de diagnostiquer des infections bactériennes et de recommander des antibiotiques avec un taux de réussite parfois supérieur à celui des médecins.

Le principe est séduisant : on capture l'expertise humaine sous forme de règles logiques et on laisse la machine les exécuter bien plus vite et sans fatigue.

Mais très vite, les limites apparaissent :

  • La connaissance est figée. Chaque nouvelle règle doit être ajoutée manuellement par un expert humain. Plus le domaine est complexe, plus le nombre de règles explose. Certains systèmes atteignent des dizaines de milliers de règles, devenant impossibles à maintenir et à faire évoluer.
  • Le monde réel est flou. Les systèmes experts raisonnent en noir et blanc : vrai ou faux. Mais la réalité est pleine de nuances, d'exceptions et d'ambiguïtés qu'aucune liste de règles ne peut capturer entièrement.
  • Aucune capacité d'apprentissage. Le système ne s'améliore pas avec l'expérience. Il ne fait qu'appliquer ce qu'on lui a dicté. Si une situation n'est pas prévue par les règles, il est perdu.

Ces limites provoquent une première grande désillusion. Les financements chutent, les promesses non tenues s'accumulent. On entre dans ce que les historiens appellent le premier "hiver de l'IA", une période de scepticisme et de désinvestissement qui durera une bonne partie des années 80.

Le grand sac de l'IA

C'est important de comprendre que l'intelligence artificielle n'est pas une technologie. C'est un objectif : créer des systèmes capables de réaliser des tâches qui, si elles étaient faites par un humain, nécessiteraient de l'intelligence.

Pour atteindre cet objectif, des dizaines d'approches ont été développées au fil des décennies. Les systèmes experts n'en étaient qu'une parmi beaucoup d'autres.

Voici les grandes familles :

  • Le machine learning (apprentissage automatique) : au lieu de coder des règles à la main, on fournit des données à un algorithme et on le laisse trouver les règles par lui-même. C'est le pilier central de l'IA moderne, celui qui a tout changé.
  • Le deep learning (apprentissage profond) : une sous-catégorie du machine learning qui utilise des réseaux de neurones artificiels inspirés du cerveau humain. C'est grâce au deep learning que les machines ont appris à reconnaître des visages, comprendre la parole et traduire des langues.
  • L'IA générative : la révolution récente. Ces systèmes ne se contentent plus d'analyser ou de classer : ils créent du contenu nouveau. Texte, images, code, musique... ChatGPT, Claude, Midjourney, Copilot : ce sont tous des systèmes d'IA générative.
  • Le traitement du langage naturel (NLP) : l'ensemble des techniques permettant aux machines de comprendre, interpréter et générer du langage humain. C'est un domaine transversal qui utilise aujourd'hui massivement le deep learning. Analyse de sentiments sur les avis clients, chatbots, traduction automatique, résumé de documents...
  • La vision par ordinateur (computer vision) : permettre aux machines de "voir" et d'interpréter des images ou des vidéos. Reconnaissance faciale, lecture automatique de documents, détection d'objets dans une vidéo de surveillance, contrôle qualité dans une usine...
  • La robotique : combiner des capteurs, des algorithmes de décision et des actionneurs mécaniques pour créer des machines autonomes. Les robots industriels, les voitures autonomes et les drones de livraison en sont des exemples.
  • Les systèmes de recommandation : des algorithmes qui prédisent ce qui pourrait t'intéresser en fonction de ton comportement passé et de celui d'utilisateurs similaires. Deezer qui te suggère une playlist, Amazon qui affiche "les clients ayant acheté ceci ont aussi acheté"...

Toutes ces familles se recoupent. C'est ce qui rend le sujet si confus, un même produit peut combiner plusieurs de ces approches.

IA faible vs IA forte

Tout ce qui existe aujourd'hui est de l'IA faible (ou IA étroite). Chaque système est conçu pour une tâche précise : jouer aux échecs, reconnaître des visages, générer du texte, conduire une voiture... Un programme qui bat le champion du monde d'échecs est incapable de tenir une conversation. Un chatbot qui rédige des dissertations brillantes ne sait pas reconnaître un chat dans une photo.

L'IA forte (ou intelligence artificielle générale, AGI) serait une machine dotée d'une intelligence comparable à celle d'un humain : capable de comprendre, d'apprendre et de raisonner dans n'importe quel domaine, y compris ceux qu'elle n'a jamais rencontrés.

Malgré les effets d'annonce, personne n'y est parvenu. Les chercheurs ne sont même pas d'accord sur la définition exacte ni sur le fait que ce soit un jour réalisable.

Pourquoi maintenant ?

L'IA existe depuis 1956 mais n'a explosé que récemment. Pourquoi ?

Trois ingrédients étaient nécessaires et ont convergé dans les années 2010 :

  • Les données : Internet, les smartphones et les objets connectés ont créé un déluge de données. Photos, textes, vidéos, clics, achats, trajets GPS... Sans données massives, les algorithmes de machine learning n'ont rien à apprendre. En 2025, l'humanité a produit des centaines de millions de téraoctets de données par jour.
  • La puissance de calcul : les processeurs graphiques (GPU), initialement conçus pour les jeux vidéo, se sont révélés parfaitement adaptés aux calculs parallèles nécessaires au deep learning. NVIDIA, le principal fabricant de GPU, est devenue en quelques années l'une des entreprises les plus valorisées au monde grâce à cette demande.
  • Les algorithmes : des avancées théoriques majeures, notamment l'architecture Transformer publiée en 2017 par des chercheurs de Google, ont permis de créer des modèles bien plus puissants que tout ce qui existait auparavant. C'est cette architecture qui est à la base de ChatGPT, Claude, et de la quasi-totalité des modèles de langage actuels.

La combinaison de ces trois facteurs a provoqué une accélération sans précédent. En 2012, un réseau de neurones gagne pour la première fois un concours de reconnaissance d'images. En 2016, AlphaGo bat le champion du monde de Go, un jeu considéré comme inatteignable pour les machines. En 2022, ChatGPT atteint 100 millions d'utilisateurs en deux mois, devenant l'application la plus rapidement adoptée de l'histoire.

Nous vivons une époque où la technologie avance tellement vite que même les experts peinent à anticiper ce qui sera possible dans deux ans.

L'IA au quotidien

Le grand public ne s'intéresse au sujet que depuis quelques années, mais le machine learning est omniprésent depuis bien longtemps.

  • Le correcteur automatique de ton téléphone qui prédit le mot suivant.
  • Le filtre anti-spam de ta boîte mail qui trie les courriers indésirables.
  • La reconnaissance faciale qui déverrouille ton smartphone.
  • Les suggestions de Netflix, Deezer ou YouTube.
  • Google Maps qui prédit le trafic et te propose le meilleur itinéraire.
  • Les publicités ciblées sur les réseaux sociaux.
  • La détection de fraude sur ta carte bancaire.
  • Les filtres Instagram ou Snapchat qui déforment ton visage en temps réel.

Aucun de ces systèmes n'a été codé à la main avec des règles explicites comme les systèmes experts des années 70. Ils ont tous été entraînés sur des masses de données pour apprendre à reconnaître des schémas et faire des prédictions.

Nous sommes passés du système à règles au système qui apprend.