Chapitre 4.2.5
Les agents IA
Dans le chapitre précédent, nous avons vu que l'IA générative est capable de produire
du texte, du code, des images ou de la musique à partir d'une simple instruction.
Mais si tu as déjà utilisé ChatGPT, tu as sûrement remarqué une limite : tu poses une question, il répond,
c'est tout. Le modèle ne fait rien d'autre tout seul. Il n'envoie pas d'email, il ne met pas à jour ta base de données...
C'est là qu'entrent en jeu les agents IA.
Un agent, c'est un LLM auquel on a donné la capacité d'agir : utiliser des outils, prendre des décisions
en chaîne, et accomplir des tâches complexes de façon autonome, sans qu'un humain intervienne à chaque étape.
Il faut le voir comme un assistant à qui on a fixé un objectif "analyse les avis clients de la semaine et envoie-moi un récapitulatif par email".
La boucle agentique
Pour accomplir une tâche complexe, un agent suit en permanence un cycle en quatre étapes qu'on appelle la boucle agentique :
- Observer : l'agent reçoit une instruction et prend connaissance du contexte disponible (historique de conversation, résultats d'actions précédentes, données fournies...).
- Planifier : il réfléchit à la prochaine action à effectuer pour progresser vers son objectif.
- Agir : il exécute cette action : appeler un outil, écrire un fichier, effectuer une recherche...
- Observer à nouveau : il analyse le résultat de son action, puis recommence le cycle.
Ce cycle continue jusqu'à ce que l'agent estime la tâche terminée, ou qu'il atteigne une limite
fixée au départ (nombre maximum d'étapes, coût, temps...).
C'est cette capacité d'itérer en autonomie qui différencie fondamentalement un agent d'un simple appel à un LLM.
Les outils : comment un agent agit sur le monde
Un LLM seul ne peut que générer du texte. Pour qu'un agent puisse vraiment agir,
il faut lui fournir des outils, des fonctions qu'il peut appeler quand il en a besoin.
Ces outils peuvent être très variés :
- Recherche web : interroger un moteur de recherche pour obtenir des informations récentes.
- Lecture/écriture de fichiers : lire un CSV, générer un PDF, modifier un document.
- Appels API : récupérer la météo, envoyer un email, créer un ticket Jira, poster sur Slack.
- Exécution de code : écrire un script et l'exécuter pour calculer un résultat ou manipuler des données.
- Interaction avec une base de données : lire ou écrire des données dans un système existant.
- Navigation web : ouvrir un navigateur, cliquer sur des boutons, remplir des formulaires.
Le LLM qui pilote l'agent décide à chaque étape quel outil appeler et avec quels paramètres, en fonction de l'objectif fixé et du contexte. C'est ce qu'on appelle "l'appel de fonction" (function calling).
La mémoire d'un agent
Pour agir intelligemment sur plusieurs étapes, un agent a besoin de se souvenir de ce qu'il a fait. On distingue deux types de mémoire :
- Mémoire à court terme : le contexte de la tâche en cours. Il comprend les instructions de départ, les résultats intermédiaires, les échanges récents. Elle disparaît quand la tâche est terminée.
- Mémoire à long terme : des informations persistantes stockées en dehors du modèle, dans une base de données, un fichier ou un système de recherche vectorielle. L'agent peut les consulter à tout moment. C'est par exemple le profil d'un client, l'historique d'un projet ou des documents de référence.
La gestion de la mémoire est l'un des défis les plus complexes dans la conception d'agents. Trop peu de contexte et l'agent perd le fil. Trop de contexte peut noyer le LLM et faire exploser la facture d'API.
Les systèmes multi-agents
Certaines tâches sont trop complexes pour un seul agent. L'idée des systèmes multi-agents
est de faire collaborer plusieurs agents spécialisés, chacun responsable d'une partie du travail.
Un agent orchestrateur reçoit l'objectif global et le découpe en sous-tâches qu'il délègue
à des agents spécialisés.
Exemple : "analyse mes concurrents"
Pour produire un rapport de veille concurrentielle, un orchestrateur délègue : à un agent "chercheur" la collecte d'informations sur le web, à un agent "analyste" la synthèse des données, et à un agent "rédacteur" la mise en forme finale. L'orchestrateur assemble les résultats et livre le rapport.
Cas d'usage concrets
Les agents IA sortent peu à peu du monde des développeurs pour entrer dans celui des équipes produit, marketing et opérations. Voici quelques exemples concrets de ce qu'ils permettent aujourd'hui :
- Support client automatisé : un agent qui lit les emails entrants, consulte l'historique du client dans le CRM, rédige une réponse personnalisée et l'envoie, sans intervention humaine pour les cas simples.
- Veille concurrentielle : surveiller chaque semaine les nouvelles publications d'un concurrent, les analyser et générer un résumé envoyé à l'équipe marketing.
- Qualification de leads : à chaque nouveau prospect dans le CRM, l'agent recherche des informations publiques sur l'entreprise et enrichit la fiche avec un résumé et un score de priorité.
- Génération de rapports : extraire des données d'une base, les analyser, produire un rapport en PDF et l'envoyer automatiquement chaque lundi matin.
- Aide au développement : des agents comme GitHub Copilot peuvent revoir le code, analyser un bug et proposer un correctif sans qu'un développeur ne touche au code.
Les frameworks pour construire des agents
Plusieurs outils permettent aux développeurs de construire des agents sans partir de zéro :
- LangChain : le framework le plus répandu pour orchestrer des LLM avec des outils et de la mémoire.
- LangGraph : une surcouche de LangChain pensée pour les flux complexes et les systèmes multi-agents.
- CrewAI : spécialisé dans la coordination d'équipes d'agents avec des rôles définis.
- AutoGen (Microsoft) : framework open source pour des conversations entre agents autonomes.
- Claude (Anthropic) / GPT-4 (OpenAI) : les LLM eux-mêmes proposent nativement le function calling pour intégrer des outils directement dans leurs API.
Les limites à connaître
Les agents IA sont puissants, mais pas magiques. Avant de les adopter, il y a quelques réalités à garder en tête.
- Les hallucinations : un agent peut prendre une mauvaise décision à une étape, et les erreurs se propagent et s'amplifient sur les étapes suivantes. Une erreur dans une boucle de dix étapes peut donner un résultat très éloigné de la réalité.
- Le coût : chaque étape de la boucle agentique consomme des tokens. Une tâche complexe peut déclencher des dizaines d'appels API. La facture grimpe vite...
- Le débogage est difficile : comprendre pourquoi un agent a pris une mauvaise décision à l'étape 7 d'une boucle de 12 étapes demande des outils de traçabilité spécifiques.
- La sécurité est critique : un agent avec accès à tes emails, ton CRM et ta base de données est une surface d'attaque importante. Le prompt injection, une technique qui consiste à injecter des instructions malveillantes dans les données qu'un agent lit, est une menace réelle.
Ne donne jamais à un agent plus de permissions que ce dont il a besoin pour sa tâche. Un agent chargé de lire des avis clients n'a pas besoin d'un accès en écriture à ta base de données.
Ce que ça change vraiment
Les agents IA ne remplacent pas les humains. Ils automatisent les tâches répétitives et bien définies
pour libérer du temps sur les tâches à plus forte valeur ajoutée.
La clé est de bien définir l'objectif, de fournir les bons outils et de garder un humain dans la boucle
pour les décisions importantes. Un agent mal configuré ou mal supervisé produira certe rapidement un résultat, mais
en partant parfois dans la mauvaise direction.
Un agent bien construit, sur un périmètre clair, peut remplacer des heures de travail manuel
répétitif chaque semaine. C'est pour ça que 2025-2026 est la période charnière pour comprendre
ces technologies, pas pour les subir, mais pour les utiliser à son avantage.
