Je construis un agent vocal connecté à des outils métier (planning, géolocalisation, historique client). Le LLM gère la conversation au téléphone et prend des décisions en temps réel. Ça marchait, mais c’était médiocre. Et je ne comprenais pas pourquoi.

J’ai suivi 19h de formation LangChain & LangGraph (Eden Marco, Udemy) en parallèle du projet. Voici ce qui a changé concrètement.

Ce qui a débloqué des trucs : - Comprendre le pattern ReAct : l’agent n’est pas magique, c’est une boucle while avec un LLM qui décide à chaque tour. Quand tu vois ça dans LangSmith, tout devient clair. - Le RAG structuré avec batching, retry et routing adaptatif. Mon pipeline d’ingestion envoyait tout d’un bloc sans vérifier. L’index était à moitié rempli et les réponses étaient incohérentes. - Les docstrings sur les tools : le LLM utilise la description pour décider s’il appelle un tool. Une docstring vague = un agent qui fait n’importe quoi. J’ai passé 45 minutes à chercher un bug côté code alors que le problème était côté description.

Ce qui fait mal (parce qu’un post honnête, c’est plus utile) :

Le résultat ? Mon agent vocal répond mieux, et surtout je comprends pourquoi il prend telle décision. Le tracing LangSmith m’a donné la visibilité qui me manquait pour itérer. Le RAG structuré a corrigé des incohérences que j’attribuais au modèle alors que c’était mon pipeline.

Le retour complet est sur mon blog, avec les diagrammes d’architecture et les vrais pièges rencontrés.

#LangChain #LangGraph #RAG #Agents #LLM #Python #OpenAI #Formation #REX