Je construis un agent vocal connecté à des outils métier (planning, géolocalisation, historique client). Le LLM gère la conversation au téléphone et prend des décisions en temps réel. Ça marchait, mais c’était médiocre. Et je ne comprenais pas pourquoi.
J’ai suivi 19h de formation LangChain & LangGraph (Eden Marco, Udemy) en parallèle du projet. Voici ce qui a changé concrètement.
Ce qui a débloqué des trucs : - Comprendre le pattern ReAct : l’agent n’est pas magique, c’est une boucle while avec un LLM qui décide à chaque tour. Quand tu vois ça dans LangSmith, tout devient clair. - Le RAG structuré avec batching, retry et routing adaptatif. Mon pipeline d’ingestion envoyait tout d’un bloc sans vérifier. L’index était à moitié rempli et les réponses étaient incohérentes. - Les docstrings sur les tools : le LLM utilise la description pour décider s’il appelle un tool. Une docstring vague = un agent qui fait n’importe quoi. J’ai passé 45 minutes à chercher un bug côté code alors que le problème était côté description.
Ce qui fait mal (parce qu’un post honnête, c’est plus utile) :
Le rate limiting sur les embeddings échoue silencieusement. Pas de crash, pas de warning. Juste un index incomplet et des réponses qui manquent de contexte. Tu peux tourner en rond pendant des heures.
Le LLM peut décider de ne pas remplir un champ requis d’un schéma Pydantic. Le parser crash, l’agent s’arrête. Pas de fallback par défaut. Le cours le montre en live, c’est le genre de truc qu’aucune doc ne mentionne.
LCEL (la syntaxe pipe de LangChain) est élégante mais opaque. L’instructeur lui-même admet que c’est “la chose la plus difficile à comprendre dans LangChain”. Sans LangSmith pour voir ce qui passe entre les maillons, c’est du débugage à l’aveugle.
Le résultat ? Mon agent vocal répond mieux, et surtout je comprends pourquoi il prend telle décision. Le tracing LangSmith m’a donné la visibilité qui me manquait pour itérer. Le RAG structuré a corrigé des incohérences que j’attribuais au modèle alors que c’était mon pipeline.
Le retour complet est sur mon blog, avec les diagrammes d’architecture et les vrais pièges rencontrés.
#LangChain #LangGraph #RAG #Agents #LLM #Python #OpenAI #Formation #REX