
Les échecs d'agents en production ne viennent pas seulement du modèle. Ils apparaissent quand le système autour du modèle fournit le mauvais contexte, un contexte périmé ou un contexte sans frontières suffisantes.
Trop d'équipes parlent encore de gouvernance IA surtout à travers les prompts, les evals et le choix du provider. Dans un système agentique, cela ne suffit plus.
Les risques les plus coûteux sont souvent autour du modèle :
La gouvernance doit donc couvrir la couche contexte et la couche exécution. Cette lecture correspond bien au NIST AI Risk Management Framework.
Quand on dit qu'un agent a besoin de contexte, on pense souvent à des résultats de retrieval, de l'historique ou de la mémoire. C'est trop étroit.
Le contexte métier comprend :
Pour un agent, l'intelligence contextuelle signifie :
| Type de contexte | Contenu | Échec typique | Question de gouvernance |
|---|---|---|---|
| Contexte métier | objectifs, policies, SOPs, règles d'approbation | l'agent suit le texte mais manque la vraie règle | quelle action serait valable ici |
| Contexte opérationnel | environnement, état du compte, quotas, incidents | bonne action dans le mauvais environnement | qu'est-ce qui est vrai maintenant |
| Contexte d'autorisation | scopes, droits, outils, risque | action techniquement possible mais interdite | que peut faire cet agent |
| Contexte de provenance et fraîcheur | source, owner, version, date, confiance | un contexte périmé pilote la décision | pourquoi lui faire confiance maintenant |
Tout contexte ne doit pas être traité de la même manière :
verifiedinternalexternalunknownLe point essentiel : le contexte non fiable ne doit pas devenir automatiquement une preuve qui pilote l'action.
Si l'équipe sait ce que l'agent a fait mais pas ce qu'il a vu, la piste d'audit reste incomplète.
Le problème classique n'est pas l'absence de réponse, mais la coexistence de réponses contradictoires ou périmées.
Le prompt n'est pas une gouvernance. Si l'agent modifie des données, envoie des messages ou exporte des fichiers, l'autorité finale doit vivre dans une logique déterministe hors modèle.
{
"source_id": "refund_policy_v17",
"owner": "finops",
"trust_level": "verified",
"approved_at": "2026-04-10T10:20:00Z",
"expires_at": "2026-07-10T00:00:00Z",
"audience": ["support-agent", "billing-agent"],
"risk_class": "high"
}
Le système devrait vérifier :
retrieve context
-> check provenance
-> check freshness
-> check authorization
-> check for conflicts
-> allow, block, or escalate
Pour aller plus loin, voir AI Pipeline Workflow et Version Control for AI Agent Context.
Beaucoup de déploiements échouent au moment d'assembler le contexte. Une couche de contexte gouvernée aide à :
Les lectures complémentaires les plus proches sont Ultimate Guide to Agent Context Base: Hybrid Indexing et Context Engineering: When RAG Is Not Enough.
Utilisez puppyone quand la gouvernance des agents dépend d'un contexte contrôlé et non d'un retrieval improviséGet startedLa première couvre l'ensemble des risques, contrôles et responsabilités autour de l'IA. La seconde se concentre sur les informations qu'un agent peut utiliser et dans quelles conditions.
Parce qu'un agent n'échoue pas seulement en inventant un fait. Il échoue aussi en ignorant la règle métier autour de ce fait.
Non. Le retrieval fournit du contexte, mais ne garantit ni sa validité, ni sa fraîcheur, ni son admissibilité pour agir.