Definition Of Done (DOD)
Critères explicites et partagés qui déterminent quand une tâche ou user story est réellement terminée, garantissant la qualité et l'alignement d'équipe.
Mis à jour le 2 mars 2026
La Definition Of Done (DOD) est un ensemble de critères clairs et mesurables qu'une fonctionnalité, user story ou tâche doit satisfaire pour être considérée comme achevée. Elle établit un standard de qualité commun pour toute l'équipe de développement. La DOD élimine l'ambiguïté du terme "terminé" et garantit que chaque livrable respecte les exigences techniques, fonctionnelles et qualitatives avant d'être intégré au produit.
Fondements
- Accord collectif établi par l'équipe de développement définissant les standards de qualité minimum
- Liste de vérification applicable à chaque élément de backlog avant sa validation finale
- Garantie de cohérence et de prédictibilité dans les livraisons de sprint
- Mécanisme de prévention de la dette technique et des défauts qualité
Avantages
- Élimine les malentendus entre développeurs, testeurs et Product Owner sur l'état d'achèvement
- Réduit significativement la dette technique en imposant des standards dès le développement
- Accélère les revues de sprint en fournissant des critères objectifs de validation
- Améliore la prévisibilité et la vélocité en standardisant la définition du "terminé"
- Renforce la confiance des parties prenantes dans la qualité des livraisons
- Facilite l'intégration continue et le déploiement en assurant la stabilité du code
Exemple concret
Voici un exemple de Definition Of Done pour une équipe développant une application web moderne :
# Definition Of Done - Équipe Yield Studio
## Critères de code
- [ ] Code écrit selon les conventions de l'équipe (ESLint/Prettier validés)
- [ ] Tests unitaires écrits avec couverture ≥ 80%
- [ ] Tests d'intégration pour les flux critiques
- [ ] Code review approuvé par au moins 1 pair
- [ ] Pas de warning de compilation ou de build
## Critères fonctionnels
- [ ] Critères d'acceptation de la user story validés
- [ ] Tests manuels exploratoires effectués
- [ ] Fonctionnalité validée en environnement de staging
- [ ] Documentation utilisateur mise à jour si nécessaire
## Critères techniques
- [ ] Pipeline CI/CD passe avec succès (build, tests, lint)
- [ ] Pas de régression détectée sur les fonctionnalités existantes
- [ ] Performance vérifiée (temps de chargement < 3s)
- [ ] Accessibilité WCAG 2.1 niveau AA respectée
- [ ] Code mergé dans la branche principale
## Critères de déploiement
- [ ] Variables d'environnement documentées
- [ ] Migrations de base de données testées
- [ ] Plan de rollback documenté si nécessaire
- [ ] Monitoring et alertes configurésMise en œuvre
- Organisez un atelier avec toute l'équipe (développeurs, testeurs, Product Owner) pour co-créer la DOD initiale
- Identifiez les critères essentiels par catégorie : code, tests, documentation, déploiement
- Priorisez les critères réalistes pour votre contexte actuel (évitez les objectifs inatteignables)
- Formalisez la DOD dans un document accessible (wiki, README, outil de gestion de projet)
- Intégrez la vérification de la DOD dans votre processus de review et de validation de sprint
- Revisitez la DOD lors des rétrospectives pour l'ajuster selon l'évolution de l'équipe et du produit
- Automatisez autant que possible les vérifications (linting, tests, analyse de code) via CI/CD
Conseil pro
Commencez avec une DOD minimaliste et enrichissez-la progressivement. Une DOD trop ambitieuse dès le départ risque d'être ignorée ou de ralentir excessivement l'équipe. L'objectif est un standard atteignable qui élève continuellement la qualité, pas une liste exhaustive qui devient un frein. Utilisez les rétrospectives pour identifier les problèmes récurrents et ajoutez des critères DOD pour les prévenir.
Outils associés
- Jira, Azure DevOps ou Linear pour définir et suivre les critères DOD par user story
- GitHub Actions, GitLab CI ou CircleCI pour automatiser les vérifications techniques
- SonarQube ou CodeClimate pour mesurer la qualité et la couverture de code
- Checklist templates dans Notion ou Confluence pour standardiser les vérifications manuelles
- Miro ou Mural pour les ateliers collaboratifs de création/révision de la DOD
La Definition Of Done transforme l'ambiguïté en clarté, réduisant les incompréhensions et les défauts qualité. En établissant des critères partagés et mesurables, elle permet aux équipes de livrer avec confiance, d'accélérer leur vélocité et de maintenir une qualité constante. C'est un investissement minimal qui génère des bénéfices exponentiels en termes de prévisibilité, de satisfaction client et de réduction de la dette technique.

