Blog ENI : Toute la veille numérique !
En raison d'une opération de maintenance, le site Editions ENI sera inaccessible le mardi 10 décembre, en début de journée. Nous vous invitons à anticiper vos achats. Nous nous excusons pour la gêne occasionnée
En raison d'une opération de maintenance, le site Editions ENI sera inaccessible le mardi 10 décembre, en début de journée. Nous vous invitons à anticiper vos achats. Nous nous excusons pour la gêne occasionnée
  1. Livres et vidéos
  2. ALM Quality Center - Maîtrise de l'outil et bonnes pratiques - Version en ligne

ALM Quality Center Maîtrise de l'outil et bonnes pratiques - Version en ligne

Informations

  • Consultable en ligne immédiatement après validation du paiement et pour une durée de 10 ans.
  • Version HTML
Livres rédigés par des auteurs francophones et imprimés à Nantes

Caractéristiques

  • HTML
  • ISBN : 978-2-409-02449-8
  • EAN : 9782409024498
  • Ref. ENI : LNEPALMQC
ALM Quality Center est un outil de gestion de tests reconnu chez les professionnels. Ce livre s'adresse aussi bien aux responsables de projet de test, concepteurs de test et testeurs eux-mêmes qu'aux chefs de projet (MOA ou MOE) ou développeurs d'applications qui souhaitent disposer d'une compréhension fine de l'outil et en lever la complexité apparente. Il propose également au lecteur de bonnes pratiques pour mettre en oeuvre ALM Quality Center dans leurs...
Aperçu du livre papier
  • Niveau Expert
  • Parution avril 2020
ALM Quality Center est un outil de gestion de tests reconnu chez les professionnels. Ce livre s'adresse aussi bien aux responsables de projet de test, concepteurs de test et testeurs eux-mêmes qu'aux chefs de projet (MOA ou MOE) ou développeurs d'applications qui souhaitent disposer d'une compréhension fine de l'outil et en lever la complexité apparente. Il propose également au lecteur de bonnes pratiques pour mettre en oeuvre ALM Quality Center dans leurs projets et donne les clés pour une intégration réussie de l'outil dans un contexte Agile.

Au fil des chapitres, le lecteur étudie successivement la mise en oeuvre des permissions, les fondamentaux pour gérer efficacement les releases et cycles, la construction hiérarchisée des exigences, l'organisation des tests et leur rédaction ainsi que la mise en place de campagnes de test et la gestion des anomalies. Pour finir, les derniers chapitres permettent à l'auteur d'adapter le propos à un contexte Agile afin de l'implémenter dans ALM Quality Center sans extension spécifique. Pour chaque module de Quality Center (Releases, Requirements, Test Plan, Test Lab et Defects), des personnalisations spécifiques sont proposées. Des scripts sont également disponibles en téléchargement sur le site www.editions-eni.fr.


Quizinclus dans
la version en ligne !
  • Testez vos connaissances à l'issue de chaque chapitre
  • Validez vos acquis
Introduction
  1. 1. Introduction
  2. 2. Avertissements
  3. 3. Recommandations relatives à la customisation de QC
L'organisation : gérer les permissions
  1. 1. Organisation proposée
    1. 1.1 Organigramme de l'organisation des projets
    2. 1.2 Le processus de test
    3. 1.3 Les groupes ALM QC standards
    4. 1.4 Les groupes ALM QC que nous conseillons
  2. 2. Mauvaises pratiques observées
    1. 2.1 Ne pas avoir une vision claire des rôles
      1. 2.1.1 Un projet est une vision
      2. 2.1.2 Connaître ALM QC, connaître vraiment le test
    2. 2.2 Désactiver ou ignorer les modules clefs
    3. 2.3 Autoriser des modifications de données de référence
    4. 2.4 Détourner un module de son emploi
  3. 3. Les permissions de la MOA
    1. 3.1 Le module Administration
    2. 3.2 Le module Release
    3. 3.3 Le module Requirements
    4. 3.4 Le module Test Plan
    5. 3.5 Le module Test Lab
    6. 3.6 Le module Defects
    7. 3.7 Le module Dashboard
  4. 4. Les permissions du CP MOA
    1. 4.1 Le module Administration
    2. 4.2 Le module Release
    3. 4.3 Le module Requirements
    4. 4.4 Les modules Test Plan et Test Lab
    5. 4.5 Le module Defects
    6. 4.6 Le module Dashboard
  5. 5. Les permissions de la MOE
    1. 5.1 Le module Administration
    2. 5.2 Le module Release
    3. 5.3 Le module Requirements
    4. 5.4 Les modules Test Plan et Test Lab
    5. 5.5 Le module Defects
    6. 5.6 Le module Dashboard
  6. 6. Les permissions du CP MOE
    1. 6.1 Le module Administration
    2. 6.2 Le module Release
    3. 6.3 Le module Requirements
    4. 6.4 Les modules Test Plan et Test Lab
    5. 6.5 Le module Defects
    6. 6.6 Le module Dashboard
  7. 7. Les permissions de l'équipe de test
    1. 7.1 Le module Administration
    2. 7.2 Le module Release
    3. 7.3 Le module Requirements
    4. 7.4 Le module Test Plan
    5. 7.5 Le module Test Lab
    6. 7.6 Le module Defects
    7. 7.7 Le module Dashboard
  8. 8. Les permissions de chef de projet Test
    1. 8.1 Le module Administration
    2. 8.2 Le module Release
    3. 8.3 Le module Requirements
    4. 8.4 Le module Test Plan
    5. 8.5 Le module Test Lab
    6. 8.6 Le module Defects
    7. 8.7 Le module Dashboard
  9. 9. Autres profils
Gérer les Releases : les fondamentaux
  1. 1. Définitions :
    1. 1.1 Qu'est-ce qu'une Release ?
    2. 1.2 Qu'est-ce qu'un cycle ?
  2. 2. Mauvaises pratiques observées
    1. 2.1 Des Releases mal nommées
    2. 2.2 Des Releases sans cycle
    3. 2.3 Les dates de début et de fin de la Release sont identiques
    4. 2.4 Des cycles manquants
    5. 2.5 Des cycles mal nommés
    6. 2.6 Un cycle devient une livraison
    7. 2.7 Les dates de début et de fin de Cycle sont identiques
  3. 3. Customisation conseillée
    1. 3.1 Des champs supplémentaires
      1. 3.1.1 Une nouvelle liste Release Status
      2. 3.1.2 Un champ Release Status sur la Release
      3. 3.1.3 Deux champs sur le Cycle pour les estimations de charges
      4. 3.1.4 Adaptation des permissions pour nos nouveaux champs
    2. 3.2 Définir les transitions d'un workflow de Release
      1. 3.2.1 Le workflow que nous proposons
      2. 3.2.2 Implémenter les transitions dans QC
    3. 3.3 Proposition d'un script
      1. 3.3.1 Quelques principes généraux sur l'éditeur de scripts
      2. 3.3.2 Notre script pour le module Release
    4. 3.4 Organiser les Releases
      1. 3.4.1 Cartographier votre système : les folders des Releases
      2. 3.4.2 Qui contrôle la structure des folders ?
  4. 4. Mise en œuvre : avec seulement des Cycles
    1. 4.1 Pour le chef de projet Test : piloter
      1. 4.1.1 Créer la Release, la planifier et démarrer les tests
      2. 4.1.2 Abandonner une Release
      3. 4.1.3 Gérer les décalages de planning
      4. 4.1.4 Scinder un lot en deux ou ajouter un lot
      5. 4.1.5 Fusionner deux lots ou supprimer un lot
      6. 4.1.6 Mettre en production
      7. 4.1.7 Reprendre un existant
    2. 4.2 Pour les chefs de projet : suivre les Releases et les Cycles
      1. 4.2.1 Vérifier le périmètre d'une Release
      2. 4.2.2 Suivre le planning
      3. 4.2.3 L'onglet Status d'une Release : le sous-onglet Progress
      4. 4.2.4 L'onglet Status d'une Release : le sous-onglet Quality
      5. 4.2.5 Le périmètre d'un Cycle
      6. 4.2.6 L'onglet Progress d'un Cycle
      7. 4.2.7 L'onglet Quality d'un Cycle
    3. 4.3 Notre conclusion sur le module Releases
Généralités sur les exigences
  1. 1. Les catégories d'exigence
    1. 1.1 Qu'est-ce qu'une exigence ?
      1. 1.1.1 Exigences Projet, exigences Produit et tests
      2. 1.1.2 Les catégories d'exigence par défaut dans QC
      3. 1.1.3 Choix des catégories que nous utiliserons
    2. 1.2 Les exigences Business
      1. 1.2.1 Les demandes d'évolution
      2. 1.2.2 Les demandes de correction
    3. 1.3 Les exigences Produit
      1. 1.3.1 Les exigences fonctionnelles
      2. 1.3.2 Les exigences non fonctionnelles
    4. 1.4 Les exigences d'environnement
    5. 1.5 Les exigences de performance
  2. 2. Les mauvaises pratiques observées
    1. 2.1 Une mauvaise gestion des catégories d'exigence
      1. 2.1.1 Ne pas comprendre la nature des exigences
      2. 2.1.2 Ne pas utiliser les exigences Business
      3. 2.1.3 Ne pas grouper les exigences Business
      4. 2.1.4 Ne pas ou mal hiérarchiser les exigences
    2. 2.2 Ne pas utiliser les fonctions d'enrichissement
      1. 2.2.1 Mal définir les sous-exigences
      2. 2.2.2 Ne pas couvrir les exigences par des tests
      3. 2.2.3 Ne pas gérer les études d'impact
  3. 3. Customisations conseillées : deux possibilités
    1. 3.1 Les champs supplémentaires de notre customisation
      1. 3.1.1 Une liste de valeurs pour gérer un statut des Business
      2. 3.1.2 Des champs supplémentaires pour les Business
      3. 3.1.3 Configuration de la catégorie Business
      4. 3.1.4 Un champ pour les Functional, Testing et Performance
      5. 3.1.5 Configuration des catégories Functional, Testing et Performance
      6. 3.1.6 Configuration des groupes
      7. 3.1.7 Configuration des Folders
      8. 3.1.8 Configuration des Undefined et Business Model
    2. 3.2 Un workflow des Business sans la MOE
      1. 3.2.1 Modélisation du workflow n°1
      2. 3.2.2 Modifier la liste des valeurs champs Status
      3. 3.2.3 Configuration des permissions et transitions
      4. 3.2.4 Le script associé
    3. 3.3 Un workflow de Business avec la MOE
      1. 3.3.1 Modélisation du workflow n°2
      2. 3.3.2 Configuration des permissions et transitions
      3. 3.3.3 Le script associé
    4. 3.4 La customisation du Common Script
  4. 4. L'organisation de nos exigences
    1. 4.1 L'organisation des exigences Business
      1. 4.1.1 Pour le workflow n°1 sans la MOE
      2. 4.1.2 Pour le workflow n°2 avec la MOE
    2. 4.2 L'organisation des exigences Functional
      1. 4.2.1 Pour une application
      2. 4.2.2 Pour un flux
    3. 4.3 L'organisation des exigences Testing
      1. 4.3.1 Pour une base de données
      2. 4.3.2 Pour des installations d'applications ou de flux
      3. 4.3.3 Pour des fichiers de configuration
    4. 4.4 L'organisation des exigences Performance
Définir la stratégie
  1. 1. Le module Management
  2. 2. Les exigences avant l'étude d'impact
    1. 2.1 Les exigences Functional
      1. 2.1.1 L'application ALPHA
      2. 2.1.2 Les flux de nos échanges
    2. 2.2 Les exigences Testing
      1. 2.2.1 Les installations de l'application et des flux
      2. 2.2.2 Les bases de données ALPHA et OMEGA
    3. 2.3 Cycle de vie des Functional, Testing et Performance
      1. 2.3.1 Naissance d'une exigence
      2. 2.3.2 Modification ponctuelle d'une exigence
      3. 2.3.3 Modifications en masse d'exigences
      4. 2.3.4 Obsolescence d'une exigence
      5. 2.3.5 Les acteurs de ce cycle de vie
  3. 3. Les exigences Business
    1. 3.1 Les demandes de notre exemple
    2. 3.2 L'étude d'impact Produit
      1. 3.2.1 Balayer les Business et tracer les impacts dans QC
      2. 3.2.2 Modifier les Target Release et Target Cycle
      3. 3.2.3 Produire la Matrice de Traçabilité Produit avec QC
  4. 4. Initialisation de la stratégie de test
    1. 4.1 Valider l'étude d'impact
      1. 4.1.1 L'onglet Traceability Matrix
      2. 4.1.2 L'onglet Source Requirements : vérifier les impacts
      3. 4.1.3 L'onglet Trace : vérifier le périmètre
    2. 4.2 Produire un dossier de stratégie
    3. 4.3 Estimer la charge du projet de test en première analyse
  5. 5. Initialiser la couverture de test
    1. 5.1 Couvrir les exigences
      1. 5.1.1 Définir une couverture manuellement
      2. 5.1.2 Le Convert to Test : utilisation unitaire
      3. 5.1.3 Le Convert to Test : utilisation basique
      4. 5.1.4 Le Convert to Test et les sous-exigences
      5. 5.1.5 Renommer les cas de tests générés
    2. 5.2 Effectuer l'étude d'impact Test
      1. 5.2.1 Principes généraux pour construire une complétude
      2. 5.2.2 Copier un test dans QC
      3. 5.2.3 Ranger les cas d'une même exigence
      4. 5.2.4 Générer la matrice d'impact des tests
      5. 5.2.5 Produire la double matrice des impacts Produit et Test
    3. 5.3 Finaliser le dossier de stratégie
    4. 5.4 Réestimer la charge
Organiser les tests
  1. 1. Les catégories de tests selon QC
    1. 1.1 Les types prédéfinis
    2. 1.2 Les niveaux de test : le rôle des cycles
    3. 1.3 Typologies que nous traiterons
      1. 1.3.1 Les tests obsolètes
      2. 1.3.2 Les tests de non-régression priorisés
      3. 1.3.3 Nature d'un mode opératoire : testcase et usercase
      4. 1.3.4 Dégradation applicative et tests
  2. 2. Les mauvaises pratiques observées
    1. 2.1 Ne pas structurer les tests en niveaux
    2. 2.2 L'absence ou la dégradation de la couverture
    3. 2.3 Un mauvais nommage
  3. 3. Proposition d'une customisation des tests
    1. 3.1 Les listes de valeurs
      1. 3.1.1 Le statut d'un test
      2. 3.1.2 Le niveau de dégradation
      3. 3.1.3 Les priorités des tests : MoSCoW
    2. 3.2 Nos champs supplémentaires
      1. 3.2.1 Indicateur Test utilisateur
      2. 3.2.2 Indicateur de test de non-régression
      3. 3.2.3 Priorité
      4. 3.2.4 Niveau de dégradation
      5. 3.2.5 Priorité en dégradation
    3. 3.3 Le workflow des tests
      1. 3.3.1 Modélisation du workflow
      2. 3.3.2 Les permissions des groupes GRP_TEST_CP et GRP_TEST
      3. 3.3.3 Le script associé
  4. 4. Proposition d'organisation des tests
    1. 4.1 Structure principale
    2. 4.2 Structure d'une application
    3. 4.3 Structure des tests d'environnement
    4. 4.4 Le résultat exploité de manière optimale
Rédiger les tests manuels
  1. 1. Les champs clés d'un test : les bons réflexes
    1. 1.1 Comment référencer un test ?
    2. 1.2 Est-ce un test de non-régression ?
    3. 1.3 Quelle priorité accorder à un test ?
    4. 1.4 Est-ce un test exécutable par un utilisateur ?
    5. 1.5 Qui rédige le test ? Quel statut de conception ?
  2. 2. Décrire un test avec QC
    1. 2.1 Comment formaliser un test ?
      1. 2.1.1 Le sondage
      2. 2.1.2 Décrire un test
      3. 2.1.3 Qu'est-ce qu'un mode opératoire ?
      4. 2.1.4 Qu'est-ce que l'échantillonnage ?
      5. 2.1.5 Un assistant de test pour les tests en masse
    2. 2.2 Modes opératoires : comment les classons-nous ?
      1. 2.2.1 Test d'une fonction utilisateur
      2. 2.2.2 Test d'une IHM
      3. 2.2.3 Test d'une intégration de données entrantes
      4. 2.2.4 Test d'extraction de données sortantes
      5. 2.2.5 Test d'un flux
      6. 2.2.6 Test d'un fichier de logs
      7. 2.2.7 Test d'un traitement de génération d'e-mails
      8. 2.2.8 Test d'un traitement de génération d'alertes
      9. 2.2.9 Test d'un traitement batch
      10. 2.2.10 Test d'installation
      11. 2.2.11 Test de modification d'une base de données
      12. 2.2.12 Test de modification d'un fichier de configuration
      13. 2.2.13 Test de performance
  3. 3. Décrire encore mieux un test
    1. 3.1 Inclure des steps techniques, une simulation
    2. 3.2 Les paramètres
      1. 3.2.1 Créer des paramètres
      2. 3.2.2 Utiliser les paramètres dans le mode opératoire d'un test
      3. 3.2.3 Affecter des valeurs au moment de construire la campagne
      4. 3.2.4 Affecter les valeurs au moment de l'exécution du test
    3. 3.3 Les configurations
      1. 3.3.1 Qu'est-ce qu'une configuration dans QC ?
      2. 3.3.2 Valoriser des paramètres dans une configuration
      3. 3.3.3 Créer une nouvelle configuration
      4. 3.3.4 Ajouter une configuration pour construire une campagne
      5. 3.3.5 Exécuter une configuration
      6. 3.3.6 La combinatoire des configurations
    4. 3.4 Appeler un test : le "call"
      1. 3.4.1 Définir des modèles de test
      2. 3.4.2 Appeler un modèle de test
      3. 3.4.3 Appeler un test paramétré
      4. 3.4.4 Et les appels imbriqués ?
Organiser les campagnes dans le Test Lab
  1. 1. Définition d'une campagne
    1. 1.1 La théorie : les éléments de vocabulaire
    2. 1.2 La pratique dans QC
      1. 1.2.1 Les folders du module Test Lab
      2. 1.2.2 Les Test Sets du module Test Lab
      3. 1.2.3 Le module Test Run
  2. 2. Les mauvaises pratiques observées
    1. 2.1 Ne pas structurer les campagnes
    2. 2.2 Ne pas lier les folders aux cycles des releases
    3. 2.3 Ne pas gérer l'équipe
    4. 2.4 Ne pas exécuter les steps
    5. 2.5 Autoriser le testeur à ajouter des tests dans un Test Set
    6. 2.6 Ne pas clôturer l'activité
  3. 3. Organisation des campagnes dans le Test Lab
    1. 3.1 Principe d'organisation des projets
    2. 3.2 Initialiser un projet de test
      1. 3.2.1 Notre modèle d'un cycle de test d'une release
      2. 3.2.2 Les projets à plusieurs lots : copions le modèle !
      3. 3.2.3 Les projets multireleases
      4. 3.2.4 Nomenclature des Test Sets : affectations et configurations
    3. 3.3 Construire un Test Set
      1. 3.3.1 Depuis les Requirements : le périmètre impacté
      2. 3.3.2 Depuis le Test Plan : les tests de non-régression
      3. 3.3.3 Ordonnancement simple des tests
      4. 3.3.4 Ordonnancement complexe : le Flow Execution
    4. 3.4 Affiner les affectations
      1. 3.4.1 Affecter chaque test à un testeur
      2. 3.4.2 Vérifier la répartition entre les testeurs
    5. 3.5 Valider le périmètre
      1. 3.5.1 Depuis le module Requirements
      2. 3.5.2 Depuis le Test Plan
      3. 3.5.3 Depuis le Test Lab
    6. 3.6 Finaliser le dossier de stratégie
  4. 4. Piloter l'exécution des campagnes
    1. 4.1 Gérer les livraisons exceptionnelles
    2. 4.2 Gérer la disponibilité de la plate-forme
    3. 4.3 Suivre les campagnes
      1. 4.3.1 Le Live Analysis
      2. 4.3.2 Le Test Board
      3. 4.3.3 L'onglet Progress d'une release ou d'un cycle
      4. 4.3.4 Le Dash Board
    4. 4.4 Clôturer le travail
      1. 4.4.1 Clôturer les Test Sets
      2. 4.4.2 Clôturer un projet de test
Gérer les anomalies
  1. 1. Définition d'un Defect
    1. 1.1 Rappels de définitions normées
      1. 1.1.1 Défaut, vice caché et anomalie
      2. 1.1.2 Non-conformité et dysfonctionnement
      3. 1.1.3 L'incident, la panne : tout ce qui n'est pas un défaut
    2. 1.2 Le Defect dans QC
  2. 2. Les mauvaises pratiques observées
    1. 2.1 Confondre le défaut et le Defect
    2. 2.2 Confondre Defect et correctif
    3. 2.3 Détourner les champs d'un defect
    4. 2.4 Mal customiser les champs des releases et cycles
    5. 2.5 Définir un mauvais workflow
    6. 2.6 Gérer les évolutions dans le module Defects
  3. 3. Customisations conseillées : plusieurs possibilités
    1. 3.1 Les champs supplémentaires d'un Defect
      1. 3.1.1 Le champ standard Status
      2. 3.1.2 Les nouvelles listes
      3. 3.1.3 Les nouveaux champs
      4. 3.1.4 Les permissions des nouveaux champs
    2. 3.2 Avertissements préalables
      1. 3.2.1 Ne jamais utiliser les trois wizards proposés par QC !
      2. 3.2.2 Quels workflows possibles ?
      3. 3.2.3 Les notifications : l'Automail
    3. 3.3 La MOA d'abord
      1. 3.3.1 Modélisation du workflow n°1
      2. 3.3.2 Configuration des permissions et transitions
      3. 3.3.3 Le script associé
    4. 3.4 La MOE d'abord
      1. 3.4.1 Modélisation du workflow n°2
      2. 3.4.2 Configuration des permissions et transitions
      3. 3.4.3 Le script associé
    5. 3.5 Des Defects sans l'équipe MOE ?
      1. 3.5.1 Modélisation du workflow n°3
      2. 3.5.2 Configuration des permissions et transitions
      3. 3.5.3 Le script associé
  4. 4. Mise en application des workflows
    1. 4.1 Déclarer une anomalie
      1. 4.1.1 Anomalie déclarée sur un cycle de test
      2. 4.1.2 Anomalie déclarée en cycle de VABF ou pendant les tests Métier
      3. 4.1.3 Anomalie sur un cycle de production
      4. 4.1.4 Les champs supplémentaires : le deuxième onglet
    2. 4.2 Qualifier et résoudre une anomalie
      1. 4.2.1 Rejeter le défaut
      2. 4.2.2 Ouvrir le défaut
      3. 4.2.3 Corriger le défaut
      4. 4.2.4 Résoudre le défaut
    3. 4.3 Clôturer une anomalie
      1. 4.3.1 Anomalie déclarée en phase de test
      2. 4.3.2 Anomalie déclarée en VABF ou pendant les tests Métier
      3. 4.3.3 Anomalie de production
  5. 5. Le reporting des Defects
    1. 5.1 Rappels du module Management
      1. 5.1.1 Le reporting sur une Release
      2. 5.1.2 Le reporting sur un cycle
    2. 5.2 Defects et Dashboard
      1. 5.2.1 Le reporting global prédéfini
      2. 5.2.2 Le reporting sur une release
Organiser un projet Agile avec QC
  1. 1. Rappels des principes de l'Agilité
    1. 1.1 Avertissements
    2. 1.2 Naissance de l'Agilité : le Manifeste Agile
    3. 1.3 Quelle place pour le test dans le Manifeste Agile ?
    4. 1.4 Les Processus Agiles les plus populaires
    5. 1.5 Les concepts SCRUM que nous aborderons
  2. 2. Quelle organisation ?
    1. 2.1 Sans équipe Test transverse
    2. 2.2 Avec équipe Test transverse
    3. 2.3 Quelles permissions dans QC en SCRUM ?
      1. 2.3.1 Qui est le Développeur Agile ?
      2. 2.3.2 Qui est le Scrum Master ?
      3. 2.3.3 Qui est le Product Owner ?
      4. 2.3.4 Qui est le représentant d'un utilisateur ?
    4. 2.4 Les rôles de l'équipe Test transverse dans le cycle Agile
      1. 2.4.1 Valider les Items
      2. 2.4.2 Construire et maintenir le référentiel de test
      3. 2.4.3 Le chef de projet Test
    5. 2.5 Les limites
      1. 2.5.1 La charge de la validation des Items dans un Sprint
      2. 2.5.2 Capitaliser les tests des Items ?
      3. 2.5.3 Vers l'automatisation des tests ?
  3. 3. L'implémentation dans Quality Center
    1. 3.1 Organisation sans participation aux Sprints
      1. 3.1.1 Les Releases dans le module Management
      2. 3.1.2 Le workflow des releases
      3. 3.1.3 Et la customisation ?
    2. 3.2 Organisation avec participation aux Sprints
      1. 3.2.1 Les releases d'un projet de test Agile
      2. 3.2.2 Le workflow des releases
      3. 3.2.3 Et la customisation ?
    3. 3.3 Organisation d'un projet de test en intégration continue
      1. 3.3.1 Une unique release pour un projet en intégration continue
      2. 3.3.2 Le workflow d'une release continue
      3. 3.3.3 Et la customisation ?
Gérer des backlogs dans QC
  1. 1. Représenter des backlogs dans QC
    1. 1.1 Mauvaises pratiques observées
      1. 1.1.1 Confondre les spécifications et le logiciel
      2. 1.1.2 Un workflow pour presque tout faire
      3. 1.1.3 Pas de niveau de test en Agilité
    2. 1.2 Les représentations que nous proposons dans QC
      1. 1.2.1 Un Item est une exigence Business
      2. 1.2.2 Le cas particulier du "boulet technique"
      3. 1.2.3 Une Épopée est un Group
      4. 1.2.4 Comment représenter une Feature ?
    3. 1.3 Représenter le Backlog et les Sprint Backlogs dans QC
      1. 1.3.1 Le ou les backlogs sont des objets Group
      2. 1.3.2 Les Sprint Backlogs sont des objets Group
      3. 1.3.3 Les Items "bonus"
    4. 1.4 Gérer les features
      1. 1.4.1 Relation entre Items et Features : liens Trace To/Trace From
      2. 1.4.2 Relation avec les cycles des releases
  2. 2. L'équipe Agile utilise QC comme outil Agile
    1. 2.1 Un champ Complexité en plus dans pour les Requirements
      1. 2.1.1 Créer le champ Complexité
      2. 2.1.2 Configurer le champ Complexité
    2. 2.2 Définir un champ Priorité pour les Business
      1. 2.2.1 Ne pas utiliser le champ standard Priorité de QC
      2. 2.2.2 Notre propre champ Priorité spécifique aux Business
    3. 2.3 L'équipe Test ne participe pas aux Sprints
      1. 2.3.1 Modélisation du workflow Agile n°1
      2. 2.3.2 Configuration des permissions et transitions
      3. 2.3.3 Le script associé
    4. 2.4 L'équipe Test participe aux Sprints
      1. 2.4.1 Modélisation du workflow Agile n°2
      2. 2.4.2 Configuration des permissions et transitions
      3. 2.4.3 Le script
  3. 3. L'équipe Agile n'utilise pas QC
    1. 3.1 Absence de workflow des Business dans QC
    2. 3.2 Redescendre les Items dans QC
      1. 3.2.1 Synchronisation manuelle
      2. 3.2.2 Synchronisation automatique
Gérer les tests des Items
  1. 1. Les organisations possibles
    1. 1.1 Si l'équipe Test ne valide pas les Items
    2. 1.2 Si l'équipe Test valide les Items
      1. 1.2.1 Sans QC
      2. 1.2.2 Avec QC ?
  2. 2. Modifier la customisation pour l'Agilité
    1. 2.1 Le paramétrage des exigences Business
    2. 2.2 Les permissions des groupes sur les tests Agile
      1. 2.2.1 Les permissions du Product Owner (Grp_MOA_CP)
      2. 2.2.2 Les permissions des représentants des utilisateurs (Grp_MOA)
      3. 2.2.3 Les permissions des développeurs (Grp_MOE)
      4. 2.2.4 Les permissions de l'équipe Test
  3. 3. Concevoir les tests : utiliser le Convert to Test
    1. 3.1 Où générer les tests ?
      1. 3.1.1 Dans les backlogs ?
      2. 3.1.2 Dans les Sprint Backlogs en préparation ?
      3. 3.1.3 Dans le Sprint en cours
      4. 3.1.4 Archiver les tests de validation
    2. 3.2 Et la maintenance des tests ?
      1. 3.2.1 L'Agilité : une logique de consommation
      2. 3.2.2 Et copier les tests des Items ?
  4. 4. Valider les Items dans le Test Lab
    1. 4.1 Construire le périmètre d'un Sprint Backlog
      1. 4.1.1 Qui construit le périmètre ?
      2. 4.1.2 Où dans la hiérarchie du Test Lab ?
      3. 4.1.3 Sprints et Test Sets
    2. 4.2 Les validations des Items dans le Test Lab
      1. 4.2.1 Exécuter les Tests Sets
      2. 4.2.2 Le statut d'exécution des Business
      3. 4.2.3 Le reporting
  5. 5. Gérer ou ne pas gérer les Defects ?
    1. 5.1 Pourquoi cette question ?
      1. 5.1.1 De l'influence des contrats
      2. 5.1.2 La lourdeur de la démarche
      3. 5.1.3 L'acceptation par les développeurs
    2. 5.2 Saisir un Defect pendant un Sprint
      1. 5.2.1 La déclaration
      2. 5.2.2 La résolution
      3. 5.2.3 La clôture
  6. 6. Les inconvénients
    1. 6.1 QC n'est pas fondamentalement orienté vers l'Agilité
      1. 6.1.1 Pas de kanban, pas d'indicateurs Agiles
      2. 6.1.2 Trop de concepts abstraits loin de l'Agilité
    2. 6.2 La méconnaissance de QC
      1. 6.2.1 Les Business ne sont pas comprises comme étant des Items
      2. 6.2.2 Les tests de validation des Items ne sont pas compris
      3. 6.2.3 Les Defects : l'outil de ticketing
Auteur : Emmanuel ITIÉ

Emmanuel ITIÉ

Emmanuel Itié, est titulaire d'un Master d'informatique de l'Université de Montpellier avec une spécialisation en algorithmique renforcée et théorie des langages. Il s'est intéressé très tôt à l'expertise en homologation, pressentant l'avenir de ce marché. Aujourd'hui fort de 20 ans d'expérience dans les ESN dont 16 ans dans le test, il est directeur de projets et "change manager" au sein du groupe INTM. Il accompagne ses clients dans la mise en oeuvre des tests selon une approche industrielle.
En savoir plus

Découvrir tous ses livres

  • Gestion de tests logiciels Présentation de la méthode et des principaux livrables
  • Gestion des tests logiciels Bonnes pratiques à mettre en oeuvre pour l'industrialisation des tests (2e édition)

Nos nouveautés

voir plus