Introduction
1. Contexte du test dans les bâtiments intelligents
Un bâtiment intelligent (Smart Building) intègre :
- Des capteurs (température, CO₂, présence, luminosité…)
- Des automates (PLC, API industriels)
- Des systèmes de communication (BACnet, Modbus, KNX…)
- Des logiciels de supervision (BMS / GTB)
- Des scénarios et algorithmes d'optimisation énergétique
Chaque composant collecte, analyse ou traite des informations.
Toute erreur peut entraîner :
- Surconsommation d'énergie
- Panne d'équipement
- Inconfort utilisateur
- Perte financière
- Risque de sécurité
👉 D'où la nécessité d'un plan de tests structuré.
2. Définition d'un plan de tests
Un plan de tests est un document méthodologique listant tous les tests nécessaires pour valider un système, avec leurs conditions d'exécution, résultats attendus et critères de réussite.
Il garantit :
- La qualité du système
- La conformité au cahier des charges
- Le suivi du cycle de vie
- La traçabilité complète
Caractéristiques d'un bon plan de tests :
- Exhaustif : Couvre toutes les fonctionnalités critiques du système
- Structuré : Organisé par modules, sous-systèmes ou zones fonctionnelles
- Traçable : Chaque test peut être relié à une exigence du cahier des charges
- Exécutable : Les procédures sont claires et reproductibles
- Mesurable : Les critères de réussite sont quantifiables et objectifs
Avantages d'un plan de tests bien conçu :
- Réduction des risques de non-conformité
- Amélioration de la communication entre les équipes
- Facilitation de la maintenance future
- Documentation précieuse pour la formation des opérateurs
- Base solide pour les audits qualité
Partie I – La place du test dans le cycle de projet
1. Le cycle de vie d'un projet BMS
-
Analyse des besoins
- Identification des exigences fonctionnelles
- Définition des contraintes techniques
- Établissement du cahier des charges
-
Conception technique
- Architecture système
- Choix des protocoles de communication
- Sélection des équipements
-
Installation matérielle & logicielle
- Pose des capteurs et actionneurs
- Installation des automates
- Déploiement des serveurs de supervision
-
Configuration (postes, automates, supervision)
- Paramétrage des automates
- Configuration des points de supervision
- Création des scénarios d'automatisation
-
Tests et validation
- Tests unitaires des composants
- Tests d'intégration
- Tests système globaux
- Recette client
-
Mise en production
- Mise en service progressive
- Formation des utilisateurs
- Documentation finale
-
Maintenance & évolution
- Maintenance préventive
- Corrections de bugs
- Évolutions fonctionnelles
Les tests interviennent à plusieurs moments :
- Avant livraison : Validation complète du système installé
- Avant exploitation : Vérification finale avant mise en service
- Après mise à jour : Tests de non-régression après modifications
- Lors de travaux d'extension : Validation des nouveaux équipements intégrés
- Maintenance préventive : Tests périodiques pour garantir le bon fonctionnement
2. Trois niveaux de tests dans le BMS
A. Test composant « Unitaire »
Test d'un élément isolé, indépendamment du reste du système.
Éléments testés :
- Fonctionnement d'un capteur : Vérification de la précision, de la plage de mesure, de la linéarité
- API d'automate : Test des entrées/sorties numériques et analogiques
- Actionneur (vanne, moteur…) : Vérification de la course, du temps de réponse, de la position
Exemple concret :
Test d'un capteur de température :
- Placer le capteur dans un environnement à température connue (ex: 20°C)
- Vérifier que la valeur lue correspond à ±0,5°C
- Tester la réponse à un changement rapide de température
- Vérifier la stabilité de la mesure sur 24h
Avantages :
- Détection précoce des défauts
- Isolation des problèmes
- Tests rapides et ciblés
B. Test d'intégration
On valide l'interaction entre plusieurs composants du système.
Chaînes de communication testées :
- Capteur → Automate : Vérification de la remontée des valeurs
- Automate → Serveur : Test de la communication réseau (BACnet, Modbus, etc.)
- Serveur → Supervision : Validation de l'affichage et de la mise à jour des données
- Supervision → Rapport / Dashboard : Vérification de la génération des rapports
Exemple concret :
Test d'intégration capteur de CO₂ :
- Le capteur mesure 1200 ppm de CO₂
- L'automate reçoit la valeur via Modbus
- Le serveur BMS récupère la donnée via BACnet
- La supervision affiche l'alarme "CO₂ élevé"
- Le système déclenche l'augmentation du débit de ventilation
Points critiques à vérifier :
- Temps de propagation de la donnée
- Perte de données éventuelle
- Format et unités des valeurs
- Gestion des erreurs de communication
C. Test système (global)
On simule un scénario réel complet impliquant plusieurs sous-systèmes.
Exemple détaillé : Gestion de la qualité de l'air
Scénario : "Si CO₂ > 900 ppm dans une salle occupée
- Alors augmenter le débit ventilation de 50%
- Et envoyer l'alarme en supervision
- Et enregistrer l'événement dans les logs"
Procédure de test :
-
Préparation :
- Salle équipée de capteur CO₂, capteur présence, et ventilation variable
- Supervision configurée avec alarmes CO₂
- Système en mode automatique
-
Exécution :
- Simuler présence dans la salle (capteur présence = ON)
- Injecter du CO₂ pour atteindre 950 ppm
- Observer le comportement du système
-
Vérifications :
- ✅ Le capteur CO₂ détecte la valeur > 900 ppm
- ✅ L'alarme apparaît en supervision dans les 2 secondes
- ✅ Le débit de ventilation augmente de 50% en moins de 5 secondes
- ✅ L'événement est enregistré dans les logs avec timestamp
- ✅ L'alarme disparaît quand CO₂ < 800 ppm
Avantages des tests système :
- Validation du comportement réel du système
- Détection des problèmes d'interaction entre composants
- Vérification de la cohérence globale
Partie II – Typologie des tests
1. Tests fonctionnels
Objectif : vérifier que chaque fonction fait exactement ce qu'elle doit faire selon les spécifications.
Principe : Pour chaque fonctionnalité, on définit :
- Les conditions d'entrée
- Le comportement attendu
- Les critères de réussite
Exemples détaillés :
Exemple 1 : Ouverture d'une vanne
Fonction : Vanne motorisée doit s'ouvrir à 50% sur commande
Test :
- Précondition : Vanne fermée (0%)
- Action : Envoyer commande "Ouvrir à 50%"
- Résultat attendu :
- Vanne atteint 50% en moins de 10 secondes
- Position confirmée par retour de mesure
- Pas de sur-oscillation (> 55% ou < 45%)
Exemple 2 : Régulation chauffage
Fonction : Maintenir la température à 20°C ± 0,5°C
Test :
- Précondition : Température ambiante = 18°C
- Action : Activer la régulation avec consigne 20°C
- Résultat attendu :
- Température atteint 20°C en moins de 30 minutes
- Température stabilisée entre 19,5°C et 20,5°C
- Pas de surchauffe (> 21°C)
Exemple 3 : Alerte défaut automate
Fonction : Détecter et remonter une panne d'automate
Test :
- Précondition : Automate en fonctionnement normal
- Action : Débrancher l'alimentation de l'automate
- Résultat attendu :
- Alarme "Automate déconnecté" apparaît en supervision dans les 5 secondes
- Alarme de niveau critique (rouge)
- Notification envoyée à l'opérateur
Exemple 4 : Reporting de consommation
Fonction : Générer un rapport quotidien de consommation énergétique
Test :
- Précondition : Système en fonctionnement depuis 24h avec données de consommation
- Action : Générer le rapport du jour précédent
- Résultat attendu :
- Rapport généré en moins de 30 secondes
- Toutes les données présentes (consommation totale, par zone, par équipement)
- Format PDF lisible et bien formaté
- Envoi automatique par email si configuré
Critères principaux de validation :
- Déclenchement : La fonction se déclenche-t-elle au bon moment ?
- Cohérence des valeurs : Les valeurs sont-elles logiques et dans les plages attendues ?
- Temps de réponse : Le système réagit-il dans les délais spécifiés ?
- Robustesse : Le système gère-t-il correctement les cas limites (valeurs extrêmes, pannes) ?
- Précision : Les mesures et actions sont-elles suffisamment précises ?
2. Tests d'intégration
Objectif : valider la communication et l'interaction entre différents éléments du système.
Enjeux : Les systèmes BMS utilisent souvent plusieurs protocoles de communication différents. Il est essentiel de vérifier que tous les équipements communiquent correctement entre eux.
Vérifications typiques détaillées :
A. Tests de protocoles de communication
BACnet :
- Vérifier que les objets BACnet sont correctement découverts
- Tester la lecture/écriture des propriétés (Present Value, Status Flags)
- Valider les trames BACnet avec un analyseur réseau
- Vérifier la gestion des erreurs (timeout, device non disponible)
Modbus :
- Tester la lecture des registres (coils, holding registers, input registers)
- Vérifier l'écriture des commandes
- Valider la gestion des adresses esclaves
- Tester la communication sur différents baud rates
KNX :
- Vérifier que les objets de groupe sont accessibles
- Tester les télégrammes KNX (read, write, response)
- Valider la configuration des adresses physiques et de groupe
IP/MSTP :
- Tester la connectivité réseau (ping, traceroute)
- Vérifier la configuration des adresses IP
- Valider le routage MSTP (Multi-Stage Token Passing) pour BACnet
- Tester la résistance aux pannes réseau (coupure de câble)
B. Tests de remontée de données
Scénario complet :
-
Capteur → Automate :
- Capteur envoie une valeur (ex: température 22°C)
- Automate reçoit et traite la valeur
- Vérifier la latence (< 1 seconde généralement)
-
Automate → Serveur :
- Serveur interroge l'automate via le protocole
- Automate répond avec la valeur
- Vérifier que la valeur n'est pas altérée
-
Serveur → Supervision :
- Supervision récupère la donnée du serveur
- Affichage en temps réel
- Vérifier la mise à jour automatique
Points critiques :
- Perte de données : Aucune donnée ne doit être perdue lors de la transmission
- Synchronisation : Les valeurs doivent être cohérentes entre les différents niveaux
- Gestion des erreurs : Le système doit gérer correctement les pannes de communication
- Performance : Le système doit supporter le nombre de points configurés sans dégradation
C. Tests de résilience
Scénarios de panne :
- Coupure réseau entre automate et serveur
- Automate redémarré pendant la communication
- Surcharge réseau (trop de données simultanées)
- Interférences électromagnétiques
Comportement attendu :
- Reconnexion automatique après rétablissement
- Mise en cache des données pendant la panne
- Synchronisation automatique après reconnexion
- Pas de perte de données critiques
3. Tests de performance
Objectif : Vérifier que le système répond aux exigences de performance définies dans le cahier des charges.
Les tests de performance permettent de s'assurer que le système peut gérer la charge prévue et répondre dans les temps requis.
Paramètres mesurés :
| Paramètre | Description | Exemple | Critère typique |
|---|---|---|---|
| Latence | Temps entre un événement et la réaction du système | Temps entre détection capteur et ordre automate | < 2 secondes |
| Charge | Nombre de données traitées par unité de temps | Nombre max de données par minute | 1000 points/min |
| Scalabilité | Capacité à fonctionner avec différents volumes | Fonctionne-t-il avec 10 objets ? Avec 1000 ? | Jusqu'à 5000 points |
| Disponibilité | Pourcentage de temps de fonctionnement | Taux de disponibilité sur 30 jours | > 99,5% |
| Débit réseau | Quantité de données transmises | Mo/s sur le réseau BACnet | Selon infrastructure |
| Temps de réponse | Délai de réponse aux commandes | Temps pour ouvrir une vanne | < 5 secondes |
Méthodologie de test :
A. Test de latence
Procédure :
- Enregistrer l'heure T1 lors d'un changement de valeur capteur
- Mesurer l'heure T2 quand la commande arrive à l'actionneur
- Calculer : Latence = T2 - T1
Exemple concret :
- Capteur de température détecte un changement à 10:00:00.000
- Commande arrive au chauffage à 10:00:01.500
- Latence = 1,5 secondes ✅ (critère : < 2 secondes)
B. Test de charge
Procédure :
- Simuler un grand nombre de points (capteurs, actionneurs)
- Générer des changements de valeurs simultanés
- Mesurer le temps de traitement et la perte éventuelle de données
Scénario :
- 500 capteurs qui changent de valeur simultanément
- Système doit traiter toutes les données en moins de 10 secondes
- Aucune donnée ne doit être perdue
C. Test de scalabilité
Procédure progressive :
- Tester avec 10 points → OK
- Tester avec 100 points → OK
- Tester avec 1000 points → OK
- Tester avec 5000 points → Vérifier les limites
Indicateurs à surveiller :
- Temps de réponse qui augmente
- Consommation mémoire
- Charge CPU
- Saturation réseau
D. Test de disponibilité
Méthode :
- Monitoring continu pendant 30 jours
- Enregistrement de toutes les pannes
- Calcul : Disponibilité = (Temps total - Temps de panne) / Temps total × 100
Exemple :
- Période : 30 jours = 43 200 minutes
- Pannes totales : 100 minutes
- Disponibilité = (43 200 - 100) / 43 200 × 100 = 99,77% ✅
Outils utilisés :
- Analyseurs réseau : Wireshark, tcpdump pour analyser le trafic
- Scripts de charge : Génération automatique de données de test
- Monitoring GTB : Outils intégrés de supervision pour mesurer les performances
- Oscilloscopes/logiciels : Pour mesurer les temps de réponse précis
- Outils de benchmarking : Pour comparer les performances avec des références
4. Tests de sécurité
Objectif : Vérifier que le système est protégé contre les accès non autorisés et les attaques malveillantes.
Les systèmes BMS sont de plus en plus connectés aux réseaux d'entreprise et à Internet, ce qui les expose à des risques de sécurité. Les tests de sécurité sont essentiels pour protéger les bâtiments et leurs occupants.
Contrôles détaillés :
A. Authentification et autorisation
Mots de passe :
- ✅ Tous les mots de passe par défaut ont été changés
- ✅ Politique de mots de passe forte (min 12 caractères, majuscules, chiffres, caractères spéciaux)
- ✅ Rotation périodique des mots de passe
- ✅ Pas de mots de passe en clair dans les fichiers de configuration
Gestion des utilisateurs :
- ✅ Chaque utilisateur a un compte unique (pas de compte partagé)
- ✅ Principe du moindre privilège (droits minimaux nécessaires)
- ✅ Désactivation automatique des comptes inactifs
- ✅ Audit des connexions utilisateurs
B. Sécurité réseau
Chiffrement des communications :
- ✅ Utilisation de protocoles sécurisés (HTTPS, TLS pour BACnet/IP)
- ✅ Certificats SSL valides et à jour
- ✅ Pas de communication en clair pour les données sensibles
Cloisonnement réseau :
- ✅ Séparation des réseaux BMS et réseau d'entreprise (VLAN)
- ✅ Pare-feu configuré entre les réseaux
- ✅ Règles de filtrage des ports et protocoles
- ✅ Isolation des équipements critiques
Sécurisation des automates :
- ✅ Désactivation des services inutiles (Telnet, FTP)
- ✅ Mise à jour des firmwares (correction des vulnérabilités)
- ✅ Configuration des règles de pare-feu sur les automates
C. Journalisation et audit
Journalisation des accès :
- ✅ Enregistrement de toutes les connexions (succès et échecs)
- ✅ Traçabilité des actions critiques (changement de consigne, arrêt d'équipement)
- ✅ Conservation des logs pendant au moins 1 an
- ✅ Protection des logs contre la modification
Audit de sécurité :
- ✅ Revue régulière des logs d'accès
- ✅ Détection des tentatives d'intrusion
- ✅ Alertes automatiques en cas d'activité suspecte
D. Tests de pénétration
Objectif : Simuler des attaques pour identifier les vulnérabilités.
Types de tests :
- Scan de ports : Identifier les ports ouverts et services accessibles
- Test de force brute : Tentative de connexion avec des mots de passe courants
- Injection de commandes : Tentative d'injection dans les protocoles (Modbus, BACnet)
- Test de déni de service : Vérifier la résistance aux surcharges
Les attaques BMS courantes :
| Type d'attaque | Description | Impact | Protection |
|---|---|---|---|
| Prise de contrôle automates | Accès non autorisé aux automates | Contrôle total du système | Authentification forte, réseau isolé |
| Injection Modbus | Envoi de commandes malveillantes via Modbus | Manipulation des équipements | Validation des commandes, liste blanche |
| Montée d'inconfort (attaque "soft") | Modification subtile des consignes | Inconfort des occupants | Détection des anomalies, alertes |
| Arrêt technique (attaque "hard") | Arrêt brutal des équipements | Panne totale du système | Redondance, isolation réseau |
| Vol de données | Accès aux données de consommation | Espionnage industriel | Chiffrement, contrôle d'accès |
Exemple de test de sécurité :
Scénario : Test d'accès non autorisé à un automate
- Préparation : Automate configuré avec authentification
- Test : Tentative de connexion avec mot de passe par défaut
- Résultat attendu : Accès refusé, tentative enregistrée dans les logs
- Vérification : Alerte envoyée à l'administrateur
Checklist de sécurité BMS :
- Tous les mots de passe par défaut changés
- Chiffrement activé sur toutes les communications
- Réseau BMS isolé du réseau d'entreprise
- Pare-feu configuré et actif
- Mises à jour de sécurité appliquées
- Journalisation activée et vérifiée
- Tests de pénétration réalisés
- Plan de réponse aux incidents défini
5. Tests utilisateurs (UAT - User Acceptance Testing)
Objectif : Valider que le système répond aux besoins réels des utilisateurs finaux et qu'il est utilisable en conditions d'exploitation.
Les tests UAT sont réalisés par les futurs utilisateurs du système, avec des scénarios réels d'utilisation. C'est la dernière étape avant la mise en production.
Participants :
- Utilisateurs finaux (exploitants, techniciens de maintenance)
- Représentants du client
- Équipe projet (support technique)
Ce que le client vérifie :
A. Utilisabilité de l'interface
Critères d'évaluation :
- Navigation intuitive : Les utilisateurs trouvent facilement les informations
- Lisibilité : Les écrans sont clairs et bien organisés
- Réactivité : L'interface répond rapidement aux actions
- Ergonomie : Les actions courantes sont accessibles rapidement
Exemples de tests :
- Un exploitant doit pouvoir consulter la température d'une salle en moins de 3 clics
- Les alarmes doivent être visibles immédiatement
- Les graphiques doivent être lisibles et compréhensibles
B. Adaptation des scénarios
Vérification :
- Les scénarios automatiques correspondent aux besoins réels
- Les plages horaires sont correctes (heures d'ouverture, jours fériés)
- Les consignes sont adaptées aux usages (température, éclairage)
- Les priorités sont respectées (ex: confort vs économie d'énergie)
Exemple :
- Scénario "Mode nuit" : Vérifier que l'éclairage s'éteint bien après la fermeture
- Scénario "Présence" : Vérifier que la ventilation s'active correctement quand quelqu'un entre dans la salle
C. Gestion des droits utilisateurs
Vérification des rôles :
- Administrateur : Accès complet à la configuration
- Exploitant : Accès à la supervision et aux commandes manuelles
- Lecteur : Accès en lecture seule aux données
Tests de sécurité :
- Un utilisateur "Lecteur" ne peut pas modifier les consignes ✅
- Un utilisateur "Exploitant" ne peut pas modifier la configuration système ✅
- Les tentatives d'accès non autorisé sont bloquées ✅
D. Formation et documentation
Vérification :
- La documentation utilisateur est complète et claire
- Les utilisateurs peuvent utiliser le système après formation
- Les procédures d'exploitation sont documentées
- Les procédures de maintenance sont disponibles
Dans l'industrie, cela s'appelle souvent :
- "Recette Client" : Validation finale par le client avant acceptation
- "Mise en service" : Passage du système en exploitation
- "Livraison" : Remise du système au client
Procédure de recette client :
-
Préparation :
- Système entièrement testé et validé par l'équipe projet
- Documentation complète disponible
- Formation des utilisateurs réalisée
-
Exécution :
- Tests réalisés par les utilisateurs avec scénarios réels
- Validation de chaque fonctionnalité
- Identification des éventuels points d'amélioration
-
Validation :
- Signature du procès-verbal de recette
- Liste des réserves (points à corriger)
- Planification des corrections si nécessaire
Résultat attendu :
- ✅ Système conforme aux attentes du client
- ✅ Utilisateurs formés et autonomes
- ✅ Documentation complète et validée
- ✅ Système prêt pour l'exploitation
Partie III – Construction d'un plan de tests
1. Structure complète professionnelle
Un plan de tests complet contient :
A. Contexte et périmètre
Définition du système :
- Description détaillée du système à tester
- Liste des équipements concernés
- Architecture système (schéma fonctionnel)
- Version des logiciels et firmwares
Limites du test :
- Ce qui est inclus dans les tests
- Ce qui est exclu (hors périmètre)
- Contraintes techniques ou temporelles
Hypothèses :
- Environnement de test disponible (banc d'essai + simulateur)
- Accès aux équipements nécessaires
- Documentation technique disponible
- Équipe formée aux outils de test
Exemple :
Système : Gestion technique de bâtiment pour un immeuble de bureaux de 5000 m²
Périmètre inclus :
- Système de chauffage/ventilation/climatisation (CVC)
- Éclairage intelligent
- Gestion des accès
Périmètre exclu :
- Système d'ascenseurs (géré par un autre prestataire)
- Système de sécurité incendie (norme spécifique)
Hypothèses :
- Banc d'essai disponible avec simulateurs de capteurs
- Accès au réseau de test isolé
- Documentation BACnet et Modbus disponible
B. Références
Documents de référence :
- Cahier des charges : Spécifications fonctionnelles et techniques
- Carnet d'intégration : Documentation technique des équipements
- Normes techniques : Normes applicables (ISO, EN, etc.)
- Manuels utilisateur : Documentation des équipements
- Plans d'architecture : Schémas électriques, réseaux, etc.
Exemple de références :
- Cahier des charges v2.3 du 15/03/2024
- Norme EN ISO 16484 (BACnet)
- Manuel technique Schneider EcoStruxure v4.2
- Plan réseau GTB - Version finale
C. Organisation
Équipe projet :
- Responsable test : Personne en charge de l'exécution des tests
- Responsable validation : Personne validant les résultats
- Testeurs : Équipe exécutant les tests
- Support technique : Assistance en cas de problème
Calendrier prévu :
- Date de début des tests
- Durée estimée de chaque phase
- Jalons de validation
- Date de fin prévue
Exemple de planning :
| Phase | Durée | Responsable |
|---|---|---|
| Tests unitaires | 1 semaine | Équipe intégration |
| Tests d'intégration | 2 semaines | Équipe test |
| Tests système | 1 semaine | Équipe test + Client |
| Recette client | 3 jours | Client |
D. Environnement de test
Composants de l'environnement :
- Supervision de préproduction : Copie de la supervision de production pour tests
- Simulateur de capteurs : Outil permettant de simuler les valeurs des capteurs
- Réseau isolé : Réseau dédié pour éviter d'impacter la production
- Automates réels : Automates de test ou copie de la configuration production
- Serveurs de test : Serveurs BMS dédiés aux tests
Configuration type :
Environnement de test :
├── Serveur BMS (préproduction)
├── Supervision (copie production)
├── 3 automates de test
├── Simulateur de capteurs (20 points)
├── Réseau isolé (VLAN test)
└── Poste de travail testeur
Avantages d'un environnement dédié :
- Pas d'impact sur la production
- Tests reproductibles
- Possibilité de simuler des pannes
- Tests de charge sans risque
E. Liste des cas de tests
Chaque cas de test doit inclure :
| Champ | Description |
|---|---|
| ID | Numéro unique |
| Priorité | Haute / Moyenne / Basse |
| Objet testé | Capteur / API / Supervision |
| Objectif | But du test |
| Préconditions | Ce qu'il faut avant de commencer |
| Procédure | Étapes détaillées |
| Résultat attendu | Valeur exacte de réussite |
| Résultat obtenu | Valeur mesurée |
| Statut | OK / NOK |
| Date | D'exécution |
| Testeur | Opérateur |
2. Exemples professionnalisés de cas de test
Exemple 1 : TC-418 – Test de régulation chauffage
| Élément | Valeur |
|---|---|
| ID | TC-418 |
| Priorité | Haute |
| Type | Test fonctionnel |
| Sous-système | CVC - Chauffage |
| Objet testé | Régulation température salle 201 |
| Objectif | Vérifier que le chauffage s'active automatiquement si la température est inférieure à la consigne |
| Préconditions | - Capteur de température installé et calibré- Automate de régulation configuré- Consigne réglée à 19°C- Système en mode automatique |
| Procédure | 1. Vérifier l'état initial : température = 20°C, chauffage OFF2. Simuler une baisse de température à 18°C via simulateur3. Observer l'automate de régulation4. Vérifier que la commande "Chauffage ON" est envoyée5. Mesurer le temps de réaction |
| Résultat attendu | - Chauffage activé en moins de 4 secondes- Température remonte progressivement- Arrêt automatique quand T° ≥ 19°C |
| Résultat obtenu | (à remplir lors de l'exécution) |
| Statut | OK / NOK / Bloqué |
| Date d'exécution | (à remplir) |
| Testeur | (nom du testeur) |
| Commentaires |
Exemple 2 : TC-502 – Test d'intégration capteur CO₂
| Élément | Valeur |
|---|---|
| ID | TC-502 |
| Priorité | Haute |
| Type | Test d'intégration |
| Sous-système | Qualité de l'air |
| Objet testé | Chaîne complète : Capteur CO₂ → Automate → Supervision |
| Objectif | Vérifier que la valeur CO₂ remonte correctement de la source jusqu'à la supervision |
| Préconditions | - Capteur CO₂ connecté à l'automate- Automate configuré en Modbus- Serveur BMS connecté- Supervision configurée avec le point CO₂ |
| Procédure | 1. Injecter une valeur connue au capteur (ex: 800 ppm)2. Vérifier la valeur dans l'automate (lecture Modbus)3. Vérifier la valeur dans le serveur BMS4. Vérifier l'affichage en supervision5. Comparer les valeurs à chaque niveau |
| Résultat attendu | - Valeur identique à tous les niveaux (800 ppm ± 10 ppm)- Latence totale < 2 secondes- Pas de perte de données |
| Résultat obtenu | (à remplir lors de l'exécution) |
| Statut | OK / NOK / Bloqué |
| Date d'exécution | (à remplir) |
| Testeur | (nom du testeur) |
| Commentaires |
Exemple 3 : TC-715 – Test de sécurité authentification
| Élément | Valeur |
|---|---|
| ID | TC-715 |
| Priorité | Critique |
| Type | Test de sécurité |
| Sous-système | Authentification |
| Objet testé | Système d'authentification supervision |
| Objectif | Vérifier que les tentatives d'accès non autorisé sont bloquées |
| Préconditions | - Compte utilisateur "test" créé avec mot de passe "Test123!"- Supervision accessible- Journalisation activée |
| Procédure | 1. Tentative de connexion avec mauvais mot de passe (3 tentatives)2. Vérifier le blocage du compte3. Vérifier l'enregistrement dans les logs4. Vérifier l'envoi d'alerte à l'administrateur |
| Résultat attendu | - Accès refusé après 3 tentatives- Compte bloqué pendant 15 minutes- Tentatives enregistrées dans les logs- Alerte envoyée à l'admin |
| Résultat obtenu | (à remplir lors de l'exécution) |
| Statut | OK / NOK / Bloqué |
| Date d'exécution | (à remplir) |
| Testeur | (nom du testeur) |
| Commentaires |
3. Expression des résultats
A. Tableaux de synthèse
Tableau récapitulatif global :
| Indicateur | Valeur | Pourcentage |
|---|---|---|
| Nombre total de tests | 150 | 100% |
| Tests réussis (OK) | 142 | 94,6% |
| Tests en échec (NOK) | 6 | 4,0% |
| Tests bloqués | 2 | 1,4% |
| Taux de succès | - | 94,6% |
Répartition par type de test :
| Type de test | Total | OK | NOK | Taux succès |
|---|---|---|---|---|
| Tests fonctionnels | 80 | 76 | 4 | 95,0% |
| Tests d'intégration | 40 | 38 | 2 | 95,0% |
| Tests de performance | 15 | 15 | 0 | 100% |
| Tests de sécurité | 10 | 9 | 1 | 90,0% |
| Tests UAT | 5 | 4 | 0 | 80,0% |
Répartition par priorité :
| Priorité | Total | OK | NOK | Taux succès |
|---|---|---|---|---|
| Critique | 20 | 19 | 1 | 95,0% |
| Haute | 60 | 57 | 3 | 95,0% |
| Moyenne | 50 | 48 | 2 | 96,0% |
| Basse | 20 | 18 | 0 | 90,0% |
B. Indicateurs complémentaires
Qualité :
-
Taux d'anomalies critiques : Nombre d'anomalies critiques / Nombre total de tests
- Exemple : 2 anomalies critiques sur 150 tests = 1,3%
-
Taux de non-régressions réussies : Tests de non-régression OK / Total tests de non-régression
- Exemple : 45/50 = 90%
-
Couverture fonctionnelle : Pourcentage de fonctionnalités testées
- Exemple : 95% des fonctionnalités critiques testées
Performance :
-
Temps moyen de résolution : Temps moyen pour corriger une anomalie
- Exemple : 2,5 jours en moyenne
-
Taux de réouverture : Nombre d'anomalies réouvertes / Nombre d'anomalies corrigées
- Exemple : 2/20 = 10%
Efficacité :
-
Taux d'exécution : Tests exécutés / Tests planifiés
- Exemple : 150/160 = 93,75%
-
Productivité : Nombre de tests exécutés par jour
- Exemple : 15 tests/jour
C. Graphiques et visualisations
Graphique en camembert : Répartition des résultats (OK/NOK/Bloqué)
Graphique en barres : Résultats par type de test
Courbe d'évolution : Progression du taux de succès au fil du temps
Carte de chaleur : Répartition des anomalies par sous-système
D. Analyse des résultats
Points positifs :
- ✅ Taux de succès global élevé (94,6%)
- ✅ Tous les tests critiques réussis sauf 1
- ✅ Tests de performance à 100%
- ✅ Bonne couverture fonctionnelle
Points d'attention :
- ⚠️ 2 tests bloqués nécessitent une investigation
- ⚠️ Tests UAT à améliorer (80% de succès)
- ⚠️ 1 anomalie critique à corriger avant mise en production
Recommandations :
- Corriger l'anomalie critique identifiée
- Réexécuter les tests bloqués après correction
- Améliorer les tests UAT avec le client
- Valider les corrections avant mise en production
Partie IV – Gestion des anomalies
1. Cycle de vie d'une anomalie
Le cycle de vie d'une anomalie suit un processus structuré pour garantir sa résolution complète.
Étapes détaillées :
-
Détection
- Identification de l'anomalie lors d'un test
- Enregistrement dans le système de suivi
- Attribution d'un identifiant unique (ex: BUG-117)
-
Qualification
- Description détaillée du problème
- Détermination de la sévérité (Critique / Majeure / Mineure)
- Évaluation de la reproductibilité
- Capture de preuves (screenshots, logs, valeurs)
-
Affectation
- Attribution à un responsable (développeur / intégrateur / fournisseur)
- Définition de la priorité selon la sévérité
- Estimation du temps de correction
-
Correction
- Analyse de la cause racine
- Développement de la correction
- Tests unitaires de la correction
- Mise à disposition en environnement de test
-
Re-test
- Réexécution du test qui avait échoué
- Vérification que la correction résout le problème
- Tests de non-régression (vérifier qu'on n'a pas cassé autre chose)
-
Clôture
- Validation de la correction
- Mise à jour de la documentation si nécessaire
- Fermeture de l'anomalie dans le système de suivi
Durée typique du cycle :
| Sévérité | Durée cible | Exemple |
|---|---|---|
| Critique | 24-48h | Panne système |
| Majeure | 3-5 jours | Fonctionnalité importante |
| Mineure | 1-2 semaines | Amélioration cosmétique |
2. Fiche anomalie – Modèle détaillé
Modèle complet de fiche d'anomalie :
| Champ | Description | Exemple |
|---|---|---|
| ID | Identifiant unique de l'anomalie | BUG-117 |
| Titre | Résumé court du problème | Vanne ne réagit pas en mode AUTO |
| Sévérité | Impact sur le système | Critique / Majeure / Mineure |
| Priorité | Urgence de traitement | P0 (immédiat) / P1 / P2 / P3 |
| Type | Catégorie de l'anomalie | Fonctionnel / Intégration / Performance / Sécurité |
| Sous-système | Zone concernée | CVC - Ventilation - Local 2 |
| Description | Description détaillée du problème | La vanne V-201 ne répond pas aux commandes en mode automatique. En mode manuel, la vanne fonctionne correctement. |
| Environnement | Contexte de l'anomalie | Réseau BACnet – Local 2 – Automate A-05 |
| Reproductibilité | Fréquence d'apparition | 100% (toujours) / 50% (parfois) / Rare |
| Étapes pour reproduire | Procédure pour reproduire le problème | 1. Mettre la vanne en mode AUTO2. Envoyer commande "Ouvrir à 50%"3. Observer : pas de mouvement4. Passer en mode MANUEL5. Commande fonctionne |
| Résultat attendu | Comportement normal attendu | Vanne s'ouvre à 50% en moins de 10 secondes |
| Résultat observé | Comportement réel observé | Pas de mouvement, pas d'erreur affichée |
| Fichiers joints | Captures, logs, etc. | Screenshot supervision, log automate |
| Responsable | Personne en charge de la correction | Intégrateur GTB - Jean Dupont |
| Date création | Date de détection | 15/03/2024 |
| Date résolution | Date de correction | (à remplir) |
| État | Statut actuel | Ouvert / En cours / Corrigé / Testé / Clos / Rejeté |
| Commentaires | Notes additionnelles | Problème identifié : configuration automate incorrecte |
Exemple complet :
BUG-117 - Vanne V-201 ne répond pas en mode AUTO
Sévérité : Majeure | Priorité : P1 | Type : Fonctionnel
Description : La vanne motorisée V-201 du local 2 ne répond pas aux commandes automatiques. Le mode manuel fonctionne correctement, ce qui indique un problème de configuration plutôt qu'un problème matériel.
Environnement : Réseau BACnet, Automate A-05, Supervision EcoStruxure v4.2
Reproductibilité : 100% - Le problème se produit systématiquement
Étapes pour reproduire :
- Se connecter à la supervision
- Sélectionner la vanne V-201
- Passer en mode AUTO
- Envoyer commande "Ouvrir à 50%"
- Observer : aucun mouvement de la vanne
- Vérifier les logs de l'automate : aucune commande reçue
Résultat attendu : Vanne s'ouvre à 50% en moins de 10 secondes
Résultat observé : Pas de mouvement, pas d'erreur dans les logs
Fichiers joints :
- Screenshot supervision (bug-117-screenshot.png)
- Log automate A-05 (bug-117-logs.txt)
Responsable : Intégrateur GTB - Jean Dupont
État : En cours
Commentaires :
- 16/03/2024 : Analyse en cours, vérification de la configuration BACnet
- 17/03/2024 : Problème identifié : objet BACnet mal configuré dans l'automate
Partie V – Outils professionnels
1. Outils logiciels GTB utilisés en industrie
Supervision et configuration :
- Schneider EcoStruxure : Plateforme de gestion de bâtiment connecté
- Siemens Desigo : Système de gestion technique de bâtiment
- Niagara Framework : Plateforme ouverte pour l'intégration de systèmes
- Tridium AX : Framework de développement pour systèmes intégrés
- WIT : Logiciel de supervision et de gestion énergétique
- Omnicore : Solution de gestion technique de bâtiment
Fonctionnalités communes :
- Configuration des automates
- Supervision en temps réel
- Historisation des données
- Génération de rapports
- Gestion des alarmes
2. Outils réseau et protocoles
Analyse de trames réseau :
- Wireshark : Analyseur de protocoles réseau, permet de capturer et analyser les trames BACnet, Modbus, etc.
- tcpdump : Outil en ligne de commande pour l'analyse réseau
Exploration de protocoles BMS :
- BACnet Explorer : Outil dédié pour explorer et tester les objets BACnet
- Modbus Doctor : Logiciel pour tester et déboguer les communications Modbus
- KNX ETS : Outil de configuration et test pour les installations KNX
Tests et automatisation :
- TestLink : Gestion de campagnes de tests
- Squash : Plateforme de test et qualité logicielle
- JMeter : Tests de charge et performance
- Postman : Tests d'API REST pour les systèmes BMS modernes
Utilisation typique :
- Wireshark : Capturer les échanges réseau pour diagnostiquer un problème de communication
- BACnet Explorer : Découvrir les objets BACnet disponibles sur le réseau
- Modbus Doctor : Tester la lecture/écriture de registres Modbus
- Postman : Tester les API REST d'un système BMS moderne
3. Outils physiques de mesure
Mesures environnementales :
- Luxmètre : Mesure de l'éclairement (lux) pour valider les capteurs de luminosité
- Hygromètre : Mesure de l'humidité relative pour calibrer les capteurs
- Thermomètre / Thermocouple : Mesure de température de référence pour étalonnage
- Anémomètre : Mesure de la vitesse de l'air pour les systèmes de ventilation
- Débitmètre : Mesure du débit d'air ou d'eau pour les systèmes CVC
Mesures électriques :
- Multimètre : Mesure de tension, courant, résistance pour diagnostiquer les équipements
- Pince ampèremétrique : Mesure de courant sans déconnexion
- Oscilloscope : Visualisation des signaux électriques pour l'analyse fine
Analyse réseau :
- Analyseurs IP/MSTP : Outils spécialisés pour analyser les réseaux BACnet
- Testeurs de câbles : Vérification de l'intégrité des câbles réseau
- Toner de réseau : Localisation et identification des câbles
Diagnostic avancé :
- Caméra thermique : Détection des surchauffes et problèmes d'isolation
- Analyseur de qualité d'air : Mesure CO₂, COV, particules pour validation des capteurs
- Enregistreur de données : Enregistrement continu de plusieurs paramètres
Exemple d'utilisation :
Pour valider un capteur de température :
- Placer un thermomètre de référence à côté du capteur
- Comparer les valeurs affichées
- Vérifier la précision (écart < ±0,5°C généralement)
- Tester sur toute la plage de mesure
Partie VI – Vocabulaire essentiel
| Terme | Définition |
|---|---|
| Test | Vérification du bon fonctionnement d'un composant ou d'un processus |
| Plan de tests | Document qui décrit l'ensemble des tests à réaliser |
| Cas de test (Test Case) | Unité de test décrivant : objectif, prérequis, action, résultat attendu |
| Campagne de test | Ensemble de cas de tests exécutés |
| Anomalie / Bug | Non-conformité entre résultat obtenu et résultat attendu |
| Test fonctionnel | Valider que la fonction se comporte correctement |
| Test d'intégration | Vérifier communication entre équipements |
| Test de performance | Vérifier temps de réponse, capacité du système |
| Test de sécurité | Contrôle des accès, cryptage, vulnérabilités |
| Test de conformité | Respect d'une norme ou cahier des charges |
| Test utilisateur (UAT) | Validation finale par le client |
Partie VII – Méthodologie de rédaction d'un plan de tests
1. Étapes de création
Phase 1 : Analyse (1-2 jours)
- Lecture et compréhension du cahier des charges
- Identification des fonctionnalités à tester
- Définition du périmètre de test
- Identification des risques
Phase 2 : Conception (3-5 jours)
- Création de la structure du plan de tests
- Rédaction des cas de tests détaillés
- Définition des critères de réussite
- Organisation des tests par priorité
Phase 3 : Révision (1-2 jours)
- Validation par l'équipe projet
- Ajustements selon retours
- Finalisation du document
Phase 4 : Exécution (selon planning)
- Exécution des tests selon le plan
- Enregistrement des résultats
- Suivi des anomalies
2. Conseils pratiques
Pour rédiger un bon cas de test :
- ✅ Être précis et détaillé dans les procédures
- ✅ Définir des critères de réussite mesurables
- ✅ Prévoir les préconditions nécessaires
- ✅ Anticiper les cas limites
- ✅ Rédiger de manière claire et compréhensible
Erreurs à éviter :
- ❌ Procédures trop vagues ("Vérifier que ça marche")
- ❌ Critères de réussite subjectifs ("Interface agréable")
- ❌ Oubli des préconditions
- ❌ Tests non reproductibles
- ❌ Manque de traçabilité avec les exigences
3. Outils de gestion
Tableurs (Excel, Google Sheets) :
- Avantages : Facile à utiliser, accessible à tous
- Inconvénients : Pas de traçabilité automatique, gestion de versions difficile
Outils dédiés (TestLink, Squash, Jira) :
- Avantages : Traçabilité, gestion des versions, reporting automatique
- Inconvénients : Courbe d'apprentissage, coût éventuel
Recommandation : Pour débuter, un tableur est suffisant. Pour des projets complexes, un outil dédié est préférable.
Partie VIII – Éléments de synthèse
Un bon plan de test :
- ✅ Couverture complète : Couvre 100% des fonctionnalités critiques
- ✅ Méthodologie structurée : Suit une méthodologie documentée et reproductible
- ✅ Protection contre les régressions : Permet de détecter les régressions après modifications
- ✅ Confiance client : Améliore la confiance du client dans le système
- ✅ Traçabilité totale : Chaque test peut être relié à une exigence
- ✅ Documentation complète : Procédures claires et résultats documentés
- ✅ Adaptabilité : Peut être mis à jour selon l'évolution du projet
Sans plan de tests :
- ❌ Risques opérationnels : Risque de panne en exploitation
- ❌ Coûts supplémentaires : Surcoûts de maintenance et corrections tardives
- ❌ Image dégradée : Perte de confiance du client
- ❌ Reprise tardive : Erreurs découvertes trop tard, corrections coûteuses
- ❌ Manque de traçabilité : Difficulté à prouver la conformité
- ❌ Formation difficile : Pas de documentation pour former les nouveaux utilisateurs
Bénéfices mesurables
Retour sur investissement :
- Réduction de 60-80% des bugs en production
- Diminution de 40-50% des coûts de maintenance
- Amélioration de 30-50% de la satisfaction client
- Réduction de 50-70% du temps de mise en service
Indicateurs de qualité :
- Taux de réussite des tests > 95%
- Couverture fonctionnelle > 90%
- Temps moyen de résolution des anomalies < 3 jours
- Nombre de régressions < 5% après corrections
Conclusion
Le test est une phase stratégique, pas une formalité.
Un système BMS/GTB bien testé garantit :
- Fiabilité opérationnelle : Le système fonctionne comme prévu en conditions réelles
- Performance énergétique : Optimisation de la consommation énergétique
- Satisfaction utilisateur : Interface intuitive et fonctionnalités adaptées
- Conformité aux normes : Respect des réglementations et standards
- Réduction des coûts : Moins de pannes, moins de maintenance corrective
- Sécurité : Protection contre les accès non autorisés et les pannes critiques
La gestion des plans de tests est donc un élément essentiel dans la réussite d'un projet de bâtiment intelligent.
Investir du temps dans la conception et l'exécution d'un plan de tests complet permet d'économiser du temps et de l'argent sur le long terme, tout en garantissant la qualité et la fiabilité du système livré.
📥 Ressources à Télécharger
📄 Étude de Cas - Plan de Tests BMS
📥 Télécharger l'étude de cas complète (PDF)
Ce document contient un cahier des charges détaillé pour créer un plan de tests complet sur un système de gestion technique de bâtiment.
📋 Modèle de Plan de Tests
📥 Télécharger le modèle de plan de tests (DOCX)
Ce modèle simplifié vous permet de créer votre propre plan de tests avec des templates prêts à remplir.
