Les
systèmes complexes sont conçus par les ingénieurs pour opérer
dans des conditions statiques ou déterministes mais opèrent
quotidiennement dans des environnements dynamiques, aléatoires ou
stochastiques, et doivent donc être entretenus et adaptés en permanence.
Selon
le Dr Richard Cook (chercheur au Cognitive Technologies Laboratory
à l'université de Chicago, professeur spécialisé dans la
sûreté des systèmes de santé et directeur du département de la
sûreté médicale au Royal Institute of Technology à
Stockholm), le lien entre la théorie/la conception et
l'application est établi par les opérateurs humains dont la
résilience repose sur quatre facteurs : la surveillance du système,
la réaction aux événements, l'adaptation aux changements de
conditions et l'apprentissage d'une utilisation dérivée de l'objectif initial. Tous ces facteurs réunis relèvent de
« l'ingénierie de la résilience » ou de la « résilience
des systèmes ».
Trop
souvent, les concepteurs/ingénieurs et les opérateurs d'un même
système pensent et agissent dans deux blocs cloisonnés et opposés.
Cook estime que leurs approches doivent être combinées et/ou
coordonnées, notamment grâce à la Méthode d'Analyse de la
Résonance Fonctionnelle (Functional
Resonance Analysis Method) qui, globalement, permet
d'étudier la variabilité des usages quotidiens d'un système dans
le champ réel. La FRAM repose
sur quatre principes généraux : le principe
d'équivalence des succès et des échecs, le principe des
ajustements approximatifs, le principe d'émergence et le principe de
la résonance fonctionnelle.
Un
recours plus poussé à la FRAM (par les concepteurs/ingénieurs et
opérateurs) donnerait ses lettres de noblesse tant à l'ingénierie
de la résilience qu'à l'amélioration des facteurs de résilience
dans le cycle de vie d'un produit, d'un service ou d'un système complexe.
Fort
de son remarquable savoir-faire, Cook a édité le très enrichissant How
Complex Systems Fail
dont les 18 points forts (traduits et interprétés en
français par mes soins, risques d'erreurs en sus) valent largement
le détour :
- Les systèmes complexes sont intrinsèquement sujets à des risques.
- Les systèmes complexes sont lourdement protégés avec succès contre les défaillances.
- Une catastrophe nécessite de multiples défaillances – des points de défaillance uniques ne sont pas suffisants...
- Les systèmes complexes comportent en leur sein des mixtures changeantes de défaillances latentes.
- Les systèmes complexes fonctionnent en mode dégradé.
- La catastrophe est toujours imminente.
- L'attribution post-accidentelle à une cause première est fondamentalement erronée.
- L'analyse rétrospective biaise les évaluations post-accidentelles du facteur humain.
- Les opérateurs humains ont un double rôle : à la fois producteurs de défaillances et protecteurs contre les défaillances.
- Toutes les actions de l'opérateur sont des paris.
- Les actions résolvent finalement toute ambiguïté.
- Les opérateurs humains sont l'élément adaptable des systèmes complexes.
- L'expertise humaine dans les systèmes complexes change constamment.
- Le changement introduit de nouvelles formes de défaillances.
- Des solutions limitées à « la cause première » amoindrissent l'efficacité des protections contre de futurs incidents.
- La sûreté n'est pas une composante mais une caractéristique des systèmes.
- Les opérateurs et les utilisateurs fabriquent constamment de la sûreté.
- La conduite d'opérations sans défaillances nécessite une expérience de la défaillance.
Les
professionnels de la cyber/sécurité, de la finance, de la santé, les
gestionnaires d'infrastructures vitales et les ingénieurs en
aéro/spatial et en armement – pour ne citer qu'eux - feraient bien
de lire et relire ce petit chef d'oeuvre de sociotechnique. Et si on
allait faire un tour à Tchernobyl puis à Fukushima ?
En
savoir plus :
- Cognitive Technologies Laboratory : How Complex Systems Fail (PDF)
- Velocity 2012 : Richard Cook – How Complex Systems Fail (vidéo, 28 mn)
- IT Conversation : How Complex Systems Fail (MP3, 29 mn, 13,6 Mo)
Aucun commentaire:
Enregistrer un commentaire