Orde of Chaos op de operatiekamer?

challengerProcedures, checklists en kwaliteitsverbetering roept bij veel mensen een beeld op van strak georganiseerde processen en een verlies aan autonomie van de medewerker. Zeker voor medewerkers in de operatiekamer die gewend zijn aan een veelheid aan onverwachte omstandigheden, ziektebeelden en complicaties is dat een schrikbeeld.
In “High Reliability Organisations” (HRO) (1) wordt dan ook onderkend dat het vastleggen van concrete processen in sommige situatie meer problemen oplevert dan dan voordelen. In de woorden van James Reason:

After studying human unsafe acts within the hazardous enterprises for more than three decades I have to confess that I find the heroic recoveries of much greater interest – and in the long run, I believe – potentially more beneficial to the pursuit of improved safety in dangerous situations (James Reason, The Human Contribution, 2008)

Niet alles is vooraf te voorspellen, zeker bij complexe processen als op de operatiekamer of in de cockpit. Van belang is dat er altijd een escape is waaronder een individu kan afwijken van de standaard. Zo draaien de rollen tussen air traffic controller (ATC) om als de pilot “mayday, mayday, mayday” roept. Normaal is de ATC de baas maar na de mayday call is de piloot de baas en kan zelf bepalen waar hij heen vliegt en waar hij land. Uiteraard moet de piloot zich achteraf verantwoorden maar op het moment zelf is er niemand die de noodsituatie ter discussie zal stellen.
Toch kunnen checklists juist in dit soort situaties uitermate nuttig zijn maar dan veel meer gericht op de stappen in het besluitvormingsproces. Het meest simpele voorbeeld van een dergelijke checklist is een les die we vaak onze kinderen al jong leren voor als ze in een situatie komen die gevaarlijk kan zijn.
Screen Shot 2014-01-09 at 21.05.46
Je weet tenslotte niet in welke situaties je kind allemaal terecht kan komen. Door te leren welke stappen je moet nemen om tot een doordacht besluit te komen bereid je ze voor op alle situaties die je niet kunt voorzien (en dat zijn er nogal wat).
Bij de Space shuttle was de regel dat er niet opgestegen mocht worden tenzij de eindverantwoordelijke overtuigd kon worden dat het veilig was. Na een heleboel veilige vluchten is dat langzaam verandert naar de regel dat de vlucht volgens planning door zou gaan tenzij er bewijs was dat het onveilig was. Dat maakte dat kleine fouten en onveilige situaties steeds meer geaccepteerd werden, leidend tot de fatale vlucht van de Challenger in 1986.
Ook is een van de risico’s van strak geregelde en zoveel mogelijk geautomatiseerde processen dat bij een onverwachte crisis  mensen niet meer weten wat ze moeten doen. De weerbaarheid (resilience) van het proces tegen fouten kan daardoor juist afnemen:

If the system is automated to increase production people will not be able to pick up the pieces when the automated system breaks down (Weick)

dat wil uiteraard niet zeggen dat je geen activiteiten moet standaardiseren. Eenvoudige activiteiten zijn vaak beter te beheersen als je ze standaardiseert (bijvoorbeeld het pakken en registreren van gaasjes in de OK). Voor complexe processen moet de focus veel meer liggen op het ondersteunen van het denk- en beslis proces: hoe zorg je ervoor dat er geen informatie wordt gemist bij het nemen van beslissingen. Zo kan een dergelijke (versimpelde) checklist in de OK er als volgt uitzien als het duidelijk is dat de patient niet reageert zoals verwacht:
– Stop met opereren
– vraag aan de collega’s of iemand ideeën heeft
– loop alle verbaal “vital signs” af van de patient
– meld alternatieven en vraag commentaar
– Chrirurg neemt een beslissing, meld aan het team en voert deze uit.
Essentie is dat een checklist in een dergelijke situatie maakt dat er veel explicieter wordt stil gestaan bij de verschillende aspecten die nodig zijn om een onderbouwd besluit te nemen. Hoewel dit klinkt als een open deur is het toch verbazingwekkend hoe vaak die deuren onder stress gesloten blijken te zijn.
(1) Weick, K. E. (1987). Organizational culture as a source of high-reliability. California management review, 29(2), 112–127.

Leave a Reply

Your email address will not be published.