Eos Blogs

Waar NASA ons aan herinnert over veiligheid: menselijk gedrag is de kern van complexe systemen

Hoe geavanceerder onze technologie wordt, hoe doorslaggevender onze houding en samenwerking worden. Dat leidt ruimtevaartdeskundige Nancy Vermeulen af uit het recente NASA-rapport over de Starliner-testvlucht. De ruimtevaart fungeert daarbij als spiegel voor andere sectoren.

Wanneer NASA een onderzoeksrapport publiceert, luisteren we. Niet alleen omdat het over raketten en ruimtecapsules gaat, maar omdat ruimtevaart nog altijd het summum is van technologische complexiteit. Als daar iets misloopt, gaat het zelden om een detail.

Onlangs publiceerde NASA het onderzoek naar de bemande testvlucht van Boeing’s Starliner. De missie werd geclassificeerd als een “Type A mishap” — de hoogste categorie — niet omdat er slachtoffers vielen, maar omdat het risico op verlies van bemanning reëel was. Opvallend hier was dat het niet alleen ging over wat er technisch fout liep. Naast problemen met voortstuwing en integratie benoemde NASA ook menselijke factoren zoals verschillen in risicobeoordeling tussen teams, communicatie-uitdagingen, en signalen die niet tijdig voldoende gewicht kregen in het besluitvormingsproces. Met andere woorden: het probleem zat niet alleen in de hardware. Het zat ook in hoe mensen samenwerkten rond die hardware. Dat is geen beschuldiging maar een realiteit die elke hoogtechnologische sector vroeg of laat onder ogen moet zien.

We hebben de neiging om veiligheid te bekijken als een technisch vraagstuk. Meer testen, meer redundantie, meer controlemechanismen... En die aanpak heeft ons ver gebracht. De moderne lucht-en ruimtevaart zijn uitzonderlijk veilig geworden in vergelijking tot de beginjaren. Maar naarmate systemen complexer worden, verschuift het zwaartepunt. Uit het onderzoek naar accidenten en incidenten blijkt dat grote problemen zelden ontstaan door één defect onderdeel maar door een combinatie van factoren die soms op een ongelukkige manier samenvallen en waarin de mens zelf de zwakste schakel wordt. Dit uit zich bijvoorbeeld in aannames die niet expliciet worden gemaakt, signalen die wel opgemerkt, maar niet gedeeld worden of verschillen in interpretatie die onder tijdsdruk niet meer worden uitgeklaard.

Hoe complexer het systeem, hoe groter de rol van menselijke factoren wordt. Dat inzicht is niet nieuw. Reeds in de jaren tachtig besefte de luchtvaartsector dat technische expertise alleen niet volstond. Crew Resource Management werd ingevoerd om communicatie, leiderschap en besluitvorming onder druk te versterken. Niet omdat piloten onbekwaam waren, maar omdat zelfs zeer competente professionals vatbaar zijn voor tunnelvisie, hiërarchische drempels of groepsdenken. Veiligheid draaide niet langer uitsluitend rond hoog professioneel opgeleide individuen, maar rond goed functionerende teams in een cultuur waar psychologische veiligheid toeliet openlijk fouten te erkennen.

Wat dit NASA-rapport opnieuw laat zien, is hoe subtiel die dynamiek werkt. In sterk geautomatiseerde systemen verschuift de rol van de mens van uitvoerder naar waakzame toezichthouder. Dat vraagt een andere vorm van alertheid. Soms zit het verschil in iets ogenschijnlijk kleins: een twijfel die hardop wordt uitgesproken, een vraag die nét op tijd wordt gesteld, waardoor een beslissing even wordt gepauzeerd en de risicoanalyse opnieuw grondig wordt bekeken. Juist die kleine interventies kunnen een grote impact hebben. 

Hoe geavanceerder de technologie, hoe belangrijker de houding van de mensen die ermee werken. Die les beperkt zich niet tot de lucht- en ruimtevaartsector. In ziekenhuizen zien we dezelfde evolutie. Briefings vóór operaties, checklists in de operatiezaal, expliciet aanmoedigen om bezorgdheden te uiten. Dit is nodig omdat men beseft dat complexe situaties alleen veilig blijven wanneer teams elkaar scherp houden.

Veiligheid is geen checklist. Het is een cultuur. Die gedachte vormt ook de kern van mijn boek Aerospace Attitudes, waarin ik beschrijf wat de lucht- en ruimtevaart ons leert over prestaties onder druk.

Ook strategische keuzes illustreren dat. De discussie rond het Lunar Gateway binnen het Artemis-programma gaat ogenschijnlijk over infrastructuur in een baan rond de maan. Maar onder die technische discussie ligt een fundamentele vraag: leggen we de nadruk op afzonderlijke missies of op de bouw van een duurzaam ecosysteem met meerdere knooppunten en internationale verankering? Minder componenten betekent minder kritieke punten, maar meer knooppunten binnen een breder ecosysteem kunnen net zorgen voor meer veerkracht en flexibiliteit. Systeemarchitectuur is dus nooit puur technisch alleen, maar weerspiegelt hoe we omgaan met complexiteit.

Wat mij vooral treft in het NASA-rapport, is de openheid. Het feit dat een organisatie met zoveel expertise ook haar organisatorische en culturele processen onder de loep neemt, toont maturiteit. Veiligheid betekent niet dat er nooit iets fout loopt maar dat men bereid is te leren uit potentiële risico’s.

Misschien is dat wel de belangrijkste les. De ruimte lijkt ver weg, maar de veiligheidsdynamiek rond ruimteoperaties is verrassend herkenbaar. Vandaag werken we allemaal in systemen die groter zijn dan onszelf, met sterke onderlinge afhankelijkheid en minimale foutmarges. Onze beslissingen reiken vaak verder dan we beseffen. Net zoals een ruimtecapsule afhankelijk is van duizenden mensen hier op aarde, functioneren ook onze organisaties als netwerken van gedeelde verantwoordelijkheid.

In die zin zijn we allemaal ruimtevaarders.

De echte vraag is dus niet alleen hoe krachtig onze technologie is, maar hoe matuur onze veiligheidscultuur is. Durven we twijfel uit te spreken? Kunnen we onze eigen aannames in vraag stellen? Nemen we verantwoordelijkheid wanneer het ongemakkelijk wordt?

De ruimte herinnert ons eraan dat vooruitgang niet alleen zit in wat we bouwen, maar hoe we samenwerken wanneer de druk toeneemt.

En dat begint niet bij technologie.
Dat begint bij onszelf.