Start   Weiter 

Vorwort 

von Prof. Klaus Traube 

r1-r5

Mit der hochentwickelten Industriegesellschaft ist ein vielfaltiges Zerstörungspotenrial entstanden, das zu Katastrophen von zuvor ungeahnten Ausmaßen führen kann - bis hin zum atomaren Holocaust.

Abgesehen vom militärischen Bereich ist die katastrophale Freisetzung der Zerstörungspotentiale zwar nicht beabsichtigt; die Möglichkeit wird aber mehr oder weniger bewußt in Kauf genommen. Das gilt sowohl für die alltägliche, routinemäßige Vergiftung der Umwelt, deren Katastrophenträchtigkeit sich im Sterben der Arten und der Wälder offenbart, als auch für singuläre Katastrophen des Typs, den Namen wie Tschernobyl, Bhopal, Sandoz bezeichnen.

Davon - vom plötzlichen Versagen hochgefährlicher technischer Systeme - handelt dieses Buch.

Die Wissenschaft sorgte nicht nur für die Entstehung der Zerstörungspotentiale; seit diese ein hochrangiges Politikum geworden sind, beschäftigt sie sich auch mit den Folgen. So untersuchen Ingenieure die Wahr­schein­lichkeit des Eintretens von Unfällen, befassen sich Mediziner und Biologen mit zulässigen Grenzwerten, erforschen Sozialwissenschaftler die Wahrnehmung von Gefahren etc. Der wissenschaftliche Aufwand an Risikoforschung dient in der Regel dazu, brisante Gefahren politisch handhabbar zu machen, Akzeptanz zu erzeugen. Dies ruft »Gegenwissenschaftler« auf den Plan; sie benutzen in der Regel das gleiche methodische Rüstzeug wie ihre jeweiligen Kontrahenten.

Der Sozialwissenschaftler Perrow begibt sich mit der in diesem Buch vorgestellten Untersuchung der Mechanismen des Versagens katastrophenträchtiger technischer Systeme auf ein Terrain, das bisher den Ingenieuren vorbe­halten war. Perrow überschreitet traditionelle Grenzen der sozialwissenschaftlichen Behandlung des Themenfeldes Mensch/Maschine. Er erhebt rundheraus den Anspruch, eine neuartige, empirisch abgesicherte Theorie technischer Systeme unter dem Aspekt ihrer Anfälligkeit für katastrophales Versagen zu entwerfen.

//

Der provozierende Buchtitel Normale Katastrophen zeigt an, daß Perrow dabei nicht im Elfenbeinturm bleibt. Er nimmt entschieden Stellung zu politisch umstrittenen Technologien. Bei der Debatte um die damit verbundenen Risiken gehe es letztlich, so schreibt er, um die Macht der Wenigen, den Vielen die Risiken aufzuerlegen.

Perrow untersucht ein recht heterogenes Feld technischer Systeme im Hinblick auf Versagensmechanismen. Unter diesen Systemen nimmt das technisch-militärische System, das möglicherweise infolge von Fehlalarm einen Atomkrieg auslösen könnte, eine Sonderstellung ein; die Folgen des Versagens wären unvergleichbar schrecklich. Ansonsten markieren Atomenergie- und Gentechnologie, gefolgt von Chemieanlagen und Schiffen mit explosiver oder toxischer Ladung, die Obergrenze möglicher Katastrophen infolge technischen Versagens - wohl zu unterscheiden von den, auch nach Auflassung von Perrow langfristig eher noch katastrophaleren Auswirkungen der routinemäßigen Vergiftung der Biosphäre.

Die Untersuchung von Systemen mit begrenzterem Katastrophenpotential - Flugverkehr, Raumfahrt, Bergwerke, Dämme - dient offenbar vorwiegend der Abrundung des Studiums von Versagensmechanismen und der Verifizierung der darauf aufbauenden Theorie.

Bei der Analyse technischer Systeme behält Perrow deren Hard- und Software - also das, was üblicherweise Technik genannt wird - durchaus im Auge. Aber er nimmt sie anders wahr als etwa ein Ingenieur, in dessen Kopf das System aus der Technik besteht, der Menschen als Operateure gegenüberstehen. Dessen Sicht begünstigt die nach Katastrophen übliche Einteilung der Ursachen in technisches und menschliches Versagen, die selbstredend - Perrow geht dem an vielen Beispielen nach - auch dem Schutz von Interessen dient und darüber hinaus eine generelle ideologische Funktion hat.

Für den Organisationssoziologen Perrow sind technische Systeme auch soziale Gebilde, entworfen, erbaut und betrieben von Organisationen, in denen mit - mehr oder weniger - Nachlässigkeit, Inkompetenz, Produktions­druck, auch mit Kriminalität zu rechnen ist. Ursachen des Versagens technischer Systeme sind letztlich solche »Unzulänglichkeiten« wie auch die prinzipiell beschränkten Fähigkeiten der Organisationen bzw. der in ihnen kommunizierenden Menschen, alle Ereigniskombinationen, die im Verlauf der Errichtung und des Betriebs eines technischen Systems auftreten können, im Voraus zu durchdenken oder außergewöhnliche Kombinationen, wenn sie auftreten, ad hoc zu verstehen.

//

Salopp gesagt: Technische Systeme sind etwa so perfekt wie die aus Menschen zusammengesetzten Organisationen, die sie entwerfen, fabrizieren oder betreiben. Diese eher schlichte, aber für das Verständnis des Phänomens katastrophalen Versagens wesentliche Erkenntnis gerät nicht ins Blickfeld bei der geläufigen Fokussierung des Blicks auf einerseits Technik, andererseits Operateure, die zu der irreführenden Einteilung in menschliche und technische Versagens­ursachen führt.

Anlaß für Perrows Buch war die Beschäftigung mit dem Reaktorunfall in Harrisburg im Rahmen eines Organisations-Gutachtens für die zur Untersuchung des Unfallhergangs eingesetzte Kommission. Die wesentlichen Leitideen dieses Buches sind geprägt von der Auseinandersetzung mit der vorwiegend ingenieur­wissenschaftlich orientierten Analyse dieser Kommission. Eingedenk der Rolle von Organisationen als Teile technischer Systeme, der Defizite bei der Kommunikation von Menschen miteinander und mit anderen Teilen des Systems, fragt Perrow nach Merkmalen technischer Systeme, die den Grad ihrer Anfälligkeit für katastrophales Versagen bestimmen. Es gelingt ihm, ein recht übersichtliches und einleuchtendes, allgemein verständliches Gerüst solcher Merkmale in Verbindung mit einer Klassifizierung von Stufen des Versagens und seiner Folgen zu entwickeln. Dessen Relevanz kann er empirisch belegen anhand einer - manchen Leser vielleicht ermüdenden - Fülle von Beispielen des Versagens unterschiedlichster Systeme. Bemerkenswert ist auch die didaktisch geschickte, um Verständlichkeit bemühte Präsentation.

Perrows Schlüsselbegriffe sind Komplexität und Kopplung. Je komplexer das System und die Interaktionen seiner Bestandteile, desto häufiger kann es zu unvorhergesehenen Störungen kommen, können die Signale, die den Zustand des gestörten Systems anzeigen, mehrdeutig und mithin mißdeutbar sein, können daher Reaktionen der Operateure oder automatischer Steuerungen destabilisierend statt stabilisierend wirken. Je starrer die Bestandteile des Systems (zeitlich, räumlich, funktionell) gekoppelt sind, desto größer die Möglichkeit, daß lokale Störungen weitere Systemteile in Mitleidenschaft ziehen - weil beispielsweise zu wenig Zeit zu sorgfaltiger Analyse der Störung verfügbar ist, weil der gestörte Systemteil nicht abgeschaltet werden kann oder weil infolge räumlicher Nähe die Explosion eines Behälters auch andere Systemteile zerstört etc.

//

Sind hohe Komplexität und starre Kopplung immanente Charakteristika eines Systemtyps, dann ist das Versagen einzelner Systeme dieses Typs auch bei ausgefeilter Sicherheitstechnik unvermeidbar, »normal«. Weist dieser Typ zudem ein hohes Zerstörungspotential auf, dann ist die Katastrophe »normal« - so die Botschaft des Buchtitels.

Perrow analysiert die betrachteten Systeme qualitativ unter den Kriterien Komplexität und Kopplung mit dem Ergebnis, daß die Kombination von hochgradiger Komplexität und starrer Kopplung am ausgeprägtesten ist beim Atomwaffensystem und den Kernkraftwerken, gefolgt von Gentechnologie und Schiffahrt. Zerstörungspotential und prinzipielle Neigung zum Versagen stehen demnach in enger Beziehung - das ist der wesentliche Befund der Untersuchung. Das Buch schließt mit einer Kritik der in der Risikoforschung vertretenen Positionen, insbesondere der unterliegenden Werte und Begriffe von Rationalität, sowie mit der Empfehlung, die Atombomben und Atomkraftwerke abzuschalten, die Gentechnologie nur langsam zu entwickeln und striktester staatlicher Kontrolle zu unterwerfen, den Seetransport von giftigen und explosiven Stoffen zu beschränken und weit schärfer als bisher zu regulieren.

Perrows Einblicke in die bizarre Welt katastrophenträchtiger Systeme, die die technisch orientierte Literatur so nicht eröffnet, sind - so meine ich - ein wegweisendes Beispiel für sozialwissenschaftliche Technikforschung wie auch ein bedeutender Beitrag zur Risikoforschung. Bei seiner Analyse von Beispielen katastrophalen Versagens steht die Erforschung der Motive für Handlungen, die als menschliches Versagen interpretiert werden, im Vordergrund.

Perrow geht von der Beobachtung aus, daß katastrophales Versagen komplexer Systeme zumeist nicht die Folge des Versagens von lediglich einer Komponente ist (wie dies etwa bei der Challenger-Katastrophe der Fall war); häufiger ist es gekennzeichnet durch ein kaum vorhersehbares Zusammentreffen des Versagens mehrerer Systemteile, das teilweise dem Verhalten der Operateure zuzuschreiben ist. Perrow zeigt anhand von Fallstudien auf überzeugende Weise, daß dieses objektiv »falsche« Verhalten, auch wenn es ex post als ungewöhnlich nachlässig oder inkompetent erscheint, bei näherer Analyse oft auf die prinzipiellen Grenzen kognitiver Fähigkeiten zurückgeführt werden kann.

Indem Perrow anhand zahlreicher Beispiele den Gründen für Handlungen, die beinahe oder tatsächlich zu Katastrophen geführt haben, nachgeht, führt er technischen Laien wie - möglicherweise betriebsblinden - Profis die Grenzen der Beherrschbarkeit hochkomplexer, gefährlicher Systeme vor Augen.

Die Frage nach der Relevanz dieses Anschauungsunterrichts hat mir soeben der hessische Umweltminister auf seine Art beantwortet. Bei der Ankündigung der erstmaligen Genehmigung einer industriellen gentechnischen Anlage versicherte er (laut Frankfurter Rundschau vom 10.9.87), es sei alles getan, »daß nichts passieren kann«.

Nicht zuletzt angesichts der Alltäglichkeit solcher Sprüche wünsche ich dem brillant geschriebenen Buch viele Leser.

r5

#

 

 

(Ordner)   www.detopia.de    ^^^^ 

Charles Perrow - 1984 - Normale Katastrophen - Vorwort von Klaus Traube