Charles PerrowNormale KatastrophenDie unvermeidbaren Risiken der Großtechnik
Mit einem Vorwort von Prof. Klaus Traube
Normal Accidents. Living With High Risk Technologies 1984 bei Princeton University Press 1987 im Campusverlag 1999 Revised edition |
1984 434 Seiten wikipe Autor *1925 in USA bis 2019 (94) DNB.Buch (1987-1992) detopia: Ökobuch |
US-amerikanischer
Professor für Soziologie, Organisationstheorie. Auf Amazon lesbar bis Seite 38
|
Inhalt
Vorwort zur deutschen Ausgabe (1-14) Von Charles Perrow
Einleitung (15) Ein Beispiel aus dem Alltagsleben (18) Variationen des Themas (23) Volldampf voraus (28)
1 Der ganz normale Unfall von Three Mile Island (33) 2 Kernkraftwerke als Hochrisikosysteme: Warum es immer und überall zu Unfällen kommen kann (57)
3 : Komplexität, Kopplung und Katastrophe (95)
4 Petrochemische Anlagen (141)
5 Flugzeuge und Luftverkehr (167)
6 Schiffsunfälle (215)
Kapitel 7: Irdische Systeme: Staudämme, Erdbebenzonen, Bergwerke und Seen (277)
Kapitel 8: Raumflüge, Kernwaffen und Genforschung (305)
Kapitel 9: Mit Hochrisikosystemen leben (355)
Abkürzungsverzeichnis (413) Literatur (415) Register (426) |
Nach 25 Jahren immer noch aktuell
dlf Nach-25-jahren-immer-noch-aktuell 2011 Von Conrad Lay
Bei Katastrophen kommen Faktoren zusammen, die alleine genommen noch beherrschbar wären, aber in ihrem Zusammenspiel bedrohlich werden. Dies hat Charles Perrow vor über 25 Jahren am Beispiel des Atomkraftwerkes in Harrisburg beschrieben – man könnte seinen „Leitfaden für die nächste Katastrophe“ auch auf Fukushima anwenden.
Willkommen in der Welt hochriskanter Technologien! Vielleicht haben Sie selbst den Eindruck, dass sich diese Technologien ständig vermehren, und das stimmt auch.
Die freundliche Einladung, mit der Charles Perrow den Leser in die Welt der „normalen“ Katastrophen einführt, ist inzwischen über 25 Jahre alt.
Im Jahr 1984 legte der Soziologe, der damals an der Yale-Universität lehrte, eine umfassende Untersuchung großtechnischer Risiken vor. Nach dem Unfall von Tschernobyl erschien 1987 die deutsche Ausgabe des Buches.
Perrows Analyse ist gerade mit Blick auf Fukushima wieder lesenswert, denn er geht gerade nicht vom Spektakulären der Katastrophen aus, sondern zerlegt technische Großsysteme in ihre Bestandteile und fragt, wo die Grenzen dieser Systeme liegen, worin ihre Fehler-hemmenden und ihre Fehler-fördernden Eigenschaften begründet sind. Auf diese Weise geht der Organisationssoziologe die unterschiedlichsten Techniksysteme durch: Atomanlagen, Chemiefabriken, Luft- und Raumfahrt, Atomwaffen, Genforschung, Staudämme, Frachtschifffahrt. Nicht die an der Oberfläche verbleibende Frage nach den Fehler-machenden Menschen interessiert Perrow und schon gar nicht politische Ideologien, sondern die soziale Organisation der Technik, die fehleranfällige Schnittstelle zwischen Mensch und Maschine. Er schreibt:
Das Besondere an diesen Interaktionen ist, dass niemand sie in das System eingebaut hat, dass niemand eine Verknüpfung zwischen ihnen beabsichtigt hat. Sie verwirren uns, weil wir im Rahmen unserer eigenen Vorstellungen von einer Welt gehandelt haben, wie wir sie vorzufinden hoffen – aber die Welt ist nicht so.
Perrows Schlüsselbegriffe sind Komplexität und Kopplung. Enge Kopplung bedeutet, dass es zwischen zwei starr miteinander verbundenen Teilen keinen Puffer gibt. Komplexität heißt, dass eine Komponente mehrere Aufgaben übernimmt. So kann etwa eine Heizvorrichtung, die gleichzeitig als Wärmetauscher funktioniert, im Fall des Versagens gleich zwei Funktionen nicht erfüllen. Je komplexer und enger gekoppelt technische Systeme sind, desto häufiger kommt es zu unvorhergesehenen Störungen.
Für den Soziologen Perrow ist die Technik kein totes Produkt, dem die Operateure gegenüberzustellen wären, sondern beide zusammen sieht er als ein technisches System an. Die Gefahren – so lautet seine These – lauern in der Art und Weise, wie die Komponenten eines Systems ineinandergreifen. Besonders gefährlich werden solche komplexen Interaktionen dann, wenn eine enge Kopplung der Prozesse nicht zu vermeiden ist wie in der Chemie- oder Atomindustrie. Hier rechnet Perrow mit typischen Systemunfällen.
Für seine Theorie der Störungsanfälligkeit legt Perrow ein präzises Instrumentarium vor, das seine Untersuchung nachprüfbar und plausibel macht. Seine Beispiele stammen aus den 80er-Jahren, doch seine Kriterien sind noch heute sinnvoll. Was sind die Folgerungen aus seinen Erkenntnissen? Sicher nicht die Rationalisierung eines Techniksystems. Denn – so Charles Perrow:
Mit jeder Rationalisierung werden Operateure entbehrlich. Aber zugleich werden neue Möglichkeiten für noch komplexere Systeme geschaffen, sodass der Operateur als Pannenhelfer durch die Hintertür wieder hereinkommt.
Die Antwort lautet vielmehr: Wo immer es geht, die Komplexität und enge Kopplung zu reduzieren. Perrow nennt dafür Beispiele aus der Luftfahrt und der petrochemischen Industrie. Anders steht es seiner Ansicht nach um Atomanlagen: Ihre Organisation setze eine Verlässlichkeit voraus, die das dem Menschen mögliche Maß überschreite. Auf sie solle daher verzichtet werden – ebenso wie auf Atomwaffen, deren Fehleranfälligkeit in keinem Verhältnis zur Größendimension ihrer Wirkung stehe.
Es ist faszinierend, wie es Charles Perrow gelingt, auf filigrane Weise die Handlungspsychologie in hochkomplexen Techniksystemen herauszuarbeiten. Ob man jeder einzelnen Technikbeurteilung Perrows zustimmt, erscheint dabei weniger wichtig als die Art der Analyse. In seinem Resümee schreibt er:
Ich bin der Meinung, dass ein vernünftiges Leben unter Risiken bedeutet, Kontroversen wach zu halten, auf die Bevölkerung zu hören und den zutiefst politischen Charakter aller Risikoanalysen zu erkennen. Letzten Endes geht es nicht um Risiken, sondern um Macht – um die Macht nämlich, im Interesse einiger weniger den vielen anderen enorme Risiken aufzubürden.
Perrow schreibt anschaulich und klar, das Lesevergnügen wird in keiner Weise durch die wissenschaftliche Fundierung eingeschränkt. Die Botschaft seines Buches ist auch nach 25 Jahren immer noch aktuell. Und so könnte man seinen sogenannten „Leitfaden für die nächste Katastrophe“ auch auf Fukushima anwenden.
aus wikipedia-2019 zum Autor
Perrow wurde zunächst durch sein Werk Complex Organizations: A Critical Essay bekannt, das 1972 erstmals publiziert wurde. Dabei handelt es sich um einen Abriss der damals gängigen Organisationstheorien. Seinen eigenen Ansatz konstruiert er in Anlehnung an Max Webers Bürokratietypus.
Anders als bei Weber, werden Herrschaftsstrukturen jedoch in erster Linie anhand des Grades der Zentralisierung bzw. Dezentralisierung sichtbar, im Vergleich der Organisationsstrukturen. Organisationen unterscheiden sich demnach vor allem anhand der in der Produktion verwendeten Kerntechnologie, sowie anhand vorgefundener industrieller Rahmenbedingungen (error-avoiding vs. error-inducing system).
Die Organisation ist nicht frei in der Wahl ihrer Struktur, denn Perrow nimmt an, dass Organisationen ihre Strukturen höchstwahrscheinlich in ein Verhältnis der Passung (fit) zu der jeweiligen Kerntechnologie bringen werden, da sie sonst einen hohen Preis in Form von Effizienzeinbußen zahlen müssten.
Obwohl meist die situative Analyse einzelner Betriebe im Vordergrund seiner Arbeit steht, entwirft Perrow einen genuin soziologischen Ansatz: „If we take an industry, rather than particular organizations, as the unit of analysis, we can see the impact of the industry and its ties to society upon the organization and its problems.“ (Charles Perrow: Complex Organizations: A Critical Essay. S. 152)
Einer breiteren Öffentlichkeit wurde Perrow durch die technik-soziologische Publikation Normal Accidents: Living With High Risk Technologies bekannt, die im Kontext einer Untersuchung der Beinahe-Katastrophe in dem Kernkraftwerk Three Mile Island entstand und kurz vor der Katastrophe von Tschernobyl veröffentlicht wurde.
Darin entwickelt er die Vorstellung, dass katastrophale Ereignisverkettungen in komplexen Systemen wahrscheinlich nicht vollständig bzw. nicht dauerhaft zu vermeiden sind. Diese Auffassung steht konträr zu den Aussagen der High-Reliability-Theory, mit der der Ansatz konkurriert.
Im Kern der Überlegungen Perrows steht die Theorie der Normalen Unfälle (ein Ausdruck, der als Normale Katastrophen in die deutsche Sprache übersetzt wurde). Katastrophenartige Unfälle sind demnach insbesondere in eng gekoppelten und komplexen Systemen unvermeidbar. In diesen Fällen kann einzig die Interaktion multipler Fehler den Unfall erklären. Perrows Theorie sagt voraus, dass Fehler auf verschiedenartige und unvorhergesehene Weisen auftreten können, die fast unmöglich vorhersagbar sind.
Die wesentliche Differenz besteht für Perrow in den industriellen und technischen Umwelten der Organisation. Je nach Kerntechnologie variiert die Wahrscheinlichkeit, mit der eine undurchschaubare und deswegen schwer zu kontrollierende Ereignisverkettung eintritt, an deren Ende ein katastrophales Ereignis stehen kann (z. B. “vapor cloud explosions”).
Ereignisse treten in kontingentem Verhältnis zu konkreten Situationen ein. Ob enge Kopplungen sich katastrophal entwickeln, ist in etablierten (komplexen) Systemen nur zeitpunktbezogen erkennbar. Daher wird Perrows Normal Accident Theory zu den so genannten Kontingenztheorien bzw. zu den situativen Ansätzen der Organisationstheorie gezählt.
Matthias
Maring (dir.) Publisher:
KIT Scientific Publishing Deutsche Fallstudie nach Perrow 2011 pdf
Stets gab und gibt es „große“ technische Pannen, Havarien oder Unfälle, die infolge ihrer Verursachung, ihres Schadens bzw. ihrer Auswirkungen, ihrer Neuartigkeit oder ihrer Brisanz einen Platz auf der ersten Seite großer Zeitungen finden oder zu den „top news“ von Nachrichtensendungen gehören (und wie sie Hans Lenk in seinen Beitrag in diesem Band aufgegriffen hat). Daneben gibt es zahlreiche „kleinere“ derartige Ereignisse oder auch „Beinahe-Unfälle“ im Bereich der Technik, über die massenmedial kaum oder nicht berichtet wird. Auch diese sind – eine Charakterisierung durch den US-amerikanischen Organisationssoziologen Charles Perrow nutzend – ebenso „unvermeidbar“ wie die großen: „Ungeachtet all unserer Bemühungen sind einige der von uns entwickelten Systeme mit unvermeidlichen Risiken behaftet, so daß es bei ihnen zwangsläufig zu größeren Unfällen kommt“ (Perrow 1989, 1 – H.d.V.). Versagensfälle unterschiedlichster Art und Verursachung sind ein Charakteristikum des technisch vermittelten bzw. instrumentierten Weltbezugs des Menschen von Anfang an. Bekanntestes historisches Beispiel ist sicherlich der Turmbau zu Babel, von dem im Alten Testament berichtet wird (vgl. 1. Mose 11,1–9). Die Technikgeschichte kennt genügend Beispiele versagender Technik, einstürzender Bauwerke, nichtfunktionierender Vorrichtungen und uneffektiver Verfahren, kurz, Versagens- und Störfälle, Pannen und Havarien unterschiedlichster Dimension und Auswirkungen.
|