Charles Perrow

Normale Katastrophen

Die unvermeidbaren Risiken der Großtechnik

 

Mit einem Vorwort von Prof. Klaus Traube

 

Normal Accidents. Living With High Risk Technologies

1984 bei Princeton University Press

1987 im Campusverlag

1999 Revised edition

Charles Perrow - 1984 - Normale Katastrophen - Die unvermeidbaren Risiken der Großtechnik - Vorwort von Klaus Traube

1984    434 Seiten

wikipe Autor  *1925 in USA bis 2019 (94)

DNB.Buch (1987-1992)

Bing.Buch   Goog.Buch 

wikipedia  Unfalltheorie 


detopiaÖkobuch 

P.htm     Sterbejahr 


Traube-Klaus    Beck-Ulrich

Tainter-1988    Rieseberg-1988 

Williams-1997    Lauterburg-1998  

Dreitzel-1990 

 

US-amerikanischer Professor für Soziologie, Organisationstheorie.
Er lehrte und forschte an der University of Pittsburgh und zuletzt an der Yale University.

Auf Amazon lesbar bis Seite 38

 Inhalt 1984 pdf  

 

 

 

Inhalt  

 

Vorwort von Klaus Traube 

 

Vorwort zur deutschen Ausgabe (1-14) Von Charles Perrow

 

Einleitung (15)     Ein Beispiel aus dem Alltagsleben (18)

Variationen des Themas (23)    Volldampf voraus (28)

 

1   Der ganz normale Unfall von Three Mile Island (33)

2   Kernkraftwerke als Hochrisikosysteme: Warum es immer und überall zu Unfällen kommen kann (57)

Betriebserfahrung (58)  Das Problem der Bauausführung (62)

Sicherere Konstruktionen? (63)  Tiefgestaffelte Sicherheitssysteme (66)

Triviale Ereignisse in nicht-trivialen Systemen (70)  Aus Fehlern lernen (74)

Fermi (78)  Der Brennstoffkreislauf als System (84)

Verbessertes Management als Lösung? (87)   Zusammenfassung (91)

3  : Komplexität, Kopplung und Katastrophe (95)

Was sind Unfälle? (96)  Opfer (100)  Definitionen (105)

Komplexe und lineare Interaktionen (107)

Probleme der Erkennung und Bewältigung verborgener Interaktionen  116

Transformationsprozesse 123   Lineare Systeme  125

Welches System ist das bessere? 129    Enge und lose Kopplung 131

Merkmale von Kopplungen in Systemen 132    Systemregenerierung nach einem Störfall  134

Die Welt der Organisationen im Hinblick auf Komplexität und Kopplung 136   Zusammenfassung 140

4   Petrochemische Anlagen (141)

Texas City, Texas: 1947 und 1969 (146)   Flixborough (151)  Gaswolken (156) 

Triviale Synergien (157)   Zusammenfassung (163)

5  Flugzeuge und Luftverkehr (167)

So sicher wie Autofahren (169)  Das System »Flugzeug« (176) 

Die wunderbaren fliegenden Kisten (176)  Noch einmal: Alltäglichkeiten in der Küche (182)

Flattergrenzen und kleine Jets (183)  Desorientierung (186)  Zusammenfassung (188)

Das System »Luftverkehr« (189)  Die »Orange Berets« (189)  Gewöhnung (192)  

Mangelnde Kooperation (194)  Flugsicherung (197) Die Reduktion von Komplexität und enger Kopplung (199)

Die FAA, Passagierflugzeuge und die Sicherheit (204)  Zusammenfassung (211)

Eine letzte Bemerkung über das Air Safety Reporting System in den USA (212)

6  Schiffsunfälle  (215)

Einleitung (215)  Der Kapitän (223)  Wirtschaftlicher Druck (225)

Unfallstatistik und Versicherung (230)  Küchengeschichten und Gartenschläuche (238)

Supertanker (243)  Explosionen (248)  Technische Verbesserungen (250)

Kollisionen trotz Antikollisionskurs (257)  Einige Kollisionen, die sich erklären lassen (262)

Das umfassendere System (268)   Zusammenfassung (274)

Kapitel 7: Irdische Systeme: Staudämme, Erdbebenzonen, Bergwerke und Seen (277)

Staudämme (278)  Der Große Tetondamm (278)  Eine alte, aber nicht exakte Wissenschaft 284

Radioaktive Dämme (288)  Künstliche Erdbeben (290) Bergbau (292)   Unvermeidliche Gefahren (293)

Komplexität und Kopplung in Bergwerken 297  Ein See verschwindet (298)   Zusammenfassung  (301)

Kapitel 8: Raumflüge, Kernwaffen und Genforschung (305)

Raumflüge (307)  Eine Industrie auf Abwegen (307)  Orbitaler Taylorismus (312)

Die Operateure machen Fehler (317)  Die Konstrukteure machen Fehler (320)

Apollo 13 (323)  Frühwarnsysteme (325)  Die Warnung (329)

Der Gegenschlag (337)  Zusammenfassung (338)  Gentechnologie (340)

Die Verfahren der Gentechnologie (345)

Kapitel 9: Mit Hochrisikosystemen leben (355)

Risikoanalyse (357)  Drei Formen der Rationalität (368)  Soziale Rationalität (375)

Die Entdeckung der Angst (378)  Eingegangene Risiken oder Versuche ohne Irrtümer (383)

Ganz gewöhnliche Menschen (392)  Was können wir tun? (395)   Katastrophenpotential (399)

 

Abkürzungsverzeichnis (413)       Literatur (415)       Register (426)  

 

Nach 25 Jahren immer noch aktuell

dlf  Nach-25-jahren-immer-noch-aktuell  2011    Von Conrad Lay

 

Bei Katastrophen kommen Faktoren zusammen, die alleine genommen noch beherrschbar wären, aber in ihrem Zusammenspiel bedrohlich werden. Dies hat Charles Perrow vor über 25 Jahren am Beispiel des Atomkraftwerkes in Harrisburg beschrieben – man könnte seinen „Leitfaden für die nächste Katastrophe“ auch auf Fukushima anwenden.

 

Willkommen in der Welt hochriskanter Technologien! Vielleicht haben Sie selbst den Eindruck, dass sich diese Technologien ständig vermehren, und das stimmt auch.

Die freundliche Einladung, mit der Charles Perrow den Leser in die Welt der „normalen“ Katastrophen einführt, ist inzwischen über 25 Jahre alt.

Im Jahr 1984 legte der Soziologe, der damals an der Yale-Universität lehrte, eine umfassende Untersuchung großtechnischer Risiken vor. Nach dem Unfall von Tschernobyl erschien 1987 die deutsche Ausgabe des Buches.

Perrows Analyse ist gerade mit Blick auf Fukushima wieder lesenswert, denn er geht gerade nicht vom Spektakulären der Katastrophen aus, sondern zerlegt technische Großsysteme in ihre Bestandteile und fragt, wo die Grenzen dieser Systeme liegen, worin ihre Fehler-hemmenden und ihre Fehler-fördernden Eigenschaften begründet sind. Auf diese Weise geht der Organisationssoziologe die unterschiedlichsten Techniksysteme durch: Atomanlagen, Chemiefabriken, Luft- und Raumfahrt, Atomwaffen, Genforschung, Staudämme, Frachtschifffahrt. Nicht die an der Oberfläche verbleibende Frage nach den Fehler-machenden Menschen interessiert Perrow und schon gar nicht politische Ideologien, sondern die soziale Organisation der Technik, die fehleranfällige Schnittstelle zwischen Mensch und Maschine. Er schreibt:

Das Besondere an diesen Interaktionen ist, dass niemand sie in das System eingebaut hat, dass niemand eine Verknüpfung zwischen ihnen beabsichtigt hat. Sie verwirren uns, weil wir im Rahmen unserer eigenen Vorstellungen von einer Welt gehandelt haben, wie wir sie vorzufinden hoffen – aber die Welt ist nicht so.

Perrows Schlüsselbegriffe sind Komplexität und Kopplung. Enge Kopplung bedeutet, dass es zwischen zwei starr miteinander verbundenen Teilen keinen Puffer gibt. Komplexität heißt, dass eine Komponente mehrere Aufgaben übernimmt. So kann etwa eine Heizvorrichtung, die gleichzeitig als Wärmetauscher funktioniert, im Fall des Versagens gleich zwei Funktionen nicht erfüllen. Je komplexer und enger gekoppelt technische Systeme sind, desto häufiger kommt es zu unvorhergesehenen Störungen.

Für den Soziologen Perrow ist die Technik kein totes Produkt, dem die Operateure gegenüberzustellen wären, sondern beide zusammen sieht er als ein technisches System an. Die Gefahren – so lautet seine These – lauern in der Art und Weise, wie die Komponenten eines Systems ineinandergreifen. Besonders gefährlich werden solche komplexen Interaktionen dann, wenn eine enge Kopplung der Prozesse nicht zu vermeiden ist wie in der Chemie- oder Atomindustrie. Hier rechnet Perrow mit typischen Systemunfällen.

Für seine Theorie der Störungsanfälligkeit legt Perrow ein präzises Instrumentarium vor, das seine Untersuchung nachprüfbar und plausibel macht. Seine Beispiele stammen aus den 80er-Jahren, doch seine Kriterien sind noch heute sinnvoll. Was sind die Folgerungen aus seinen Erkenntnissen? Sicher nicht die Rationalisierung eines Techniksystems. Denn – so Charles Perrow:

Mit jeder Rationalisierung werden Operateure entbehrlich. Aber zugleich werden neue Möglichkeiten für noch komplexere Systeme geschaffen, sodass der Operateur als Pannenhelfer durch die Hintertür wieder hereinkommt.

Die Antwort lautet vielmehr: Wo immer es geht, die Komplexität und enge Kopplung zu reduzieren. Perrow nennt dafür Beispiele aus der Luftfahrt und der petrochemischen Industrie. Anders steht es seiner Ansicht nach um Atomanlagen: Ihre Organisation setze eine Verlässlichkeit voraus, die das dem Menschen mögliche Maß überschreite. Auf sie solle daher verzichtet werden – ebenso wie auf Atomwaffen, deren Fehleranfälligkeit in keinem Verhältnis zur Größendimension ihrer Wirkung stehe.

Es ist faszinierend, wie es Charles Perrow gelingt, auf filigrane Weise die Handlungspsychologie in hochkomplexen Techniksystemen herauszuarbeiten. Ob man jeder einzelnen Technikbeurteilung Perrows zustimmt, erscheint dabei weniger wichtig als die Art der Analyse. In seinem Resümee schreibt er:

Ich bin der Meinung, dass ein vernünftiges Leben unter Risiken bedeutet, Kontroversen wach zu halten, auf die Bevölkerung zu hören und den zutiefst politischen Charakter aller Risikoanalysen zu erkennen. Letzten Endes geht es nicht um Risiken, sondern um Macht – um die Macht nämlich, im Interesse einiger weniger den vielen anderen enorme Risiken aufzubürden.

Perrow schreibt anschaulich und klar, das Lesevergnügen wird in keiner Weise durch die wissenschaftliche Fundierung eingeschränkt. Die Botschaft seines Buches ist auch nach 25 Jahren immer noch aktuell. Und so könnte man seinen sogenannten „Leitfaden für die nächste Katastrophe“ auch auf Fukushima anwenden.

 

aus wikipedia-2019 zum Autor

 

Perrow wurde zunächst durch sein Werk Complex Organizations: A Critical Essay bekannt, das 1972 erstmals publiziert wurde. Dabei handelt es sich um einen Abriss der damals gängigen Organisationstheorien. Seinen eigenen Ansatz konstruiert er in Anlehnung an Max Webers Bürokratietypus. 

Anders als bei Weber, werden Herrschaftsstrukturen jedoch in erster Linie anhand des Grades der Zentralisierung bzw. Dezentralisierung sichtbar, im Vergleich der Organisationsstrukturen. Organisationen unterscheiden sich demnach vor allem anhand der in der Produktion verwendeten Kerntechnologie, sowie anhand vorgefundener industrieller Rahmenbedingungen (error-avoiding vs. error-inducing system). 

Die Organisation ist nicht frei in der Wahl ihrer Struktur, denn Perrow nimmt an, dass Organisationen ihre Strukturen höchstwahrscheinlich in ein Verhältnis der Passung (fit) zu der jeweiligen Kerntechnologie bringen werden, da sie sonst einen hohen Preis in Form von Effizienzeinbußen zahlen müssten.

Obwohl meist die situative Analyse einzelner Betriebe im Vordergrund seiner Arbeit steht, entwirft Perrow einen genuin soziologischen Ansatz: „If we take an industry, rather than particular organizations, as the unit of analysis, we can see the impact of the industry and its ties to society upon the organization and its problems.“ (Charles Perrow: Complex Organizations: A Critical Essay. S. 152)

 

Einer breiteren Öffentlichkeit wurde Perrow durch die technik-soziologische Publikation Normal Accidents: Living With High Risk Technologies bekannt, die im Kontext einer Untersuchung der Beinahe-Katastrophe in dem Kernkraftwerk Three Mile Island entstand und kurz vor der Katastrophe von Tschernobyl veröffentlicht wurde. 

Darin entwickelt er die Vorstellung, dass katastrophale Ereignisverkettungen in komplexen Systemen wahrscheinlich nicht vollständig bzw. nicht dauerhaft zu vermeiden sind. Diese Auffassung steht konträr zu den Aussagen der High-Reliability-Theory, mit der der Ansatz konkurriert.

Im Kern der Überlegungen Perrows steht die Theorie der Normalen Unfälle (ein Ausdruck, der als Normale Katastrophen in die deutsche Sprache übersetzt wurde). Katastrophenartige Unfälle sind demnach insbesondere in eng gekoppelten und komplexen Systemen unvermeidbar. In diesen Fällen kann einzig die Interaktion multipler Fehler den Unfall erklären. Perrows Theorie sagt voraus, dass Fehler auf verschiedenartige und unvorher­gesehene Weisen auftreten können, die fast unmöglich vorhersagbar sind.

Die wesentliche Differenz besteht für Perrow in den industriellen und technischen Umwelten der Organisation. Je nach Kerntechnologie variiert die Wahrscheinlichkeit, mit der eine undurchschaubare und deswegen schwer zu kontrollierende Ereignisverkettung eintritt, an deren Ende ein katastrophales Ereignis stehen kann (z. B. “vapor cloud explosions”).

Ereignisse treten in kontingentem Verhältnis zu konkreten Situationen ein. Ob enge Kopplungen sich katastrophal entwickeln, ist in etablierten (komplexen) Systemen nur zeitpunktbezogen erkennbar. Daher wird Perrows Normal Accident Theory zu den so genannten Kontingenztheorien bzw. zu den situativen Ansätzen der Organisationstheorie gezählt.

 

 

 

 

d-nb.info/1012488020 

Matthias Maring (dir.)
Fallstudie zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft
darin: „Normale Katastrophen“ von Gerhard Banse

Publisher: KIT Scientific Publishing
Year of publication: 2011,
Published on OpenEdition Books: 31 mai 2017

Deutsche Fallstudie nach Perrow 2011 pdf  

 

Stets gab und gibt es „große“ technische Pannen, Havarien oder Unfälle, die infolge ihrer Verursachung, ihres Schadens bzw. ihrer Auswirkungen, ihrer Neuartigkeit oder ihrer Brisanz einen Platz auf der ersten Seite großer Zeitungen finden oder zu den „top news“ von Nachrichtensendungen gehören (und wie sie Hans Lenk in seinen Beitrag in diesem Band aufgegriffen hat).

Daneben gibt es zahlreiche „kleinere“ derartige Ereignisse oder auch „Beinahe-Unfälle“ im Bereich der Technik, über die massenmedial kaum oder nicht berichtet wird.

Auch diese sind – eine Charakterisierung durch den US-amerikanischen Organisationssoziologen Charles Perrow nutzend – ebenso „unvermeidbar“ wie die großen: „Ungeachtet all unserer Bemühungen sind einige der von uns entwickelten Systeme mit unvermeidlichen Risiken behaftet, so daß es bei ihnen zwangsläufig zu größeren Unfällen kommt“ (Perrow 1989, 1 – H.d.V.).

Versagensfälle unterschiedlichster Art und Verursachung sind ein Charakteristikum des technisch vermittelten bzw. instrumentierten Weltbezugs des Menschen von Anfang an. Bekanntestes historisches Beispiel ist sicherlich der Turmbau zu Babel, von dem im Alten Testament berichtet wird (vgl. 1. Mose 11,1–9).

Die Technikgeschichte kennt genügend Beispiele versagender Technik, einstürzender Bauwerke, nichtfunktionierender Vorrichtungen und uneffektiver Verfahren, kurz, Versagens- und Störfälle, Pannen und Havarien unterschiedlichster Dimension und Auswirkungen.

 

 

 

 

(Ordner)   www.detopia.de      ^^^^

Charles Perrow - 1984 - Normale Katastrophen - Die unvermeidbaren Risiken der Großtechnik - Vorwort von Klaus Traube