Lernen aus Katastrophen. Die Gesellschaft als Versuchslabor

Erstellt von DoktorSozius vor 9 Jahren

Seit einigen Jahrzehnten ist zu verzeichnen, dass immer häufiger Technologien auf den Markt kommen, deren Folgen für Gesellschaft und Ökologie noch nicht abzuschätzen sind bzw. zum Zeitpunkt ihres Ersteinsatzes abzuschätzen waren. Viele Technologien wurden oder werden eingesetzt, obwohl weder die Ursachen noch die Auswirkungen von der Wissenschaft ausgiebig erforscht worden sind, geschweige denn, dass in der Wissenschaft über die entsprechenden Technologien Konsens bestehen würde. Typische Beispiele sind die Kernkrafttechnologie, die Pharmaindustrie, die chemische Industrie, die Nanotechnologie oder aber die Gentechnologie. Während die Forschung zur Kernkraft heute relativ gut vorangeschritten ist, sind die gesundheitlichen und ökologischen Auswirkungen von vielen chemischen Stoffen, von Nanopartikeln oder gentechnisch veränderten Lebewesen kaum erforscht.

Die Gründe für den Einsatz derartiger Technologien sollen in dieser Arbeit nur am Rande eine Rolle spielen, doch möchte ich der These von Charles Perrow folgen, der bereits 1987 formulierte:

„Die Eliten »wissen« aufgrund praktischer Erfahrung, dass sie zur Verwirklichung [ihrer] Ziele Systeme mit einem immanenten Katastrophenpotential errichten, aber da es relativ selten auch wirklich zu Katastrophen kommt, gehen sie das Risiko ein“ (Perrow 1987 [1984]: 2).

Dass risikobehaftete Technologien eingesetzt werden, liegt aus meiner Sicht vor allem daran, dass diese in den Interessen strategisch wichtiger Akteure liegen[1]. Diesem Verdacht folgen auch Krohn & Weyer, indem sie der Einführung solcher Technologien unterstellen, dass „eine Legitimation für die Durchführung dieser Experimente allein zum Zwecke der Forschung nicht beschafft werden könnte.“ (Krohn/ Weyer 1989: 349). Wobei solche Interessen vor allem politischer oder ökonomischer Art zu sein scheinen.

In der vorliegenden Arbeit wird die These vertreten, dass die Gesellschaft zunehmend als Versuchslabor genutzt wird, gerade weil viele Technologien erst unter realweltlichen Maßstäben einschätzbar und untersuchbar sind. Die Wirkweisen komplexer Technologien in Interaktion mit der realen Welt sind nicht im Labormaßstab studierbar; vor allem die Risiken derartiger Interaktion können nur in der Interaktion selbst erforscht werden, denn möglich theoretisch alle Eventualitäten zu berücksichtigen (vgl. Krohn/ Weyer 1989: 368).

„Die Risiken des lebensgefährlichen Nichtfunktionierens von Technik oder der erwarteten Belastungen für Ökosysteme und Gesundheit definieren Situationen »relevanten Nichtwissens« und eröffnen so Felder für implizite Experimente“ (Krohn, Weyer 1989: 368).

Krohn & Weyer konstatieren sogar generell eine Tendenz der modernen Wissenschaft „Forschungsprozesse und die mit ihnen verbundenen Risiken über die institutionalisierten Grenzen der Wissenschaft hinauszutreiben und die Gesellschaft mit der Durchführung von Experimenten zu belasten“ (vgl. Krohn/ Weyer 1989: 349). Beobachten lasse sich dies vor allem an der bereits oben erwähnten Kernkrafttechnologie, aber auch „an ökologischen Freisetzungsversuchen, am Umgang mit physiologisch belastenden Chemikalien, an der Einführung von Medikamenten und an modernen Militärtechniken“ (vgl. Krohn/ Weyer 1989: 349). Auch folgendes Zitat stützt diese These:

„Nicht nur in der Kernkraft, sondern in weiteren Bereichen der Forschung entwächst die Wissenschaft ihren Grenzen und benutzt die Gesellschaft und ihre biologischen Lebensbedingungen als ein Labor, in dem einerseits auf erfolgreiche Weise neues Wissen durch Theorie und Experiment erzeugt wird, andererseits aber sich Verschiebungen zwischen Wissenschaft und Gesellschaft abspielen, die man in größtmöglicher Verdichtung auf die Formel bringen kann: Die Risiken der Forschung werden zu Risiken der Gesellschaft. In diesem Sinn ist »Tschernobyl« keine Ausnahme, sondern dramatisches Paradigma, zumal Auslöser des Unfalls ein planvoll durchgeführter Test des Notabschaltsystems war“ (Krohn; Weyer 1989: 352).

Die vorliegende Arbeit wir dabei im Wesentlichen zweigeteilt sein. Zunächst soll die der Arbeit zugrunde liegende These des Realexperiments bzw. der Gesellschaft als Labor vorgestellt werden. Diese soll dann mit der These verknüpft werden, dass bestimmte Systeme bzw. Technologien unvermeidlich mit Risiken verknüpft sind. An dieser Stelle soll der Risikobegriff ins Zentrum gerückt werden, denn im zweiten Teil der Arbeit soll dann betrachtet werden, wie die Gesellschaft[2] mit derartigen selbstproduzierten Risiken umgeht. Der Umgang mit bereits eingetretenen bzw. beinahe eingetretenen Katastrophen soll dabei Vordergrund stehen.

2. Die Gesellschaft als Versuchslabor

Was ist eigentlich unter Realexperimenten zu verstehen? Inwieweit ist es angemessen, davon zu sprechen, dass die Gesellschaft zum Versuchslabor gemacht wird? Diese Fragen sollen im nun folgenden Abschnitt geklärt werden.

2.1 Realexperimente

Das Konzept der Realexperimente stammt vor allem von Wolfgang Krohn und Johannes Weyer. Erste Veröffentlichungen dazu gab es bereits 1989. Eine konkretere Ausarbeitung folgte dann 2005 durch Krohn, Groß und Hoffmann-Riem. Die Metapher „Gesellschaft als Versuchslabor“ taucht jedoch auch bei anderen Autoren auf, allen voran soll hier Ulrich Beck genannt sein, der diese bereits 1986 benutzte. Besonders brisant ist dies in Hinblick auf die Tatsache, dass Becks Prognosen mit der Katastrophe von Tschernobyl eindrucksvoll kurz darauf eintrafen.

Es sei an dieser Stelle bereits darauf hingewiesen, dass die vorliegende Arbeit sich nicht allein auf einen der soeben genannten Autoren berufen wird, sondern vor allem die Gemeinsamkeiten der sich ähnelnden Konzepte hervorheben wird. Aber was ist nun unter Realexperimenten zu verstehen?

„Was sind Realexperimente? Das Präfix »real« verweist darauf, dass es zu sich um Experimentierprozesse handelt, die nicht in der Sonderwelt der wissenschaftlichen Laboratorien, sondern in der Gesellschaft statt-finden“ (Groß et al. 2005: 11).

Im Labor können Vorgänge „planmäßig ausgelöst und wiederholt werden, bei denen beobachtet wird, in welcher Weise sich unter Konstanthaltung anderer Beziehungen mindestens eine abhängige Variable ändert“ (Groß et al. 2005: 16f). Das Problem ist nun aber, dass sich Aussagen über „Beziehungen zwischen den isolierten Laborbedingungen und den situationsspezifischen Umweltbedingungen […] dadurch nur bedingt machen lassen“ (Groß et al 2005: 16/17). Realexperimente sind dabei keine „defizitäre Form des Laborexperiments“ (Groß et al. 2005: 11), sondern als solche notwendig für bestimmte Technologien und Verfahren, die gerade nicht im Labormaßstab durchzuführen gehen.

Auch in Realexperimenten geht es um gezielte Eingriffe und um Erkenntnisgewinn, doch es geht nicht „in erster Linie um Forschung und neues Wissen“ (Groß et al. 2005: 11). In herkömmlichen Laborexperimenten können Wissenschaftler – selbstverständlich auch hier in Grenzen – ihre Ideen frei erproben. Im Gegensatz dazu sind Realexperimente in „soziale, ökologische und technische Gestaltungsprozesse eingebettet“ (Groß et al. 2005: 11). Durch diese Einbettung in die Realwelt haben auch gescheiterte Experimente irreversible Konsequenzen. Getragen werden solche Experimente von verschiedenen Akteuren, die in der Regel auch unterschiedliche Interessen verfolgen. Sobald die Laborgrenzen überschritten werden, verlieren die Akteure notwendigerweise teilweise oder vollständig die Kontrolle über die Randbedingungen (vgl. Krohn/ Weyer 1989: 357).

In der Wissenschaft war es lange üblich, die Anwendung von Wissen durch neue Technologien und Verfahren nicht mehr als Phase der wissenschaftlichen Erkenntnisproduktion aufzufassen. Dem entgegenzustellen ist jedoch, dass auch die Anwendung wissenschaftlich gesicherten Wissens außerhalb der Wissenschaft stets neues Wissen erzeugt. Dies gilt um so mehr, wenn man bedenkt, dass es sich in vielen Fällen gerade nicht um wissenschaftlich gesichertes Wissen handelt, sondern ganz im Gegenteil um kontrovers diskutierte, häufig noch »in den Kinderschuhen« steckende Forschung (vgl. Krohn/ Weyer 1989: 354). Berücksichtigt werden muss an dieser Stelle jedoch auch, dass selbst vermeintlich gesichertes Wissen niemals endgültig bestehen bleiben muss, denn eine Falsifikation durch neue Erkenntnisse ist immer möglich und wissenschaftlicher Fortschritt wird schließlich gerade durch Kontroversen vorangetrieben. Etliche Dispute können auch erst durch die Implementierung des kontroversen Wissens in realweltliche Bedingungen entschieden werden. Wenn aber viele erkenntnistheoretische Fragen erst mittels realweltlicher Experimente geklärt werden können und zudem immer häufiger Wissenschaftler die Implementierung neuer Technologien begleiten, so ist die Anwendung durchaus als Teil des wissenschaftlichen Forschungsprozesses zu betrachten, gerade weil die Technikgeneseforschung, die Technikfolgenabschätzungsforschung oder generell Innovationsforschung die Entstehung und Implementierung neuer Technologien nicht nur wissenschaftlich untersuchen, sondern auch gestaltend eingreifen und die Kriterien des Implementierungsprozesses mitbestimmen.

Dies führt zu einem weiteren Merkmal der Realexperimente. In Laborexperimenten sind Experimentator und experimentelles Setting getrennt – in Realexperimenten kann dies nicht eingehalten werden (Groß et al. 2005: 75f). Auch die Experimentatoren sind Teil des experimentellen Settings, denn das Experiment findet nicht nur einfach in der Gesellschaft statt, sondern wird vor allem auch von der Gesellschaft selbst durchgeführt (vgl. Groß et al. 2005: 74).

Doch nicht jede Innovation, die auf den Markt kommt, soll als Realexperiment verstanden werden, jedoch kann eine jede ein solches werden. Während zum Beispiel der Bau des Assuan-Staudamms anfänglich einfach als komplexe Technologie verstanden worden ist, aber nicht als Experiment mit der Ökologie, ist aufgrund der Erkenntnisse, die aus diesem Bauprojekt hervorgegangen sind, der Bau jedes weiteren Staudamms als Realexperiment aufzufassen, sei es als Experiment mit der Ökologie, dem Klima oder der Tektonik (vgl. Krohn/ Weyer 1989: 356).

Es gibt also verschiedene Formen von Realexperimenten. Zum einen gibt es solche, bei denen von Anfang an klar ist, dass es ein solches sein soll, wie beispielsweise der Einsatz von Atombomben. Aber es gibt auch solche, bei denen den Beteiligten erst im Laufe des Experiments klar wird, dass es sich überhaupt um ein Experiment handelt. Für letzteres wäre das bereits angeführte Beispiel des Assuan-Staudamms zu nennen. Gerade in diesem Beispiel wird klar, dass Wissen stets nur vorläufigen Charakter hat, denn neue Erkenntnisse können Wissen stets veralten lassen. So haben die ökologischen Veränderungen dazu geführt, dass Staudämme nicht mehr einfach nur als komplexe Bauwerke aufgefasst werden, sondern als weitreichende Eingriffe in die Natur, also als Realexperimente.

Die Übergänge zwischen diesen beiden Formen sind fließend. So müssen sich nicht alle Beteiligten des experimentellen Charakters bewusst sein, auch ist denkbar, dass Technologien plötzlich in neuen Bereichen eingesetzt werden, für die noch kein ausreichendes Wissen vorliegt, sodass aus der Anwendung bewährten Wissens eine experimentelle Verwendung wird (vgl. hierzu auch Groß et al. 2005: 210).

Allgemein zeichnen sich Realexperimente immer dadurch aus, dass sie „erstens immer Strategien der Anwendung anerkannten Wissens mit der Erzeugung neuen Wissens im Kontext von gesellschaftlichen Problemstellungen und zweitens kontrollierte Randbedingungen mit situationsspezifischen Gegebenheiten kombinieren.“ (Groß et al 2005: 209).

Betonen möchte ich an dieser Stelle, dass es sich bei Realexperimenten nicht um eine Metapher handelt, wie sie bei einigen Autoren zu finden ist. Die Implementierung vieler Technologien in die Realwelt lassen sich als solche beschreiben. Das Konzept des Realexperimentes kann aber vor allem zukünftigen Implementierungen Struktur geben, denn:

„Das Realexperiment kann dem Umgang mit Unsicherheit und Nichtwissen Struktur geben. Es bahnt den Mittelweg zwischen dem leichtfertigen Vertrauen in Sicherheitsvorkehrungen und feste Planungen, das leicht zur Enttäuschung führt, und der Absage an Veränderungen. Lernbereitschaft durch Beobachtung und Verarbeitung der Handlungsfolgen ist das charakteristische Merkmal von Realexperimenten. Sie setzen sich gesellschaftlich um so stärker durch, je »demokratischer« die Modernisierungsprozesse werden, je mehr also Betroffene des Wandels zu Beteiligten an dessen Design werden. Denn dann ist vorzeichnet, dass die Bedingungen ausgehandelt, skeptische Befürchtungen und euphorische Erwartungen in Hypothesen umformuliert, Verläufe beobachtet und Änderungen des Designs erörtert werden“ (Groß et al 2005: 210).

Würden Implementierungsprozesse neuer Technologien so ablaufen, würde es also zu „eine[r] sorgfältige[n] Abwägung der Wissensbestände“ kommen, „würde[n] wohl in vielen Fällen […] die Unsicherheitspotentiale“ zu Tage treten (Groß et al. 2005: 211). Die Frage, die sich dann hier stellt ist, wie dies gewährleistet werden könnte, denn „nur einige Akteurskonstellationen legen eine solche Abwägung nahe, bevor problematische Überraschungen sie erzwingen“ (Groß et al 2005: 211). Als Beispiel seien die finanziellen Interessen einiger Akteure genannt, die auch gegen mögliche Risiken für andere eine gewinnträchtige Technologie durchzusetzen versuchen.

Wie bereits angedeutet soll in dieser Arbeit aber nur ein besonderer Fall von Realexperimenten eine Rolle spielen, nämlich solche, deren Ursprung primär in den Naturwissenschaften zu finden ist. Denn prinzipiell sind beispielsweise auch »politikwissenschaftliche Realexperimente« denkbar. Experimentieren mit der Gesellschaft ist damit also keineswegs an naturwissenschaftlich-technische Verfahren gebunden.

Dabei soll keineswegs generell über derartige Prozesse negativ geurteilt werden. Vielmehr ist es wichtig, dass man sich dem Dilemma, dem die Gesellschaft nun gegenübersteht, stärker bewusst wird. Denn ob beispielsweise Freisetzungen genetisch veränderter Bakterien ökologisch harmlos sind oder nicht, kann man nicht erfahren, wenn diese nicht freisetzt werden und man beobachtet, was passiert. Zugleich muss man sich aber neben den erhofften positiven Konsequenzen auch den möglichen negativen Folgen, also der Risiken bewusst sein. Die Gesellschaft übernimmt „das Risiko der Wissenschaft, mit Unwahrheit belastet zu sein, ein Risiko, das innerhalb des Wissenschaftssystems als falsifizierte Theorie ein akzeptiertes Dasein führt“ (Krohn/ Weyer 1989: 349/350). Wenn Annahmen über die Folgen von bestimmten Technologien sich als falsch herausstellen, so liegt nicht einfach eine falsifizierte Hypothese vor, denn die Folgen dieser Hypothese sind real und in der Regel nicht problemlos umkehrbar:

„Wenn die Erprobung unsicheren Wissens durch Einrichtungen außerhalb der Wissenschaft erfolgt, werden die domestizierten Schäden des wissenschaftlichen Irrtums freigesetzt; dies erfordert eine Neuverteilung der Verantwortung. Die Wissenschaft ihrerseits lädt sich – die offene Diskussion der Tatbestände vorausgesetzt – das ihr ungewohnte Dilemma auf, das Entscheidungsrisiko mitzutragen, ob der mit experimentellen Implementierungen erwartbare Erkenntniserwerb angestrebt werden soll oder nicht“ (Krohn/ Weyer 1989: 350).

Die Frage der Verantwortung der Wissenschaft kommt somit ins Spiel. Dieser Frage soll im nächsten Abschnitt nachgegangen werden.

2.2 Die Verantwortung der Wissenschaft?

Die Forderung nach der Freiheit der Wissenschaft ist für eine Gesellschaft nur soweit erfüllbar, wie die Wissenschaft die Risiken möglicher falscher Thesen selbst trägt. Sobald sich aber nun falsifizierte Thesen auch langfristig auf die Gesellschaft auswirken, kann die Gesellschaft aus moralisch-ethischer Perspektive dies nicht ohne weiteres hinnehmen. Vielmehr ist es von Nöten, das Verhältnis von Wissenschaft und Gesellschaft grundlegend zu überdenken (vgl. hierzu auch Krohn/ Weyer 1989: 349).

Zudem tritt neben dem Aspekt des Experiments mit der Gesellschaft auch die Parallele zu den »Experimenten mit Menschen« auf. Diese sind in Bezug auf die grundrechtlich gesicherte Würde des Menschen nicht nur illegitim, sondern auch illegal. Zu klären wäre also auch, ob und inwiefern beispielsweise Freisetzungsversuche von genetisch veränderten Bakterien oder der Einsatz von Nanopartikeln in Lebensmitteln nicht unter Umständen auch als ein solches Experiment gewertet werden könnten. Sicherlich gibt es stufenweise Übergänge zwischen Experimenten mit Gesellschaft und Ökologie bis hin zu den Experimenten mit Menschen, doch wo genau ist die Grenze zu ziehen? Was ist moralisch verantwortbar und was nicht? Und vor allem, WER trägt die Verantwortung, wenn Experimente scheitern?

Aus Sicht von Krohn & Weyer erfährt dieses Problem gerade im Bereich der Hochrisikotechnologien eine Zuspitzung, denn „[h]ier werden Unfälle zu Tests der Theorien“ (vgl. Krohn/ Weyer 1989: 351). Natürlich sind derartige Unfälle nicht beabsichtigt, „[a]ber durch die mit diesen Technologien verbundenen Modellierungen von Risiken treten solche Unfälle als hypothetisch beschriebene, in wissenschaftliche Prognosen eingebettete und durch technische Vorkehrungen zu verhindernde, also in ihren wesentlichen Merkmalen und Entstehungsbedingungen bekannte Sachverhalte auf“ (Krohn/ Weyer 1989: 351). Gerade zur Vermeidung dieser Unfälle werden die Theorien der Risikoforschung und insbesondere Methoden der Technikfolgenabschätzung entwickelt. Weiterentwickelt aber können solche Theorien und Methoden in der Regel nur dann, wenn es in der Empirie zu Verifikation und Falsifikation der Thesen kommt, bzw. wenn sich bestimmte methodische Verfahren in der Praxis bewährt haben oder eben nicht. Krohn und Weyer gehen sogar so weit, dass man nur dann etwas über Risiken lernen kann, wenn es auch zu Unfällen bzw. Katastrophen kommt (vgl. hierzu Krohn/ Weyer 1989: 352).

Wie bereits erwähnt, muss das Verhältnis von Wissenschaft und Gesellschaft vor diesem Hintergrund neu überdacht werden. Es ist von Nöten, dass sich sowohl Wissenschaft als auch Gesellschaft über den experimentellen Charakter vieler Technologien im Klaren werden. Diese Arbeit soll nämlich keineswegs ein Plädoyer dafür sein, auf keinen Fall neue Technologien zu implementieren. Vielmehr muss man sich bewusst sein, dass man einen möglichst idealen Weg finden muss zwischen zwei Extremen: Auf der einen Seite das Extrem, auf eine vollständige Absicherung aller Faktoren warten zu wollen und auf der anderen Seite das Extrem, sich in „vermeintlicher Sicherheit [zu] wiegen“ und zu glauben, alle Handlungsfolgen und möglichen Risiken zu kennen. Das offensive Umgehen mit der Implemetierung neuer Technologien als Realexperimente verweist auf einen Ausweg, denn Realexperimente sollten beiden Seiten widersprechen und viel eher zu einem institutionellen Lernen führen (vgl. Groß et al. 2005: 11f).

Das Konzept des Realexperiments erhebt damit „Widerspruch […] sowohl gegen die im politischen Raum ständig angetroffene Überhöhung der scheinbaren Verlässlichkeit des Zukunftswissens (insbesondere bei Reformprogrammen), als auch gegen die Option des Nichthandelns, die vielen Bürgern risikoloser erscheint, als auf nicht überschaubares Neuland zu bewegen“ (Groß et al. 2005: 12). Stattdessen geht dieses Konzept vom Normalfall aus, also davon, dass man schon relativ viel über eine Technologie weiß, aber auch, dass man sehr viel noch nicht weiß. Ausprobieren mag der effektivste Weg sein, die eigenen Thesen zu überprüfen und so voranzukommen, ethisch ist dies aber nur, wenn Wissen und Nichtwissen abgewogen worden ist, wenn also auch Risiken und Chancen einander in angemessener Weise gegenübergestellt worden sind (vgl. dazu Groß et al. 2005: 12).

Wie eine solche angemessene Weise konkret auszusehen hat, ist keineswegs Konsens. Doch festzuhalten ist, dass Beantwortung dieser Frage mithilfe der wissenschaftlichen Kriterien allein nicht möglich ist, denn es bedarf vielmehr „zusätzlicher sozialer Akzeptanz und Legitimation“ (Groß et al. 2005: 14). Zu fragen ist aus meiner Sicht vor allem: In was für einer Welt wollen wir leben? Und zur Beantwortung dieser Frage sind nicht allein Wissenschaftler, Ökonomen und Politiker berechtigt, denn diese Frage geht alle etwas an und so müssen auch alle in irgendeiner Weise mitwirken können – etwa in Partizipationsverfahren:

„Eine öffentlich verantwortbare und rechtstaatlich legale Konzeption von Realexperimenten muss ihren sozialen Dimensionen sowohl sachlich als auch prozedural Rechnung tragen. Diese erstreckt sich auf die Gestaltungsziele, auf das Design sowie auf Formen und Verfahren der Beteiligung. Nur dadurch kann Lernerfolg garantiert werden – wenn auch nicht immer Handlungserfolg“ (Groß et al 2005: 14f).

Auf den folgenden Seiten sollen nun die Risiken von Hochtechnologien im Zentrum stehen. Dabei soll nicht nur der Risikobegriff selbst konkreter beleuchtet werden, sondern auch zwei Thesen, die genau diese Problematik bereits in den 1980er Jahren aufgegriffen haben: Zum einen ist dies Charles Perrow, der in seinem Buch „Normale Katastrophen. Die unvermeidlichen Risiken der Großtechnik“ das immanente Katastrophenpotential vieler Großtechnologien aufzeigt. Zum anderen handelt es sich um Ulrich Beck, der nicht nur in der Soziologie für seine Zeitdiagnose „Risikogesellschaft“ bekannt geworden ist.

2.3 Risiken der Hochtechnologien – Das Leben in einer Risikogesellschaft

Zunächst stellt sich die Frage, warum gerade jetzt, also in den letzten Jahrzehnten die Frage nach dem Risiko so bedeutsam geworden. Ein wichtiger Grund dafür könnte darin bestehen, dass immer mehr Technologien Schäden in ganz neuen Größenordnungen verursachen können (und teilweise auch schon verursacht haben). Niklas Luhmann konstatiert sogar eine Verschiebung der „Relation von Vorteil und eventuellen Schäden ins Nachteilige“ (Luhmann 1991: 93). Als Vergleich zieht die Dampfmaschine heran, bei der er den Nutzen sehr viel höher einschätzt als die Auswirkungen des Risikos „gelegentlicher Dampfkesselexplosionen“ (Luhmann 1991: 93).

In der Regel sind Unfälle in komplexen Anlagen wie beispielsweise in Atomkraftwerken oder chemischen Anlagen selten völlig überraschend: „Ihre Wahrscheinlichkeit und ihr Verlauf wurden theoretisch modelliert, und zwar auf der Basis eines empirischen Wissensbestandes, der seit der Einführung der Dampfmaschine durch Forschungen zu Sicherheitsproblemen gewachsen ist“ (Krohn; Weyer 1989: 360).

Ins Zentrum rückt weder er noch Perrow noch Beck die Quantität, sondern in erster Linie die Qualität möglicher Unfälle bzw. Katastrophen. Deutlicher wird dies, wenn zwischen Risiko und Gefahr stärker differenziert wird und genau dies soll in dem nun folgenden Abschnitt getan werden.

2.3.1 Risiko vs. Gefahr

Beide Begriffe lassen sich hinsichtlich der Zurechnung der Verantwortung für Schäden unterscheiden. Wenn man sich selbst, der eigenen Organisation oder der eigenen Gesellschaft die Verantwortung für potentiell oder tatsächlich eintretende Schäden zurechnet, so handelt es sich um Risiken – rechnet man jedoch diese Verantwortung anderen zu, so handelt es sich für einen selbst um eine Gefahr. Eng verbunden ist diese Unterscheidung dabei mit Entscheidungen. Habe ich mich oder hat sich eine Organisation beispielsweise dafür entschieden, etwas zu bauen, das potentiell großen Schaden anrichten könnte, so ist dies ein Risiko für mich oder die entsprechende Organisation, jedoch eine Gefahr für Außenstehende, die nicht an dem jeweiligen Entscheidungsprozess beteiligt waren. Gefahren liegen also vor, wenn mögliche Schäden außerhalb der eigenen Kontrolle liegen (vgl. hierzu Luhmann 1993: 160).

Die These ist nun die, dass es sich zunehmend um Technologien handelt, bei denen die Mehrheit der möglichen Betroffenen selbst nicht mit am Entscheidungsprozess beteiligt gewesen ist und somit kein Risiko eingegangen ist, sondern einer Gefahr ausgesetzt war/ ist. Betreiber, Entwickler und Politiker, die die Implementierung derartiger Technologien vorangetrieben haben, sind jedoch das Risiko eines möglichen Systemversagens eingegangen und haben somit auch eine Gefahr für andere mitkonstituiert, die es ohne ihre Entscheidungen so nicht gegeben hätte.

Risiko und Gefahr treten zudem oft in einem Mischverhältnis auf, denn sobald man von einer Gefahr weiß und die Möglichkeit hat, sich dieser zu entziehen und dies nicht tut, geht man wieder ein Risiko ein – etwa das Risiko trotz besseren Wissens sich möglichen Schäden auszusetzen. So kann gehe ich ein Risiko ein, wenn ich in der Nähe eines Atomkraftwerkes wohnen bleibe, obwohl ich davon gehört habe, dass sich dies unter Umständen auf meine Fruchtbarkeit auswirken kann. Eine Gefahr bleibt es jedoch im Falle eines atomaren Supergaus, da in diesem Falle auch ein Umzug in eine andere Stadt nur bedingt vor Schäden schützt. Noch mal anders verhält es sich, wenn ich hingegen an der Entscheidung beteiligt gewesen bin, dieses Atomkraftwerk zu bauen und dafür gestimmt habe, denn dann bin ich auch etwaige Risiken miteingegangen. Dann bin ich als Experimentator maßgeblicher Akteur des Realexperimentes. Bin ich dagegen »nur« Betroffener, habe also selbst nicht mitentscheiden können, so bin ich zwar auch Teil des experimentellen Settings, aber trage eine andere Form von Verantwortung für das Etwaiger Risiken. Eine gewisse Mitverantwortung würde dann aber letztlich immer noch bestehen, denn unter Umständen hab ja auch ich die Partei gewählt, die den Bau des entsprechenden Atomkraftwerks unterstützt hat oder aber ich habe den Bau des Aomkraftwerkes ohne Widerstand trotz »besseren« Wissens hingenommen.

An dieser Stelle soll die Frage der Verantwortung für Risiken keineswegs endgültig geklärt werden, festzustehen scheint aber, dass eine endgültige Klärung mehr als schwierig ist – und dies um so mehr, wenn man berücksichtigt, dass auch die, die sich einmal für EIN Risiko entschieden haben, sich nicht notwendiger weise in diesem Augenblick auf für alle anderen noch nicht bekannten Risiken entschieden haben. Man kann sich stets nur vor dem Hintergrund des eigenen Wissens entscheiden, doch ob man sich dadurch auch der Verantwortung für bis dahin noch nicht bekannte Risiken entziehen kann, ist fraglich.

Entscheidend aber ist, dass sich mit zunehmenden Maße im Bereich der Hochtechnologien das Risikverhalten der einen zur Gefahr für andere wird, ohne dass diese die Möglichkeit gehabt hätten, sich angemessen zu informieren und darauf basierend sich zu entscheiden, ob sie ein Risiko eingehen möchten oder nicht (vgl. Luhmann 1993: 164):

„Ein Risiko kann noch so rational kalkuliert sein, für diejenigen, die an der Entscheidung nicht beteiligt sind, entsteht daraus eine Gefahr. Diejenigen, die ein Atomkraftwerk einrichten, werden heute sorgfältig kalkulieren. Sie werden Gesundheitsrisiken für die Anwohner für minimal und eine Katastrophe für extrem unwahrscheinlich halten. Diese Einschätzung mag durchaus zutreffen und von allen geteilt werden. Aber für die möglicherweise Betroffenen ist dies kein Risiko, sondern eine Gefahr. Und darin liegt ein Unterschied“ (Luhmann 1993: 164).

2.3.2 Die Risikogesellschaft

Die »Risikogesellschaft« ist eine stark rezipierte Zeitdiagnose, die gerade in der 1980er Jahren »den Nerv der Zeit« getroffen hat. Sie steht im Zeichen einer noch umfassenderen Zeitdiagnose: der Wissensgesellschaft. Auf diese soll hier nicht im Detail eingegangen werden, aber auch Groß, Hoffmann-Riem und Krohn verorten ihre Realexperimente in der Wissensgesellschaft:

„»Wissensgesellschaft« bezeichnet dann eine Gesellschaft, die ihre Existenz auf solche experimentellen Praktiken gründet und so gesehen eine Gesellschaft der Selbst-Experimentierung ist. Selbst-Experimentierung bedeutet, dass bei experimentellen Praktiken immer auch Überraschungen involviert sind, da die Experimentatoren selbst Teil ihres Experimentes sind. Experimente führen zu einem unvorhersagbaren Ausgang, produzieren unbekannte Nebenfolgen und bedürfen daher ständiger Beobachtung, Auswertung und Justierung“ (Groß et al 2005: 14).

Für Groß et al. stellt das Konzept des Realexperimentes eine Erweiterung des konzepts der Wissensgesellschaft dar (vgl. Groß et al. 2005: 74). Wissen ist zudem auch zentral bei der Wahrnehmung von Risiken – denn um solche handelt es sich nur, wenn sich wissentlich dafür entschieden wird. Dabei, das sei betont, muss es sich nicht um bereits bewiesene Tatsachen handeln, es reicht bereits das Wissen darum, dass etwas auch ein Risiko beispielsweise für die Gesundheit sein könnte. Es geht in erster Linie um Potentialitäten und erst in zweiter Linie um eingetretene Schäden.


3. Wie die Gesellschaft mit Katastrophen umgeht

...

4. Lernen aus Katastrophen? Ein Resumee

...

Quellenverzeichnis

Groß, Matthias; Hoffmann-Riem, Holger; Krohn, Wolfgang (2005): Realexperimente. Ökologische Gestaltungsprozesse in der Wissensgesellschaft; Bielefeld: transcript.

Hofmann, Matthias (2008): Lernen aus Katastrophen. Nach den Unfällen von Harrisburg, Seveso und Sandoz; Berlin: edition sigma.

Krohn, Wolfgang; Weyer, Johannes (1989): Gesellschaft als Labor. Die Erzeugung sozialer Risiken durch experimentelle Forschung; In: Soziale Welt 40: 349-373.

Krohn, Wolfgang; Krücken, Georg (1993) (Hrsg.): Riskante Technologien: Reflexion und Regulation. Eine Einführung in die sozialwissenschaftliche Risikoforschung; Frankfurt a. M.: Suhrkamp.

Luhmann, Niklas (1991): Soziologie des Risikos. Berlin: de Gruyter.

Luhmann, Niklas (1993): Risiko und Gefahr; In: Wolfgang Krohn; Georg Krücken (Hrsg.): Riskante Technologien: Reflexion und Regulation. Eine Einführung in die sozialwissenschaftliche Risikoforschung; Frankfurt a. M.: Suhrkamp.

Perrow, Charles (1987 [1984]): Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik; Frankfurt a. M.: Campus.

[1] Dies soll aber keineswegs heißen, dass der Einsatz dieser Technologien nicht auch zum Wohle der Gesellschaft sein kann. Ob die Technologien »auch oder vor allem« positiven Nutzen für die Gesellschaft und der in ihr lebenden Menschen haben kann, soll nicht bestritten werden.

[2] Gemeint sind hier in erster Linie die modernen westlichen Gesellschaften Europas, Nordamerikas, sowie Japan und Australien.

Gefällt dir was du siehst? Teile es!

Kommentare

Registeren oder anmelden um zu kommentieren.