Ihre Browserversion ist veraltet. Wir empfehlen, Ihren Browser auf die neueste Version zu aktualisieren.

Klaus Goergen:

KURZE GESCHICHTE DER MORALBEGRÜNDUNGEN

(Aus: ZDPE 2, 2007, S. 126-136)

                                                                                                                                    Moral, das ist, wenn man moralisch ist.

                                                                                                                                                                        Versteht Er? Es ist ein gutes Wort.

                                                                                                                                                                        (Georg Büchner, Woyzeck)

 

Was die Gewalt  für das Recht, das ist die Begründung für die Moral. Ihre Gültigkeit ist ihre einzige Stütze, eine Moral, die ihren Geltungsanspruch nicht  begründen kann, darf auf Befolgung nicht hoffen. Soweit sind sich – beinahe -  alle einig.

Aber fast alles, was mit der Begründung von Moral zu tun hat, ist umstritten: Ob sie überhaupt begründet werden darf, kann, oder muss:  Schon die schiere Frage: 'Warum soll ich moralisch sein?', halten manche für verwerflich. "Schon im Zweifel liegt die Untat", sagt  Cicero.[1]

Andere, wie Prichard, halten die Frage für sinnlos, weil sie sich entweder zirkulär beantwortet, oder falsche, weil außermoralische, Gründe angeführt würden.[2] Wieder andere halten sie für bedeutungslos, weil moralisches Verhalten in praxi nicht von der Begründung von Moral abhänge. "Die Vorstellung, dass es Jack the Ripper oder Adolf Hitler nur an guten Begründungen dafür gefehlt hat, moralisch zu sein, ist ziemlich grotesk."[3], sagt Kurt Bayertz – und weiß zugleich, auch das ist nur die halbe Wahrheit: Denn im wirklichen Leben ist es nicht ratsam, Zweifel an der Begründbarkeit von Moral aufkommen zu lassen, z.B. wenn man einen Bankkredit braucht. Auch beim ersten Rendezvous sollte man tunlichst nicht fragen, "warum soll ich  moralisch sein?"

Umstritten ist, was eine Moralbegründung eigentlich leisten soll: Ist die "Befolgungsrationalität…die harte Nuss der Moralbegründung"[4], wie Christoph Fehige meint, oder reicht es, wenn ich zeigen kann, dass moralische Urteile – a posteriori – akzeptiert werden können.

Umstritten ist ferner, womit Moral begründet werden kann, - hier heißen die wichtigsten  Kandidaten: Gott, das Glück, die Vernunft, Natur, Wille, Gefühl und Sprache. Umstritten ist schließlich, für wen die Begründung gelten soll:  für alle, wie  die Universalisten oder nur für die eigene Moralgemeinschaft  wie  die Relativisten glauben. 

Nun lassen sich die Moralbegründungen unter verschiedensten Aspekten betrachten. Typisch  'deutsch'  ist eine 'pyramidalische' Betrachtung, ähnlich jener, wie sie lange Zeit dem Kanon deutscher Literaturgeschichte mehr oder minder explizit zu Grunde lag: Alles strebt zu Goethe, respektive Kant hin, danach geht es – literarisch und  moralisch – bergab.

Aber man muss, um ein Wort Nietzsches zu variieren[5], schon Deutscher sein, um zu glauben, jene Moralbegründung sei die beste, die uns am meisten abverlangt. Im Allgemeinen gelten eher jene Argumente für die stärksten, die mit den schwächsten Prämissen am meisten erklären. 

Und  es sind auch ganz andere Betrachtungsweisen denkbar. In der angloamerikanischen Tradition wird die Fundierungsdebatte seit Mitte des 19. Jahrhunderts unter dem Schlagwort 'why be moral?' geführt. Die Trennungslinie läuft hier eher  zwischen den 'Glücksverächtern', Sokrates, Kant, Schopenhauer, Nietzsche und den 'Glücksapologeten' , Aristoteles, Epikur, Mill, Hare, Nussbaum, Rorty.

Oder es wird, in der analytischen Philosophie,  danach unterschieden, wer durch die Moralbegründung überzeugt werden soll: Der reine Amoralist, der als 'Trittbrettfahrer' jede Moralbegründung akzeptiert, solange sie nur von ihm selbst kein moralisches Verhalten fordert;  der "rationale Egoist", der einsieht, dass er von anderen nur erwarten kann, was er selbst zu bieten bereit ist[6]; der "rationale Altruist", der vernünftige Gründe hat, warum er, sich aufopfernd für seine Familie, Nation oder Religion, unmoralisch verhält[7], oder  der reine Rationalist, der eigentlich gar keine Begründung braucht, da er ohnehin weiß, dass es vernünftig ist, moralisch zu sein.

Oder man fragt, in der Sozialphilosophie, wem gegenüber ich mich moralisch verhalten soll: dann reicht eine Care-Ethik als Begründung für den Nahbereich; für moralisches Verhalten gegenüber dem anonymen Fremden  bedarf es einer universalistischen Ethik.

Denkbar wäre auch eine Aufteilung in Begründungen 'von innen' und 'von außen'.

Von innen: Es gibt eine Kraft, eine Anlage, eine typisch menschliche Eigenheit, etwas Ererbtes oder Erlerntes, die uns zu moralischem Verhalten befähigen. Seien es Vernunft und freier Wille, bei Kant,  Mitleidsfähigkeit oder Achtsamkeit, bei Schopenhauer oder Carol Gilligan, Sprache als Verständigungsmittel, bei Habermas und Apel, die Intuition von Werten, bei Scheler, die Fähigkeit zu Phantasie und Liebe, bei Martha Nussbaum, das Geworfen-Sein in Verantwortung, bei Sartre oder gar ein angeborener Altruismus, wie ihn die biologische Anthropologie gelegentlich behauptet.

Von außen: Unsere Lage als gesellschaftliche Wesen, mit anderen, unser Angewiesensein auf andere, unsere moralische Sozialisation durch andere, unsere Antizipation von Sanktionen durch ein bestimmtes Verhalten gegenüber anderen, unser Wunsch von anderen respektiert und anerkannt  zu werden, nötigen uns zu moralischem Verhalten. Solche Begründungen 'von außen' verbinden dann antike Tugendethik und Kommunitarismus, Utilitarismus und  Kontraktualismus, den amerikanischen Pragmatismus, eine Ethik der Anerkennung, bei Honneth,[8] oder Sennett[9] und eine postmoderne 'Ethik des Anderen' bei Lévinas.[10]

 

Die  Beispiele zeigen: viele Darstellungsarten von Moralbegründungen lassen sich begründen, gemeinsam ist allen, dass in wissenschaftstheoretischer Hinsicht Begründungsfragen sicher am Anfang oder hinter allen Einzelfragen von normativer oder angewandter Ethik stehen.

Im dargelegten  Sinne etwa lassen sich vier  allgemeine Begründungsweisen unterscheiden: empirische, anthropologische, kognitive, nonkognitive, die ich in einem kurzen Überblick, darstellend und kritisierend, in Erinnerung rufen möchte. 

 

VON ARISTOTELES BIS KANT – KLASSISCHE MORALBEGRÜNDUNGEN

 

 Antike Ethiken kann man als empirisch begründet bezeichnen, weil sie Moralität als empirisches Mittel zu einem konkreten empirischen Zweck verstehen.

Glückseligkeit, eudaimonia, ist für das 'zoon politicon' nur erreichbar, wenn es sich in der Polis tugendhaft verhält. Moralität wird in antiker Tugendethik als Garant geglückten Lebens in der Gemeinschaft begründet. Die Bandbreite reicht von Zenon bis Epikur, je nachdem, welche Rolle dem Glück im Verhältnis zur Tugend zugesprochen wird: Für Platon und die  Stoa gilt der Vorrang der Tugend, sie ist nicht nur notwendige, sondern auch hinreichende Bedingung für das Glück.Nur wer seine unmittelbaren Glücksbegierden in Askese und Apathie zurückstellen kann, erlangt die  höhere Glückseligkeit der Ataraxia, der Unerschütterlichkeit. Epikur dreht das Verhältnis um: wer seinem – allerdings wohldosierten, gemäßigten – Glücksverlangen nachgibt, der lebt tugendhaft. Aristoteles gelangt zu einer mittleren Position durch die Politisierung der Glücksverheißung: Das subjektive Glücksstreben ist erstes, notwendiges, aber nicht hinreichendes Ziel für ein geglücktes Leben in der Polis. Dazu bedarf es, wie uns die Vernunft sagt, der sittlichen Tugenden. Arete und logos sind autonome Entitäten, aber sie bleiben auf das letzte Ziel des Glücks ausgerichtet. Eine Aristotelische Moralbegründung liegt sowohl den modernen Varianten des Kommunitarismus zugrunde – aus den aristotelischen Tugenden werden bei Martha Nussbaum dann „Fähigkeiten“[11], bei Axel Honneth Anerkennungsformen[12] und bei Michael Walzer dichte und dünne Moralcodizes[13] als auch den unterschiedlichen Theorien moralischer Sozialisation. Allen neoaristotelischen Moraltheorien gemeinsam ist der teleologische Grundzug: Moralisches Verhalten ist auf einen außermoralischen Zweck bezogen. Das sind die Stärke und die Schwäche des Aristotelismus zugleich, denn einerseits löst er das Motivationsproblem auf elegante und plausible Weise, andererseits ist moralisches Verhalten selbst nicht moralisch begründet.

 

Der Kontraktualismus,auf Hobbes zurückgehend, kann als Bindeglied zwischen einer   antiken Tugendethik und dem modernen Utilitarismus verstanden werden. Auch er argumentiert empirisch. Moralisches Verhalten begründet sich für den rationalen Egoisten aus der Notwendigkeit, den Übeln des Naturzustands zu entrinnen. Weil ich von den Anderen erwarte, dass sie sich an Normen halten, denn nur so ist mein Leben und Eigentum geschützt, muss ich – notgedrungen – mich auch an diese Normen halten. Die gegenseitige Verpflichtung wird im fiktiven Vertrag, dem Kontrakt, festgelegt. Bei Hobbes schließen die Untertanen diesen Vertrag mit dem Herrscher, dem Leviathan, der sich dafür verpflichtet, ihre Sicherheit zu schützen; im modernen Kontraktualismus wird der Vertrag als wechselseitiger zwischen den souveränen Bürgern verstanden. Ernst Tugendhat definiert, in Anlehnung an Rawls,  knapp: "moralisch gut ist ein Mitglied einer moralischen Gemeinschaft, wenn es sich so verhält, wie die Mitglieder der moralischen Gemeinschaft es wechselseitig voneinander fordern." [14]

Ein aufgeklärter, symmetrischer  Kontraktualismus gilt heute vielen als letzte, verbliebene Fundierungsmöglichkeit von Moral, nachdem alle  Hoffnungen auf  eine Begründung durch Vernunft, Natur und Empathie im Schwinden sind.  Allerdings sieht sich auch der Kontraktualismus mit einigen  Einwänden konfrontiert:

                                        

1. Der Mensch wird als individualistische Monade gesehen, losgelöst von allen, in Wirklichkeit von klein auf anerzogenen, sozialen Bezügen und Verpflichtungen. Die vorgestellte Situation: dass sich ein Einzelner überlegen kann, ob er den Naturzustand verlassen will, und wenn ja, unter welchen  Bedingungen, entspricht nicht der Lage, in der sich reale Menschen sozial vorfinden.

2. Der angenommene Egoismus übersieht den spontanen, auf Sympathie oder Empathie beruhenden Altruismus. Dieser nicht-normative Altruismus ist aber in Wirklichkeit Quelle der meisten moralischen Handlungen.

3. Damit eng verwandt ist der dritte Einwand. Der Kontraktualismus kann weder Entstehung noch Wirkung des moralischen Gewissens erklären, ohne sich selbst aufzuheben: wer eine innere Instanz ausgeprägt hat – warum auch immer – die ihm sagt, wie er sich moralisch zu verhalten hat, der braucht keinen Kontrakt.

4. Schließlich: Der Kontraktualismus beantwortet nur die Frage: 'warum soll man moralisch sein?', nicht die Frage: 'warum soll ich moralisch sein?'  Dem Egoisten wird als beste Möglichkeit jene erscheinen, in der sich alle anderen an den Kontrakt halten, nur er selbst nicht. Das Problem des moralischen 'Trittbrettfahrers' ist innerhalb des Kontraktualismus kaum zu lösen.

 

Auch derUtilitarismus argumentiert im Einzelnen anders als die antike Tugendethik:

- Er hat keinen  Begriff des Guten oder Gerechten a priori.

- Er kennt keine Universalien:  "Menschenrechte sind Unsinn auf Stelzen", sagt Bentham.

- Nur  Lustmaximierung, Unlustvermeidung gelten als primäre Handlungszwecke.

Der größte Vorteil gegenüber den antiken Tugendethiken liegt darin, dass die Begründung auf eine einzige, unmittelbar evidente, mit der Natur des Menschen zweifelsfrei vereinbare Größe, das  Luststreben, reduziert wird.

Damit scheinen die bekannten Probleme des Intuitionismus und Relativismus behoben.

Dennoch: verbunden mit antiker Glücksethik wie dem Kontraktualismus bleibt der Utilitarismus über die  konkrete Zweckbezogenheit (telos) von moralischem Handeln.

Der Utilitarismus begründet Moralität mit den nützlichen Folgen von Handlungen. Was gut ist, erweist sich somit erst a posteriori: "diejenige Handlung ist die beste, die das größte Glück der größten Anzahl zeitigt" [15] (F. Hutcheson) Das Problem, subjektive und allgemeine Glückssteigerung in Einklang bringen zu müssen, wird dadurch gelöst, dass sie für identisch erklärt werden: Es sei, sagt J.S. Mill, "eine psychologische Tatsache, dass, etwas für allgemein wünschenswert zu halten und es für lustvoll zu halten, ein und dasselbe ist"[16]

Nun mag das noch zu Mills Zeit plausibel gewesen sein, denkt man an Ausbeutung, Kinderarbeit und Verelendung im Frühkapitalismus. Aber heute gilt das leider nicht mehr: 'Tempo 100' und Mülltrennung sind  zwar durchaus allgemein wünschenswert, aber lustvoll leider nicht. Die Glücksverheißung für den einzelnen und jene für die Allgemeinheit – das ist ja das Dilemma jeder postmaterialistischen Utopie – fallen auseinander.

Letztlich scheinen alle empirischen Fundierungen als  Begründungsversuche von Moral logisch widersinnig: Was an Erfahrung und  Erwartung von Nutzen gebunden ist, kann nicht – rückwärts – ein Mittel als Zweck begründen.

Wenn moralisches Verhalten zum Mittel wird - um in der Polis (oder modern in der kommunitaristischen Gemeinschaft)  glücklich leben zu können, um dem Naturzustand zu entkommen, um den allgemeinen Nutzen zu maximieren - kann es als Zweck nicht begründet werden. Ein austauschbares Mittel kann keine allgemeine Gültigkeit beanspruchen.

Das Beispiel Gentechnologie zeigt:  Wer hier utilitaristisch argumentiert, wie die meisten  Befürworter, dessen moralische Positionen haben kurze Halbwertszeiten, sie werden hinfällig, sobald sich ein neuer Nutzen  für eine größere Zahl kalkulieren lässt.

Damit wird deutlich, es gibt  keinen inhärenten Maßstab in empirischen Begründungen, um bestimmte Mittel (z.B. Folter, Mord) als zweckdienlich auszuschließen. Der Zweck heiligt jedes Mittel.  Empirische Begründungen sind letztlich, so Hans Krämer, "Bankrotterklärungen der Moral"[17]

 In Kants Sprache: Empirische Begründungen sagen als "hypothetische Imperative" nur etwas über die "Legalität" von Handlungen, aber nichts über deren "Moralität".

 

 Das ist der Hintergrund für Kants deontologische Begründung.

 Moralität wird bei ihm  doppelt begründet. Einmal durch die  Kritik an allen bisherigen empirischen Begründungen: Solange mein Handeln ziel- oder zweckgerichtet ist: Das gute Leben, der größte Nutzen etc. ist es nicht wirklich frei, sondern innerlich oder äußerlich vorbestimmt. Alle Inhalte von Willensentscheidungen legen den freien Willen an die Kette seiner Zwecke. Alle Imperative,  die ich mir setze, stehen unter dem Vorbehalt – der Hypothese – einen konkreten Zweck erreichen zu wollen, mein Handeln, auch mein moralisches,  wird damit stets zum Mittel. Ist es nicht mehr zweckdienlich, gibt es keinen Grund mehr, daran festzuhalten. Moralität wird so zur Verfügungsmasse menschlicher Zwecke.  Was bleibt ist die reine Form des Willens, das Wollen um des Wollens willen. Ich will, weil ich will, und nicht, um dies und jenes zu erreichen. Erst der kategorische Imperativ ist also Ergebnis reiner Selbstverpflichtung und bewahrt die Moral davor, ein austauschbares Mittel menschlicher Absichten zu werden. Die moralische Qualität einer Handlung liegt also allein in ihrem Motiv, nicht in dem, was sie erreicht.  Kant spitzt zu: selbst wenn aufgrund mangelnder Fähigkeiten  „nichts […] ausgerichtet würde, und nur der gute Wille […] übrig bliebe: so würde er wie ein Juwel doch für sich selbst glänzen, als etwas, das seinen vollen Werth in sich selbst hat.“ (GMS, 394)

Zum anderen begründet Kant die Moral aus seinem  Autonomiebegriff:  Moralität wird zum letzten Beweis von Freiheit.  Erst die autonome, kategorische Selbstverpflichtung, die von allen inhaltlichen Zwecken, allen Folgen absieht und nur vom reinen Willen und der Vernunft geleitet ist, macht wahrhaft frei. 

Die Trias von Vernunft, Wille und Moral verdichtet sich im Pflichtbegriff: Zu seiner wahren Größe erhebt sich der Mensch als pflichtbewusstes Wesen. Die Antwort auf die  Frage, 'warum soll ich moralisch sein?' lautet bei  Kant: weil ich es wollen kann und weil es vernünftig ist.

Natürlich liegt sofort der Einwand nahe: 'Und warum soll ich vernünftig sein?' Kant hat den Einwand geahnt, in der Metaphysik der Sitten scheint es am Ende so, als halte er die Antinomie von Vernunft und Moral für letztlich unlösbar.[18] Aber es gibt weitere Einwände:

1. Man kann sich so wenig kategorisch selbst verpflichten, wie sich  etwas versprechen, verzeihen oder bei sich selbst entschuldigen. Anders gefragt: was kommt zuerst: das Wollen oder das Sollen? Das ist bei Kant nicht eindeutig geklärt.[19] Mit Schopenhauer gefragt: "Warum sollte ich, was ich ohnehin soll, auch noch wollen?"[20]  Zum Sollen muss  ich gewillt sein, dem moralischen Imperativ folge ich nur, wenn ich dazu motiviert bin, und das Motiv kann letztlich nur mein Glück sein.

Kants Versuch, das Motivproblem, etwas halbherzig,  durch die Vertröstung auf ein jenseitiges Glück zu lösen, nötigt ihn, neben dem freien Willen auch noch einen gerechten Gott und eine unsterbliche Seele anzunehmen. Das ist allerdings,  wie Konrad Ott anmerkt: eine "imposante Verlegenheitslösung."[21]  Harald Schmitz urteilt noch schärfer: Die jenseitige Glückseligkeitshoffnung als letzte moralische Motivation bei Kant bezeichnet er als "zynischen Eudämonismus".[22]

An anderer Stelle[23] scheint Kant sich in einen Widerspruch zu verstricken, wenn er das Motivationsproblem diskutiert:  Wenn der kategorische Imperativ angewendet werden soll, muss man, so Kant "nichts von der Neigung des Menschen, sondern alles von der Obergewalt des Gesetzes und der schuldigen Achtung für  dasselbe erwarten," Soweit entspricht das der üblichen Argumentation bei Kant.  Aber nun fährt er fort: "...oder den Menschen widrigenfalls zur Selbstverachtung und inneren Abscheu verurteilen." (GMS, BA 61) Ja, sind denn die Erwartung "innerer Abscheu" und "Selbstverachtung" etwa keine Neigungen? Da werden sie am Haupteingang zur Moralbegründung vom strengen Hüter des Gesetzes abgewiesen – und schleichen sich durch den Hintereingang wieder hinein![24]

In gewisser Hinsicht ist Kants Moralbegründung damit der religiösen am nächsten und zugleich am entferntesten von ihr. Sein moralischer Gottesbeweis ist zugleich der Abgesang auf alle Gottesbeweise. Nach theologischer Auffassung verpflichten die moralischen Gesetze, weil sie Gottes Gebote sind, nach Kant sind sie nur deshalb als Gebote Gottes anzusehen, "weil wir dazu innerlich verpflichtet sind". (KrV, B.847) Die Existenz des Sittengesetzes im autonomen Menschen begründet die Existenz Gottes.

2. Kants Ethik macht  keinen sinnvollen Umgang mit ethischen Konflikten möglich: reine praktische Vernunft, freier Wille und Selbstverpflichtung sind rigorose Instanzen, die keine Konflikte, kein Abwägen vorsehen, aber darum  geht es in der moralischen Praxis meist.

Wenn es zum Beispiel zu den unbedingten Pflichten gegenüber anderen gehört, Versprechen stets zu halten, wie Kant behauptet (GMS, 422), wie entscheide ich dann, wenn ich im Konflikt stehe, einerseits mein Versprechen halten zu sollen, einen Freund finanziell zu unterstützen, andererseits das Geld plötzlich dringender zur Unterstützung meiner mittellosen Putzfrau bei einer Notoperation benötigt wird? Hier gibt es im Kantischen Pflichtenmodell keinen Ausweg, bzw. nur einen moralisch inakzeptablem Verweis auf unbedingte Gültigkeit der Selbstverpflichtung.

3. Freier Wille, Pflichtbewusstsein und  Vernunft erscheinen seit Nietzsche, Freud und Adorno ohnehin in trübem Licht.

 

Die Kritik an Kant ist auch der Ausgang der wichtigsten intuitionistischen bzw. gefühlsethischenBegründungsansätze - auch wenn die Tradition, Moral aus einem "moral sense" zu begründen lange vor Kant einsetzt. Der Begriff wird von Shaftesbury 1699 geprägt und von den schottischen Empiristen und Sensualisten Francis Hutcheson, David Hume und Adam Smith zur Fundierung ihrer ethischen Ansätze genutzt. Alle gefühlsethischen Ansätze verkehren das Verhältnis von Vernunft und Gefühl, wie es seit Platons "Seelenrosse-Gleichnis" bis zu Kants Pflichtethik verstanden wurde, ins Gegenteil: Die Vernunft ist nur die "Sklavin der Leidenschaften" (Hume) sie führt aus, bzw. erdenkt die strategischen Mittel, um jene Zwecke zu erreichen, die zuvor gefühlsmäßig für positiv befunden wurden. Für Hume ist es offensichtlich: "dass die letzten Zwecke menschlicher Handlungen in keinem einzigen Fall durch die Vernunft erklärt werden können, sondern dass sie sich ganz allein den Gefühlen und Neigungen empfehlen"[25]

  Schopenhauers Mitleidsethik relativiert sein extrem kritisches Menschenbild durch die Zuschreibung einer elementaren Fähigkeit zum Mitleiden. Moral gründet in der Empathiefähigkeit. Schopenhauer muss versuchen, Mitleid mit seiner Annahme eines grenzenlosen Egoismus beim Menschen kompatibel zu machen. Das unternimmt er mit einer Projektionsthese: So wie ich im Allgemeinen und weit überwiegend mein eigenes Wohl zum obersten Ziel mache, so verfüge ich über die Fähigkeit, durch Hineinversetzen in den anderen, sein "Wohl und Wehe" zu meinem elementaren Anliegen zu machen. Meine Mitleidsfähigkeit ist die einzige, und um des Zusammenlebens willen notwendige, Relativierung meines ansonsten grenzenlosen Egoismus.

Auch die Wertethik   Schelers kritisiert den Kantschen Vernunftbegriff: "Eine praktische Vernunft, die dem Triebbündel (Mensch) erst ihre Form aufzupressen hätte, gibt es nicht!" [26] sagt Scheler.

An die Stelle von Vernunft bzw. freiem Willen setzt Scheler die, seiner Meinung nach elementaren, Gefühle von Liebe und "sittlicher Werterkenntnis". Was ein sittlicher Wert ist, das sagt mir weder die Vernunft, noch der Wille, noch die Pflicht, sondern allein die Intuition, bzw. meine natürliche Liebesfähigkeit. 

Die aktuelle Diskussion um die Bedeutung moralischer Gefühle  für die Begründbarkeit von Moral, in den Care-, Achtsamkeits-, oder Anerkennungsethiken[27] etwa, rekurriert ebenfalls auf die Gefühlsethik. Christoph Fehige glaubt gar, eine Art 'mathematischen Beweis' dafür erbringen zu können, dass es so etwas wie „Empathie a priori“ gibt,[28] also einen "dritten Weg" zwischen den Aprioristen der Vernunft und jenen, die Vernunft erst im Nachspiel der Gefühlsentscheidungen am Werk sehen[29], und von medizinischer Seite wird neuerdings versucht, eine natürliche Veranlagung zur Empathie mit dem Nachweis sogenannter Spiegelneuronen gleichsam neuronal zu erhärten[30].

   Letztlich gehen alle intuitionistischen Ansätze  auf Platons Ideenlehre zurück: die Ideen des 'Guten' und des Gerechten sind oberste, von menschlicher Erkenntnis unabhängige 'Werte', sie gehören als Tatsachen zur Welt und beanspruchen den höchsten Klarheitsgehalt. 

Wie aber, so muss man fragen, ist etwas vorstellbar, das zugleich reale empirische Tatsache ist und einen normativen Anspruch erhebt?  Diese seltsame  Doppelnatur der intuitiv gefassten Werte bleibt  reine Metaphysik. Die Dinge der Welt fordern nichts. 

 Zudem ist Intuition ein schlechter Ratgeber, wenn es um allgemeine Gültigkeit moralischer Werte geht: Sie kann uns verlassen – oder erst gar nicht auftreten. Als Begründung ist der Intuitionismus zirkulär: Wer die Intuition hat, braucht keine Begründung, wem sie fehlt, dem hilft keine. Und schließlich bauen alle Anerkennungsethiken auf kollektive Identitäten als Bezugsbasis der moralischen Gefühle gegenüber dem konkreten oder allgemeinen Anderen.  Die aber mögen in einer antiken Polis hinreichend gewesen sein, in modernen, anonymen Massengesellschaften sind die Beziehungen zwischen Menschen weitgehend verrechtlicht, begründen Ansprüche und sollten nicht von karitativem Mitgefühl und vormoderner ‚Nächstenliebe’ abhängen.

In der Frage, mit welcher Instanz bei Kant und Hume Moral letztlich zu begründen sei, geht es im Übrigen nicht um ein reines Entweder-Oder von Vernunft und Gefühl, wie oft behauptet wird, vielmehr um einen Vorrang. Beide Denker sehen Vernunft und Gefühl im Zusammenspiel, wenn es darum geht, moralische Handlungen zu begründen. Hume betont, die Vernunft sei zwar "kein Motiv der Handlung", aber sie verleiht uns die "Mittel, durch die wir Glück erreichen oder Unglück vermeiden können"[31] Und Kant erklärt: "Das oberste prinzipium aller moralischen Beurteilung liegt im Verstande, und das oberste principium alles moralischen Antriebs liegt im Herzen. Diese Triebfeder ist das moralische Gefühl."[32]  Einen empathischen Anstoß erachten also beide für notwendig, um eine moralische Handlung zu motivieren – wirklich moralisch wird sie für Kant allerdings erst, wenn sie von der Vernunft normativ geprüft ist; für Hume kann die Vernunft, da "kühl und distanziert"[33] keine Bewertung liefern, das kann in letzter Instanz nur das Gefühl: "Es kann nicht immer wieder einen Grund geben, warum etwas anderes gewollt wird. Es muss etwas geben, das um seiner selbst willen und wegen seiner unmittelbaren Harmonie und Einstimmung mit dem menschlichen Gefühl gewollt wird."[34]

 

 POSTMODERNE BEGRÜNDUNGSKRITIK 

 Sie  geht zurück zur ersten, vor-säkularen Begründung: die religiöse Moralbegründung ist für sie  die eigentliche – und einzig ehrliche. Wenn sie nicht mehr gilt, und natürlich geht die Postmoderne davon aus, sind alle anderen Versuche Ersatz, Metaphysik, ein hoffnungsloses Verlangen, die Einheit von Vernunft und Mythos, Denken und Fühlen, Begriff und Empfindung zu bewahren, bzw. wiederzubeleben. Aber diese Einheit ist endgültig verloren. Eine normative Begründung von Moral diesseits der jenseitigen erscheint der Postmodernen hoffnungslos. Ihren radikalen Skeptizismus entfaltet sie in folgenden Schritten: [11]

 1. Der Mensch ist ein moralisch ambivalentes Wesen. Diese Ambivalenz ist unaufhebbar, alle Versuche, den moralisch besseren Menschen zu erziehen, münden in Gesinnungsdiktatur, Tugendterror und Grausamkeit. Es gibt keine Garantie für Moralität, wer sie dennoch  erstrebt, verschlimmert nur die Lage.

2. Moral ist "inhärent nicht-rational" [12]. Sie zeigt sich weder aus utilitaristischem Kalkül, folgt keinen Zweck- und Nützlichkeitserwägungen, noch ist sie Prinzipien- oder Maximen-geleitet. Nicht aus Lust, noch aus Pflicht handeln wir moralisch, sondern aus spontanem Impuls. Das autonome moralische Gewissen  ist nicht einklagbar, mal schlägt es, mal schweigt es.

3. Ethik irritiert nur die Moral. Sie nutzt den spontanen moralischen Impuls für ihre Steuerungsabsichten, will ihn zügeln, zähmen, dirigieren – und zerstört ihn dadurch. Sie verschiebt  Moral aus dem Bereich persönlicher Autonomie in machtgestützte Heteronomie, sie will erlernbare Regeln, ethisches Wissen an die Stelle subjektiver moralischer Verantwortung setzen und sieht nicht, dass Moral das Chaotische ist, inmitten einer rationalen Ordnung.

4. Moral ist aporetisch. Die Folgen moralischer Handlungen sind fast stets uneindeutig, widersprüchlich. Selten sind moralische Handlungen eindeutig gut, meist hingegen ein Abwägen im Konfliktfall, was negative Folgen einschließt. Daher auch unsere Unsicherheit, wenn wir moralisch handeln. So kann etwa selbst vermeintlich so eindeutig Gutes, wie Hilfsbereitschaft  in Abhängigkeit und Beherrschung des Hilfesuchenden umschlagen.

5. Moral ist nicht universalisierbar. Das heißt nicht, dass sie vollkommen relativ, beliebig ist, wohl aber stülpt der Universalismus in seiner bekannten Form einen ethischen Code über alle, versucht die moralische Gleichschaltung, die Verallgemeinerung einer einzigen, westlichen Moral – und erreicht damit doch nur ein Verstummen der "wilden, autonomen, widerspenstigen, unkontrollierten Ursprünge moralischer Urteilskraft." [13]  Indes, ein konsequenter Relativismus, der die Gleich-Gültigkeit kulturspezifischer Moralen, ja, lokalen Brauchtums propagiert, ist nicht die Alternative zum europäisch-rationalistischen Universalismus; da die Vielfalt an Moralen sich widersprechen, gar neutralisieren können, führt er letztlich in die moralische Beliebigkeit.

6. Moral ist also nicht relativ. Dies sind nur die verschiedenen ethischen Codes, die versuchen, echte, spontane, natürliche Moralität durch ihre vorgefassten Normen und Regeln zu ersetzen. Die Moral selbst ist autonom, die heteronomen Ethiken sind es, die die Utopie eines befreiten, moralisch-autonomen Subjekts verhindern.

7. Moral ist nicht begründbar. Vielmehr geht sie allen Begründungsversuchen voraus, steht auch gar nicht unter Begründungszwang. Sie geschieht einfach – oder nicht – ex nihilo. Auch erfordert sie keine Überwindung, kein Absehen vom Eigensinn, keinen Widerspruch zur menschlichen Natur, kein kaltes Kalkül. Sie ist da.

8. Moralität ist das Erwachen der Verantwortung für den Anderen. Erst im Blick des Anderen erkenne ich mich selbst ganz, und damit zugleich als moralisches Selbst. Die wahre Autonomie, als Abgrenzung vom Anderen, ist nur durch die Hinwendung zu einem konkreten Anderen möglich. Zigmunt Bauman:

"Ich bin ich, insoweit ich für den anderen bin. [...] Verantwortung, die übernommen wird, als ob sie immer schon da war, ist die einzige Begründung, welche die Moral haben kann."  [14]

Hier scheint die Utopie einer vollendeten Selbst-Findung des Menschen durch Hinwendung zum anderen auf: Mein 'wahres' Selbst wird erst in vollkommener "Selbstlosigkeit" (Lévinas) zu finden sein. – Allerdings nur, wenn ich es suche. Jede intersubjektive Verbindlichkeit, jeder von außen vorgetragene Geltungsanspruch über das persönliche Bedürfnis, Verantwortung für den anderen zu übernehmen, hinaus, ist so verschwunden.

Auch dieser extreme Skeptizismus der Postmodernen  gegenüber jeglichem Begründungsversuch von Moral bleibt natürlich äußerst  fragwürdig.  Zu fragen wäre etwa:

1. Beruht die Faszination  der Postmodernen nicht nur darauf, dass sie den Zeitgeist moderner Dienstleistungsgesellschaften und das Lebensgefühl des hedonistischen Teils deren Bildungsbürgertums genau trifft und spiegelt, deren politische und ästhetische Präferenzen formuliert und ein illusions-, prinzipien- und orientierungsloses Dasein philosophisch legitimiert und überhöht? Stellt sie mithin nur eine willkommene Modeerscheinung ohne Anspruch auf dauerhafte Einsichten dar, eine bequeme Philosophie für "Bobos" – bourgeoise Bohèmiens?

  2. Ist das, was die Postmoderne als soziale und ideologische Basis für ihre philosophischen Ableitungen reklamiert  - multikulturelle und –morale, offene und plurale Gesellschaften, die zu keinerlei Einheit mehr finden können – letztlich nicht nur eine "neue Unübersichtlichkeit" (Habermas) die mit Hilfe ordnender Vernunft, klarer Begriffe und aufklärerischer Gesinnung sich wieder in neue, höhere Ordnung und Einheit auflösen ließe?

 3. Bleibt die Forderung nach einer "Hinwendung zum Anderen", die Idee, dass erst in der Selbst-Losigkeit das Selbst gefunden werden kann, nicht letztlich eine religiös fundierte  Utopie, der die bescheidenere Forderung nach einer "Einbeziehung des Anderen" (Habermas) in unser Denken und Handeln, z.B. durch einen freien, auf Konsens gerichteten Diskurs,  entgegen gehalten werden kann?

 4.  Ist das Bestreiten universalen Geltungsanspruchs von Moral, insbesondere die Kritik an europäischer Menschenrechtstradition nicht zum einen leichtfertig, da sie als Plazet zu moralischer Unverbindlichkeit  und Beliebigkeit  (miss)verstanden werden kann, die schließlich jeden und alles moralisch rechtfertigt, zum anderen gefährlich in einer Zeit, in der das Selbstverständnis des Menschen durch Genforschung, Medizin und Mikroelektronik permanent in Frage gestellt wird und daher  das Bedürfnis nach moralischen Gewissheiten groß ist, wie selten? 

 5. Hat die Ethik der Moral wirklich die Unschuld geraubt, sie mit schlangenhafter Vernünftelei aus dem Paradies der Spontaneität gelockt, in das unter noch so großer Anstrengung der Begriffe und Appelle kein Weg zurück führt – oder ist Moralität nicht doch erwerbbar, einsichtig, ein Lernprozess bei Mensch und Menschheit?

 6.  Kann das Florett der Vernunftkritik das Schwert der kritischen Vernunft wirklich ersetzen?

 Wäre der postmoderne Radikal-Skeptizismus berechtigt, dann ließe sich Moral, es sei denn krypto-religiös, überhaupt nicht mehr begründen. Und dann wäre jeder intersubjektive Geltungsanspruch von Moral hinfällig – womit wir wieder am Anfang wären.

 

ANMERKUNGEN


[1] Cicero, De officiis, III, 37

[2] H.A. Prichard, Beruht die Moralphilosophie auf einem Irrtum? in: Seminar: Sprache und Ethik. Zur Entwicklung der Metaethik, hrsg. von G. Grewendorf, G. Meggle, Frankfurt/M. 1974, S. 83-99.

[3] Kurt Bayertz, Hg, Warum moralisch sein? Paderborn 2002, S. 19.

[4] Christoph Fehige, Soll ich?, Stuttgart 2004, S. 199.

[5] "Der Mensch strebt nicht nach Glück; nur der Engländer thut das" in: Götzendämmerung, Sprüche und Pfeile 12, KSA, Bd. 6.

[6] Vgl: Richard M. Hare, Moralisches Denken: seine Ebenen, seine Methode, sein Witz, Frankfurt/M. 1992, S. 260ff.

[7] Vgl. Bernard Gert, Warum soll ich moralisch sein? in: K. Bayertz, Hg., a.a.O. S. 247-271, hier: S. 265 ff.

[8] Axel Honneth, Kampf um Anerkennung, Frankfurt/M. 1994 und: Ders., Das Andere der Gerechtigkeit, Frankfurt/M. 2000, S. 171-192: Skizze einer Moral der Anerkennung.

[9] Richard Sennett, Respekt im Zeitalter der Ungleichheit, Berlin 2002.

[10] Emmanuel Lévinas, Humanismus des anderen Menschen, übersetzt und mit Einleitung versehen von L. Wenzler, Hamburg 1989.

[11] Martha Nussbaum, Gerechtigkeit oder das gute Leben, Frankfurt/M. 1999, S. 200 ff.

[12] Axel Honneth, Das Andere der Gerechtigkeit, Frankfurt/M. 2000. S. 171 ff.

[13] Michael Walzer, Sphären der Gerechtigkeit, Frankfurt/M. 1996.

[14] Ernst Tugendhat, Das Problem einer autonomen Moral, in: Ernst Tugendhats Ethik, hrsgg. von N. Scarano und M. Suárez, München 2006, S. 20.

[15] Francis Hutcheson, Über den Ursprung unserer Iden von Schönheit und Tugend, Hamburg 1986, S. 71.

[16] John Stuart Mill, Der Utilitarismus, Stuttgart 1986, S. 66.

[17] Hans Krämer, Integrative Ethik, Frankfurt/Main, S. 44.

[18] Vgl. Dieter Henrich, Die Deduktion des Sittengesetzes. Über die Gründe der Dunkelheit des letzten Abschnitts von Kants 'Grundlegung zur Metaphysik der Sitten', in: A. Schwan, Hg., Denken im Schatten des Nihilismus, Darmstadt 1975, S. 55-112.

[19] Vgl. Hans Krämer, Integrative Ethik, Frankfurt a. M. S. 12-18.

[20] Arthur Schopenhauer, Metaphysik der Sitten, München 1985, S. 222.

[21] Konrad Ott, Moralbegründungen, Hamburg 2001, S. 93.

[22] Harald Schmitz, was wollte Kant?   zit. nach: O. Höffe, Kants Kritik der reinen Vernunft, München 2003,   S. 298.

[23] GMS BA 61

[24] Zu einer versöhnlicheren Deutung dieses Widerspruchs vgl. C. Sommerfeld-Lethen, Wie moralisch werden?, München 2005, S. 237 ff.

[25] David Hume, Eine Untersuchung über die Prinzipien der Moral, Hamburg  2003, S. 132.

[26] Max Scheler, Grammatik der Gefühle, München 2000, S. 155.

[27] Vgl. etwa: Carol Gilligan, Die andere Stimme, München 1989³; Axel Honneth, Das Andere der Gerechtigkeit,  

      Frankfurt/Main 2000.

[28] Christoph Fehige, Soll ich? Stuttgart 2004, S. 37 ff.

[29] Ebd. S. 210 ff.

[30] Vgl. etwa: Joachim Bauer, Warum ich fühle, was Du fühlst, Hamburg 2005.

[31] David Hume, Eine Untersuchung über die Prinzipien der Moral, a.a.O. S. 133.

[32] Akademieausgabe (AA) Bd. XXVII, S. 1422

[33] David Hume, Eine Untersuchung…a.a.O. S. 133.

[34] Ebd. 

Klaus Goergen

 

TEILEN ODER HELFEN?

Zum Streit um die richtige Gerechtigkeit   (2006)

(Aus: K. G. Zugänge zur Ethik. Berlin 2010. S. 85-103)

 

Justice not Charity“

 (Motto des Life 8-Festivals, 2005)

 

Die Forderung nach Gerechtigkeit ist die erste ethische Forderung. Sie ist der Leitwert der Moderne und, neben der Freiheit, die zentrale Legitimationsbasis demokratischer Gesellschaften. Schon Aristoteles preist sie in höchsten Tönen. Gerechtigkeit gilt ihm „für die vorzüglichste unter den Tugenden, für eine Tugend so wunderbar schön, dass nicht der Abend- und nicht der Morgenstern gleich ihr erglänzt…“[1] 

Die Bestimmung dessen, was Gerechtigkeit heißt, ist dabei für ihn ganz unmöglich ohne die Idee der Gleichheit – auch wenn seine berühmte Parole, wonach  gerechterweise  „jedem das Seine“[2] zustehe, das nicht sofort vermuten lässt. Tatsächlich heißt aber „jedem das Seine“ für Aristoteles: Gleichen Gleiches und nicht Gleichen nicht Gleiches.  Noch in  der Negation also geht es nicht ohne einen Bezug zur Gleichheitsidee.

Dass Gerechtigkeit ohne einen Bezug zur Gleichheit nicht bestimmbar ist, das galt im ethischen Diskurs als ausgemacht, bis vor wenigen Jahren. Das Spektrum reichte zwar von strengen Egalitaristen, für die Gleichheit nicht nur der Königsweg der Gerechtigkeit ist, sondern auch das Königsziel, bis zu jenen Liberalen, die Gerechtigkeit bereits in einer rechtsförmig garantierten Chancengleichheit eingelöst sehen, aber auch sie kommen ohne eine Referenz auf Gleichheit nicht aus, selbst wenn sie sie als Ergebnisgleichheit im Wettlauf um knappe Güter verwerfen oder die Freiheit als vermeintlich  übergeordneten Wert gegen sie ins Feld führen.

Was die iustitia distributiva, die Verteilungsgerechtigkeit, anbelangt, lautete die Frage für alle Gerechtigkeitstheoretiker: Welche realen Ungleichheiten unter den Menschen müssen kompensiert werden, damit die Verteilung gerecht ist? Für die reinen Egalitaristen, von Rousseau bis Thomas Nagel gehörten dazu auch alle unverschuldeten individuellen handycaps, selbst die naturgegebenen Unterschiede in körperlicher und geistiger Ausstattung. Wer zu dick ist oder schwerer lernt, dem wird geholfen.  Für die liberalen Egalitaristen, von Locke über Rawls bis Dworkin, gehörten dazu nur jene unverschuldeten sozialen handycaps, bei denen absehbar ist, dass sie die Chancengleichheit verhindern, wenn sie nicht kompensiert werden. Wenn in Deutschland trotz formalrechtlich gleicher Bildungschancen für alle nach 50 Jahren immer noch nur 11 % der Arbeiterkinder aber 81% der Akademikerkinder studieren[3], dann reicht der formal gleiche Bildungszugang offenbar nicht aus. Wenn global  trotz Abschaffung der allermeisten formalen Handelshemmnisse immer noch der afrikanische Anteil am Welthandel  minimal  ist und weiter sinkt, dann reicht der freie Weltmarkt offenbar nicht aus.

 Für die reinen Liberalen, von Hayek bis Nozick, reicht es aus. Sie beharren auf Gleichheit nur im Formalen und Rechtlichen beim Einzelnen und wollen nur Diskriminierung aufgrund von Rasse, Geschlecht und Nation verboten sehen. Gleicher Lohn für Mann und Frau, gleicher Lohn für Deutsche und Türken, alles Weitere regelt der Markt.

Abgesehen von dieser  radikal-liberalen Position, die im ethischen Gerechtigkeitsdiskurs bislang kaum eine Rolle spielte, weil sie weniger ethisch als ökonomisch argumentierte, blieb der  Bezugspunkt der Gerechtigkeit in allen Theorien die Gleichheit. Die Theorien unterscheiden sich  darin, welche Abweichungen vom strikten Gleichheitsprinzip  ethisch begründbar sind, damit die Verteilung von Gütern noch als gerecht gelten kann.

Unter dem Druck der Globalisierung ist dieser  Konsens nun aufgekündigt. Die verschärften internationalen und nationalen Verteilungskämpfe und die Umkehrung des Primats der Politik über die Ökonomie zur Herrschaft und Meinungsführerschaft der Ökonomie über die Politik  führen zu einer  Ökonomisierung aller Lebensverhältnisse und Denkmuster, die auch vor dem ethischen Diskurs um Gerechtigkeit nicht Halt machen. Wenn aber die Gedanken der Herrschenden die herrschenden Gedanken sind, dann ist die Preisgabe des Gleichheits-anspruchs  in der philosophischen Theorie der Ausfluss der Preisgabe des Sozialstaats in der politischen Praxis.

Wir lesen bei der Philosophin Angelika Krebs, dass „die Angleichung der Lebenschancen der Menschen kein Ziel  der Gerechtigkeit (sei), sondern eine Ausgeburt des Neids […] Wer hungert oder schwer krank ist, hat einen moralischen Anspruch auf Unterstützung, nicht weil es anderen unverdientermaßen besser geht als ihm, sondern weil es ihm schlecht geht und Punkt.“[4] Otfried Höffe ergänzt, der Sozialstaat habe lediglich die Aufgabe „dafür zu sorgen, dass Menschen keinen Hunger leiden und nicht frieren müssen.“[5] Und der katholische Moralphilosoph Gerhard Kruip fragt: „[…] ist Gleichheit an sich ein Wert hinsichtlich der Verteilung materieller Güter? Dann müsste es am gerechtesten sein, wenn alle gar nichts hätten […] Hat jemand den berechtigten Anspruch, etwas zu besitzen, nur weil ein anderer oder viele es auch besitzen? Wohl nein.“ [6] Und wir hören vom deutschen Wirtschaftsminister Clement: „Die Erwirtschaftung des Wohlstands kommt vor seiner Verteilung […] Gerechtigkeit ist kein Lazarettwagen für Schwache.“[7]

Die Philosophen adeln, was die Politik an Sozialabbau betreibt. Von Ernst Tugendhat stammt das anschauliche Beispiel zur Begründung eines intrinsischen Bedürfnisses nach Gleichheit.[8]  Sollen vier Kinder einen Kuchen gerecht unter sich verteilen, so werden sie ihn in vier gleich große Stücke schneiden.  Wenn nun aber  der zu verteilende Wohlstands-Kuchen kleiner wird, dann sucht man nach Gründen, ihn nicht mehr gleich verteilen zu müssen.

Ich will im Folgenden versuchen, die Kritik des Non-Egalitarismus am Gleichheitspostulat nachzuzeichnen und dabei  andeuten, welche praktischen Konsequenzen diese Kritik für die nationalen und internationalen  Verhältnisse zeitigt (1.)  und dann den Non-Egalitarismus aus der Perspektive des gemäßigten Egalitarismus kritisieren (2.).

 

(1.)

 

Die Kritik der Gleichheit beginnt mit einer Relativierung der Gerechtigkeit im Namen des Glücks. Gegen den Gerechtigkeitstheoretiker Aristoteles wird der Glücksethiker Aristoteles beschworen, für den die eudaimonia das „Allerbegehrenswerteste ist […] das Endziel allen Handelns.“[9]  Gerechtigkeit aber, so die Argumentation, ist nur ein Verteilungsmodus  unter anderen.[10] Auch die Natur verteilt oder das Schicksal, und sie verteilen nicht gerecht, sondern nach Zufall oder Willkür. Und selbst die Menschen, die allein gerecht verteilen können, tun das beileibe nicht immer, sondern sie verteilen auch nach Sympathie, nach Nutzenerwägungen, auch nach Zufall. Was hier aber im Einzelnen an begehrten Gütern verteilt wird, das trägt alles zu unserem Glück bei: der IQ von 140 und die Schönheit, die die Natur willkürlich zuteilt, der Lottogewinn und die liebevollen Eltern, die das Schicksal zufällig verteilt, die hohe Erbschaft und das üppige Geschenk, die mir aus Sympathie oder Kalkül zufließen ebenso wie mein Einkommen oder meine Rente, die ich nach Gerechtigkeitsgrundsätzen erhalte. Nur einen geringen Teil dessen also, was mir zukommt und mein Glück mehrt, erhalte ich gerechtigkeitshalber. Ja, es mag sein, dass alles, was ich gerechterweise bekomme, mich dennoch im Unglück lässt, wenn es die Natur und das Schicksal, zufällig und willkürlich, nicht gut mit mir meinen. Ja, es mag sein, dass eine noch so ungerechte Verteilung meinem Glück nichts anhaben kann, wenn es Natur und Schicksal besonders gut mit mir meinen.

Von einer solchen Logik aus ist es nun allerdings nicht weit zum zynischen Lob der Armut und zur Klage über das Unglück der Reichen.  Die Glücksstatistiker liefern dazu die empirischen Belege: In Bangladesch sind die Menschen so glücklich wie in Holland, die amerikanischen Millionäre sind unglücklicher als der Durchschnittsamerikaner.[11]

Der Fehler dieser Relativierung ist ein dreifacher: Gerechtigkeit ist zum ersten,  eben weil sie nur von Menschen praktiziert werden kann, nicht gegen Natur und Zufall zu verrechnen.  Wir können nur ein Höchstmaß an Gerechtigkeit anstreben, in der Überzeugung, damit die Bedingungen für ein besseres Leben optimiert zu haben, der Rest bleibt kontingent und nicht in unserer Verantwortung. Wer aber der Gerechtigkeitsforderung  dergestalt die appellative Spitze brechen will, der eskamotiert die Verantwortung für  reale Ungerechtigkeiten.

Gerechtigkeit ist zum zweiten mehr als ein Verteilungsmodus, nämlich eine ethische Grundorientierung, die im Distributiven nicht aufgeht, sondern gerecht muss es bereits bei der Produktion des zu Verteilenden zugehen und auch bei der Komsumtion.[12]

Gerechtigkeit ist zum dritten nicht gegen das Glück auszuspielen, sie  bemisst sich nicht  nach ihrer Glückstauglichkeit, vielmehr gehören Glück und Gerechtigkeit  zu unterschiedlichen Kategorien. Glück ist ein empirisches Ziel, nur aus der Erfahrung zu bestimmen und leider gibt es keine Garantie für die Wahl der rechten Mittel. Schon Kant weist darauf hin, dass man „nicht nach bestimmten Principien handeln (kann), um glücklich zu sein“. Wünscht jemand zum Beispiel „ein langes Leben, wer steht ihm dafür, dass es nicht ein langes Elend sein würde.“[13] Gerechtigkeit hingegen ist ein Prinzip und kann nur a priori bestimmt werden. Ratschläge zum Glück nehme ich gerne an, Ratschläge zur Gerechtigkeit  gibt es nicht.

 

Aber die Relativierung der Gerechtigkeit ist nur der erste Schritt zur Kritik der Gleichheit. Die aktuelle Egalitarismuskritik geht weiter, sie entkoppelt die Gerechtigkeit völlig von der Gleichheit,  bestreitet, dass Gleichheit überhaupt ein richtiger Maßstab oder ein sinnvolles Prinzip der Gerechtigkeit sei. International stehen für diese neue, radikale Kritik des Egalitarismus Harry Frankfurt, Elisabeth Anderson und, mit Einschränkung, Michael Walzer, Martha Nussbaum und Avishai Margalit, in Deutschland Wolfgang Kersting, seit seiner liberalen Wendung, Angelika Krebs und, mit Einschränkung, Axel Honneth.[14]

Schon diese Namen machen deutlich, es geht hier weniger um eine rückwärtsgewandte, wirtschaftsliberale Kritik, die hinter jeder Gleichheitsforderung sozialistische Ideologie wittert. Die meisten der neuen Non-Egalitaristen verstehen sich durchaus als fortschrittliche, humanistisch und sozial argumentierende Denker. Angelika Krebs beeilt sich denn auch zu betonen, man könne die Non-Egalitaristen „beim besten Willen nicht als hoffnungslos konservativ abtun…“[15] Julius Nida Rümelin sieht das allerdings kritischer. Für ihn sind die neuen Non-Egalitaristen: „…das Trojanische Pferd, das den humanistischen Kern einer Kantisch verstandenen europäischen Demokratie brechen soll. Die so unkriegerische äußere Gestalt dieses Pferdes ist verführerisch, sie lässt freundliche Vereinnahmung und keine Zerstörung erwarten.“[16]

Wie lauten nun die Argumente?  Man kann  unterscheiden ein perspektivisches, anthropologisches, normatives, humanitäres und  pragmatisches  Argument.

a.) Das perspektivische Argument ist das zentrale, es  behauptet, die Egalitaristen betrachteten Gerechtigkeit aus der falschen Perspektive, sie  verwechselten Gleichheit mit Allgemeinheit.[17] Fordere man in Wirklichkeit gerechterweise für jeden einzelnen Bürger einen absoluten Sockel an Notwendigem für ein menschenwürdiges Leben, so behaupteten die Egalitaristen, es gehe um eine Gleichverteilung von Gütern. Sie verwechselten die „Forderung nach dem Genug für alle mit Forderungen nach dem Gleichviel wie die anderen für alle.“[18] Das aber sei ethisch nicht plausibel und nicht gerecht. Dieses Argument wird nun anthropologisch und normativ gestützt.

b.) Das anthropologische Argument verweist darauf, dass Menschen in Wahrheit gar nicht an Gleichheit gelegen sei, im Gegenteil sie suchten sich zu unterscheiden, wo immer möglich, von den Grundbedürfnissen  - Kleidung, Nahrung, Wohnung – bis zu den  Kulturbedürfnissen: Wer hat das originellste Hobby oder Reiseziel, wer den originellsten Schreibstil? Die egalitaristische Behauptung eines intrinsischen Gleichheitsbedürfnisses der Menschen sei also anthropologisch verfehlt, die Differenz zum anderen sei nachgerade ein wesentlicher Antrieb menschlichen Handelns und  Quellpunkt seiner Identität. In dieser Perspektive ist es ethisch gesehen viel bedeutsamer, Toleranz einzufordern, damit der einzelne seine Differenz leben kann,[19] als Gleichheit zu fordern, die ohnehin niemand wirklich wolle.

c.) Das normative Argument setzt nun explizit die Suffizienz gegen die Gleichheit als Maßstab der Gerechtigkeit. Gerechtigkeit sei absolut zu bestimmen, als das, was genügt, und nicht relational, als mein Anteil.[20] Denn letztlich sei die Basis der Gerechtigkeit die unhintergehbare, absolute Menschenwürde. Statt einer wie immer rechnerisch zu bestimmenden Proportionalität in der Verteilung, die immer nach dem anderen schielt und unterstellt, Menschen fühlten sich erst dann gerecht behandelt, wenn sie im Verhältnis zum Anderen gut abschnitten, statt dieser beckmesserischen Gerechtigkeit gehe es den Menschen in Wirklichkeit nur darum, ihre Bedürfnisse befriedigt zu sehen, ganz unabhängig davon, was der andere hat. Was nun diese Bedürfnisse des Menschen ausmacht, dazu haben die Non-Egalitaristen längere und kürzere Listen erstellt, in denen all das aufgeführt wird, was an Absolutem garantiert sein muss, damit es gerecht zugeht.  Die längste Liste stammt von Martha Nussbaum.[21] Ihre Liste an Fähigkeiten ist der Versuch, das inhaltlich zu fassen, was einerseits ein gutes Leben ausmacht und andererseits gerecht ist, genauer: weil es ein gutes Leben ermöglicht, wenn den Menschen diese und jene Fähigkeiten zugestanden werden, deshalb sei  es gerecht. 

d.) Das humanitäre Argument enthält den moralisch schärfsten Angriff auf den Egalitarismus, weil es ihm unterstellt, in bestimmten Situationen inhuman zu denken.[22] Der Egalitarismus geht davon aus, dass unverschuldete Nachteile kompensiert werden müssen – aber was ist mit den verschuldeten? Wer selbst Schuld trägt an seiner misslichen Lage: weil er ständig unpünktlich war, und nun entlassen wird, weil er sein Geld verprasst hat und nun zahlungsunfähig ist, oder international: wer zur armen Welt gehört, weil sein Land korrupt ist, die Einwohner träge sind oder eine bequeme Bettlermentalität entwickelt haben, dem werde nach egalitaristischen Prinzipien nicht geholfen, selbst wenn er im moralischen Sinn durchaus hilfsbedürftig sein mag. Non-Egalitaristen erneuern hier den alten, christlichen Vorwurf der Rigidität   und Unbarmherzigkeit an die Gleichheitstheoretiker, die so akribisch rechnen und nicht – aus Güte und Milde – ein Auge zudrücken. Wer strikte Gleichbehandlung fordere, bleibe kalt für die Nöte just jener, die der Hilfe und des Mitgefühls besonders bedürften. Hätte der barmherzige Samariter, so Wolfgang Kersting „nur das getan, was er schuldig war, wäre er nicht zum Helden eines moralisch lehrreichen Gleichnisses geworden.“[23]

e.) Auch das pragmatische Argument ist nicht neu.  Robert Nozick verwies schon in den 70er Jahren darauf, dass praktisch eine Besitzverteilung existiert, die so komplex ist, dass sie unmöglich mit einer schlichten Gleichheitsforderung angemessen zu bewerten ist, da:  „einige Menschen ihr Grenzprodukt erhalten, andere Gewinne aus Glücksspielen, einen Teil des Einkommens ihres Ehepartners, Stipendien von Stiftungen, Zinsen für ausgeliehenes Geld, Zuwendungen von Bewunderern, Erträge aus Investitionen, selbst hergestellte Güter, Fundsachen usw.“[24]

Tatsächlich fordert unser Gerechtigkeitsempfinden häufig Ungleichheit, um eine gerechte Verteilung zu sichern. Im Falle der Steuern sogar eine doppelte: Nicht nur zahlen wir nicht alle gleich viel Steuern – sie werden ja prozentual vom Einkommen erhoben und belasten somit ungleich, vielmehr steigern wir diese Prozente noch progressiv, entlasten und belasten damit also doppelt ungleich. Erst diese doppelte Ungleichheit empfinden wir (zumindest noch) als gerecht.

Auch machen allgemein  anerkannte Maßstäbe der Verteilung, wie Leistung, Qualifikation, Verantwortung, Stress und Risiko im Beruf Gerechtigkeit so komplex, dass es insgesamt naiv und illusorisch wäre zu glauben, mit Bezug auf nur  einen Maßstab – die Gleichheit – könne all dass angemessen gewichtet werden. Das pragmatische Argument der Non-Egalitaristen zieht aus all dem den Schluss: Angesichts der Kontingenz menschlichen Lebens ist Gleichheit ohnehin nie so zu realisieren, dass sie zu gerechten Verhältnissen führt. Wir können sie daher als Maßstab für Gerechtigkeit getrost entbehren.

 Die Verbindung zwischen dieser theoretischen Preisgabe des Gleichheitsgedankens und der politischen und ökonomischen Praxis liefert das Gesellschaftsbild, das hinter dem Non-Egalitarismus steht. Die Gesellschaft erscheint ihm nicht als ein pluralistisches System konkurrierender Interessengruppen oder als Summe von Staatsbürgern, die sich als Rechtssubjekte mit einklagbaren Ansprüchen verstehen, vielmehr als  Gemeinschaft von Bedürftigen und Hilfsbereiten, von Menschen, die nach Anerkennung streben und  ihre Identität suchen. Nach Michael Walzer sind die Menschen in dieser Gemeinschaft verbunden über „dünne“ und „dichte“ Loyalitäten[25], die sie unterschiedlich stark moralisch verpflichten,  nach Wolfgang Kersting über zwischenmenschliche Solidarität und „Gütigkeit“, die sich an  Bedürftigkeit bemisst[26], nach Martha Nussbaum über ihre erstrebten Fähigkeiten und Glücksbedürfnisse[27] und nach Axel Honneth über ihre Wünsche nach gegenseitiger Anerkennung.[28]

Wo in dieser Weise aus einem Sozial- und Rechtsstaat, der an gleichen Ansprüchen orientiert ist, eine an Grundbedürfnissen und Suffizienz orientierte Gemeinschaft wird, da ist es nicht weit zur Legitimation dessen, was national und international an Einbrüchen im Rechts- und Sozialsystem zu beobachten ist.

Dazu passt dann, im nationalen Kontext, die Diskussion um eine Grundsicherung in der Renten- und Krankenversicherung, die nur das Notwendigste vorschreibt; dazu passen Kürzungen und Verschärfungen der Arbeitslosenversicherung,   die Abschläge bei Nacht- und Schichtarbeit, bei Kuren und Zahnersatz, bei der Lohnfortzahlung im Krankheitsfall, die Zuschläge bei Rezept- und Studiengebühren, die Abschaffung der Steuerprogression, verschämt „flat tax“ genannt.

 Am deutlichsten erkennt man die neue Denkungsart, die sich an Suffizienz, und nicht mehr an proportionaler Gleichheit orientiert,  an den Hartz-IV-Gesetzen. Bisher wurde die Arbeitslosenhilfe relational zum letzten Nettoeinkommen berechnet. Wer mehr verdiente, und damit auch mehr an Arbeitslosenversicherung zahlte, erhielt auch mehr. Jetzt wird die Unterstützung am Fixbetrag der Sozialhilfe gemessen, also absolut gewährt.

 Wenn Gleichheit kein Maßstab mehr ist, dann müssen auch Manager- und Vorstandsgehälter nicht aufgedeckt werden, dann ist auch nichts anrüchig an Millionengehältern und  Millionenabfindungen. Dann gibt es keine relative Armut mehr – weil die Relation ja keine Rolle spielt – sondern nur noch absolute Armut, der mit Mildtätigkeit begegnet wird. Ist die Idee einer Kompensation von Ungleichheit aufgegeben, dann gibt es im Prinzip kein Halten mehr, bis nur noch das gesellschaftlich geregelt ist, was zum Überleben notwendig ist.

Andere Länder sind schon weiter auf dem Weg der Privatisierung von sozialem Ausgleich oder, wie es bei Kersting heißt, beim Wandel von der abstrakten zur konkreten Solidar-gemeinschaft.[29] Die amerikanischen Staatsuniversitäten finanzieren sich immer weniger über Steuern und mehr über Spenden von Ehemaligen; das staatliche Schulsystem wird von den Grundsteuern bezahlt,  die lokal erhoben und lokal verteilt werden. Das hat zur Folge: wo die Reichen wohnen, fallen sehr hohe Steuern an und entsprechend viel kann für Schulen ausgegeben werden, wo die Armen wohnen, zerfallen die Schulen; und wenn Amerikas bekannteste Journalistin, Oprah Winfrey, die schlimmen Lebensverhältnisse der 37 Millionen Amerikaner unter der Armutsgrenze in einer TV-Serie vorführt, dann endet ihr Beitrag mit einem Spendenaufruf für die Armen und dem Hinweis, sie selbst habe 10 Mio. Dollar gespendet.  Man kann diese Praxis loben, weil sie Solidarität konkret erlebbar macht oder man kann sie kritisieren im Namen eines Rechtsanspruchs auf Gleichheit.

 

Im internationalen Kontext impliziert der Non-Egalitarismus eine veränderte Sicht auf die Ursachen und die angemessenen Strategien zur Überwindung von Unterentwicklung.

Als Schuldige an der Misere der armen Länder gelten nicht länger das historische Erbe von Kolonialismus und Imperialismus, das die Startchancen im Wettkampf des Weltmarkts für die armen Länder verschlechtert, nicht die ungleichen Handelsbeziehungen zwischen erster und dritter Welt, nicht die ungleichen Kreditkonditionen, nicht der ungleiche Schuldendruck, nicht die ungleichen Re-Investitionsquoten ausländischer Konzerne auch nicht die völlig ungleiche bargaining power in Verhandlungen mit der ersten Welt – sondern als Schuldige werden die internen Verhältnisse in den armen Ländern selbst ausgemacht. Die Liste der Vorwürfe ist lang, der Entwicklungstheoretiker Ulrich Menzel zählt auf: „Despotismus, Bürokratismus, Feudalismus, Korruption und Prestigedenken, Tribalismus, Ethnozentrismus, Rassismus und Nationalismus, Ignoranz und Arroganz, religiöses Phlegma und religiöser Fanatismus (als) Faktoren, die allesamt ihren Beitrag zur anhaltenden Unterentwicklung leisten“.[30]

Kurz, die Armen sind selbst schuld an ihrer Armut. Aber die Relation zur ersten Welt fehlt nicht nur bei der Diagnose der Ursachen, sie fehlt noch deutlicher in der Strategiediskussion zur Überwindung von Unterentwicklung. Von einer „Neuen Weltwirtschaftsordnung“, mit fairen Handelsbeziehungen zur ersten Welt, wie sie 1976 auf der 4. UNCTAD-Konferenz ins Auge gefasst wurde, ist keine Rede mehr; eine autozentrierte Entwicklung hinter einem Schutzwall von Importzöllen mit selektiver Kooperation im Weltmarkt[31] gilt heute als Todsünde. Wenn es nicht mehr darum geht, die Armut der Dritten Welt am Wohlstand der ersten zu messen, wenn aus dem internationalen Wohlstandsgefälle kein moralischer Imperativ mehr folgt, weil ein Gefälle unter dem Gerechtigkeitsaspekt belanglos ist, dann kann die Strategie zur Überwindung von Unterentwicklung nur Selbsthilfe heißen.

 Für Kersting etwa ist die Gerechtigkeit international nur durch globale „Mängellagen und Notsituationen und nicht durch ein Verteilungsgefälle“[32] gefordert. Und daher gehe es bei globaler Gerechtigkeit auch nur um „ein reaktives Handeln, das durch lebensbedrohliche Versorgungsmängel auf den Plan gerufen wird.“[33] Diese Begrenzung globaler Gerechtigkeit auf Katastrophenhilfe wird damit begründet, dass wir global  nicht in einer Kooperations-gemeinschaft lebten, in der wir uns aufgrund gegenseitiger Leistungen etwas schulden, sondern nur in einer Solidargemeinschaft,  die uns moralisch zur „Gütigkeit“[34] verpflichtet.

Doch wer so argumentiert, dem scheint entgangen zu sein, dass sein Kaffee in Uganda gepflückt wurde, seine Flugreise in Indien gebucht wird und sein Auto mit Öl aus Libyen fährt.  Was ist Globalisierung denn anderes als ein Prozess, der die ganze Welt zur Kooperationsgemeinschaft macht?

      Ursachen-Diagnose  und Strategie-Empfehlung  hängen   zusammen: Wenn die Ursachen in eigenen Fehlern liegen, dann ist die richtige Entwicklungsstrategie,  diese Fehler zu beseitigen. Die Bekämpfung von Korruption und Nepotismus, von Misswirtschaft und Despotismus wird dann zum vordringlichsten Entwicklungsziel erklärt. Und was  absolute Armut und  drohenden Hungertod betreffen, dafür gibt es mildtätige Nothilfe von den Wohlhabenden.

 Es ist auffällig, wie sehr die Argumentation im internationalen Rahmen  jener auf der  nationalen Ebene entspricht: Hier wie dort werden die Ursachen für Defizite, für Armut und Ausgrenzung bei den Betroffenen selbst gesucht; hier wie dort regiert das Ressentiment und lenkt den Diskurs über soziale Rechte in einen Missbrauchsdiskurs um: dem deutschen Florida-Rolf entspricht der afrikanische Staat, der seine Hilfsgelder für Prestigeprojekte missbraucht;  hier wie dort heißt das Allheilmittel: Eigenverantwortung.

Nun wären die Argumente der Non-Egalitaristen nicht so populär geworden, es wäre die Verunsicherung selbst der breiten Bevölkerung darüber, was man an sozialen Rechten und Absicherungen überhaupt noch laut einfordern darf, nicht so groß, wenn nicht, aufgrund der Globalisierung, die Konkurrenz auf den internationalen Waren-, Kapital-, Dienstleistungs- und Arbeitsmärkten sich rapide verschärft hätte. Das dadurch entstandene Klima  von Angst und Einschüchterung durch die neoliberale Dauerbefeuerung mit Appellen an Bescheidenheit, Leistungseifer und Effizienz bereiten den Boden für die Wirkung der non-egalitaristischen Botschaft.

(2.)

 Aber die Forderung nach Preisgabe der Gleichheit bleibt nicht unwidersprochen.

Jürgen Habermas hat in seiner Taxonomie der Grundrechte die sozialen Rechte aufgewertet, indem er sie als soziale Teilhaberechte qualifiziert und neben die politischen Teilhaberechte stellt.[35] Sie werden damit zum einen aus ihrem Schattendasein befreit, das sie gemeinhin hinter den bürgerlich-liberalen Freiheitsrechten und den Demokratie sichernden Rechten führen, sie werden zum anderen als Rechte gesehen, die unabdingbar sind, um an der sozialen Lebenswelt teilhaben zu können. Hier werden die sozialen Rechte ausdrücklich relational und nicht absolut bestimmt. Es geht nicht darum, genug zu haben, sondern am sozialen Leben teilhaben zu können. Soziale Teilhaberechte hängen nach Habermas mit den liberalen Freiheitsrechten insoweit zusammen, als sie die Lebensbedingungen garantieren müssen, die es jedem in gleicher Weise ermöglichen, die anderen Rechte wahrzunehmen. In seinen Worten sind es: „Grundrechte auf die Gewährung von Lebensbedingungen, die in dem Maße sozial, technisch und ökologisch gesichert sind, wie dies für eine chancengleiche Nutzung der […] bürgerlichen Rechte […] jeweils notwendig ist.“[36]

Konkret: Was nützt mir das liberale Freiheitsrecht auf Unverletzlichkeit der Wohnung, wenn ich obdachlos bin? Was nützt mir das Recht auf Pressefreiheit, wenn ich nicht lesen und schreiben kann? Was nützt das liberale Recht auf Freizügigkeit, wenn das Geld für den Urlaub fehlt?

Da zur Menschenwürde, die ja nach Auffassung der Gleichheitskritiker der absolute, nicht relationale Maßstab der Gerechtigkeit ist, eben auch die Fähigkeit zur Teilnahme am sozialen und kulturellen Leben gehört – der Mensch, als zoon politcon ist auf Gemeinschaft angewiesen – diese Teilnahme aber nur relational bestimmt werden kann, muss Gleichheit der zentrale Maßstab der Gerechtigkeit bleiben.

Ein ähnliches Argument liefert die Betrachtung der unterschiedlichen Stufen möglicher Gleichverteilung. John Rawls hatte drei Typen von Gütern unterschieden, für die eine Gleichheitsforderung bedeutsam ist: 1. Rechte, 2. Freiheiten und Chancen, 3. Vermögen und Einkommen.[37] Das lehnen die Gleichheitskritiker natürlich ab. Aber nur wenige  unter ihnen[38]  bestreiten, dass zumindest  Rechtsgleichheit unverzichtbar ist. Gegen weitergehende Forderungen immunisieren sie sich aber mit dem Verweis darauf, dass nur die Verteilungsprozedur und nicht das Verteilungsergebnis unter Gerechtigkeitsaspekt von Belang sei. Allerdings bedeutet die Tatsache, dass alle Menschen vor dem Gesetz gleich sind, noch nicht, dass sie auch effektiv die gleichen Chancen haben, von diesen Rechten Gebrauch zu machen. „Ein Verteilungssystem“, sagt Susanne Boshammer, „erreicht dann keine Chancengleichheit, wenn immer dieselben zu den Verlierern gehören  und immer dieselben zu den Gewinnern.“[39] Dass dem aber so ist, zeigt schon ein kurzer Blick auf die seit 50 Jahren ziemlich konstant ungleiche Einkommens- und Vermögensverteilung.[40] Formale Rechtsgleichheit muss offensichtlich durch substantielle Chancengleichheit ergänzt werden, um nicht eine leere Formel zu bleiben. Wie aber sollen Chancen substantiell gleich sein, wenn Einkommen und Vermögen extrem ungleich verteilt sind? Obwohl sie nach Rasse und Geschlecht gleich gestellt sind, studieren ja die Töchter aus Migrantenfamilien  deshalb nicht, weil ihre Familien arm sind. Obwohl die Kaffeebauern in Uganda rechtlich gesehen ihren Kaffeepreis am Markt orientieren könnten, müssen sie mehr Kaffee anbieten, wenn der Preis fällt, anstatt ihn zurückzuhalten, weil sie arm sind.

Die Gleichheitsforderung auf die Rechtsebene begrenzen zu wollen, ist zynisch angesichts der tatsächlichen Abhängigkeit der Rechtsgleichheit von substantieller Chancengleichheit.

Nun wird man vielleicht einwenden, um solche Fragen von Umverteilung gehe es doch in der globalisierten, multikulturellen Welt gar nicht mehr in erster Linie. Bedeutsamer seien Fragen nach der Möglichkeit, seine Identität zu wahren, bzw. überhaupt eine stabile Identität zu entwickeln. Dazu sei Anerkennung notwendig, Anerkennung des Anders-Seins in einer Welt, in der Normierungs- und Anpassungsdruck immer größer werden. Charles Taylor und Axel Honneth, die prominentesten Vertreter einer Moraltheorie der Anerkennung, halten dafür, dass der „Kampf um Anerkennung“[41], d.h. um kulturelle, ethnische, religiöse, geschlechts-spezifische oder sexuelle Identität heute bedeutsamer sei als die Frage nach Umverteilung. Die konkreten politischen und ethisch bedeutsamen Fragen in einer globalisierten Welt lauteten demnach: Darf man  Musliminnen das Kopftuch verbieten,  sind gleichgeschlechtliche Beziehungen pervers und illegitim? Warum sitzt ein Viertel der schwarzen Jugendlichen in den USA im Gefängnis? Darf man einen Sprachtest von Migranten fordern? Sind „allein erziehende Mütter…sittenlose Schnorrer“[42], muss man das Schächten von Tieren als religiöse Tradition tolerieren? Solche Fragen seien nicht durch Gleichheitsforderungen zu lösen, sondern nur durch eine „Politik der Anerkennung“[43].

Nun könnte man pointiert dagegen fragen: Ist es wirklich das Hauptproblem der Migrantentochter, dass sie kein Kopftuch tragen darf oder ist es nicht doch ihre Armut, die ihr ein Studium verwehrt? Auch Doris Schröder war eine allein erziehende Mutter und der Scheich von Dubai hat bei seinem Deutschland-Besuch kein Ausländerproblem.

Die Frage nach der Anerkennung ist im Grunde eine Frage nach dem Status, den ich dem anderen zubillige, und damit zuletzt wieder  eine Frage der Gerechtigkeit.

Nancy Fraser schlägt vor, auf die Frage „’Was ist falsch an der mangelnden Anerkennung?’“ nicht zu antworten, „dass sie die Selbstverwirklichung beeinträchtigt“, sondern zu erwidern: „dass es ungerecht ist, wenn Individuen und Gruppen der Status eines vollwertigen Partners in der sozialen Interaktion vorenthalten wird, und das nur infolge bestimmter institutionalisierter Muster kultureller Wertsetzung, an deren Zustandekommen sie nicht gleichberechtigt beteiligt waren […]“[44]

Die Alternative heißt nicht: „Umverteilung oder Anerkennung“[45], vielmehr verlangt „Gerechtigkeit sowohl nach Umverteilung als auch nach Anerkennung“.[46] Im zwischenmenschlichen Bereich ist es fair, den konkreten Anderen anzuerkennen, im öffentlichen Bereich ist es gerecht, substantielle Chancengleichheit für jeden anzustreben, aber es ist falsch, Gerechtigkeit auf eine Ethik der intakten Identität reduzieren zu wollen, wie das die Theorie der Anerkennung versucht.[47]

   Entgegen der Annahme des Non-Egalitarismus gibt es in Wirklichkeit  keine Ausnahme von der Regel, dass alle moralischen Pflichten und Ansprüche in Bezug auf die Verteilung knapper Güter relational sein müssen.

Das ergibt sich aus einer Begründung der Präsumtion der Gleichheit: Alle Betroffenen müssen, ungeachtet ihrer tatsächlichen Unterschiede, strikt gleich behandelt werden, es sei denn, vernünftige und allgemein annehmbare Gründe rechtfertigen eine Ungleichbehandlung.[48] Diese erste Regel des liberalen Egalitarismus versteht Gerechtigkeit relational zur Gleichheit aber auch proportional zu Verdienst und gerechtfertigten Ansprüchen. Sie fordert keine strikte Gleichheit im Ergebnis, wohl aber begrenzt sie die Ungleichheit auf das, was rational zu rechtfertigen ist. Wegen seiner blauen Augen bekommt kein Kind ein größeres Stück vom Kuchen, wohl aber, wenn es beim Backen half.

Warum muss jede Verteilung relational sein? Weil es eben keine wirklich absoluten Bestimmungen dessen geben kann, was wir anderen schulden.[49] Selbst ein scheinbar so absolutes Grundbedürfnis, wie das nach Nahrung, steht, weil es sich um ein knappes Gut handelt, unter einem relationalen Vorbehalt: vielleicht gibt es andere, die die Nahrung brauchen, vielleicht braucht ein anderer die Nahrung dringender.

Auch dort, wo Ansprüche selbst nicht-relational sind, kommt man bei der Frage der Befriedigung der Ansprüche nicht um ein Abwägen herum. Das ergibt sich aus dem Prinzip der Unparteilichkeit und dem Universalisierungsgrundsatz. Wenn die Verteilung von Heilmitteln und medizinischer Versorgung dem absoluten Anspruch eines  Kranken auf Hilfe  gerecht werden soll, muss ich mit bedenken, dass jeder andere, auch potentielle, Kranke das gleiche Recht auf Hilfe beanspruchen darf.

Verteilungsprobleme gibt es ohnehin nur bei knappen Ressourcen. Hier allerdings, so Stefan Gosepath, hängt das Maß dessen, was dem Einzelnen gerechterweise zukommt, ganz offensichtlich „nicht nur davon ab, wie groß, dringend oder fundamental die Not der betroffenen Person ist, sondern auch davon, wie groß die zur Verfügung stehende Masse an Ressourcen ist und wie viele andere Personen berechtigte Ansprüche auf diese Ressource geltend machen können.“[50]

Die weitere Behauptung der Non-Egalitaristen, Gleichheit sei kein intrinsisches Bedürfnis von Menschen, ist ein Kurzschluss. Denn vom moralischen Gleichheitsprinzip, das für alle Menschen gilt, bleibt die Alltagserfahrung, dass Individuen sich innerlich und äußerlich unterscheiden, völlig unberührt.[51] Das Gleichheitsprinzip beruht auf jenem Bedürfnis von Menschen, das alle teilen, nämlich, dass sie als Menschen, trotz oder gar wegen, ihrer individuellen Unterschiede, gleich behandelt werden wollen beim Zugang zu allen knappen Gütern. Wie ist anders als mit einem intrinsischen Gleichheitsbedürfnis erklärbar, dass die Einwohner Deutschlands, trotz ihrer bunten, ungleichen Vielfalt, zu fast 80% in der Meinung übereinstimmen, die Einkommens- und Vermögensverteilung sei ungerecht?[52] Wie ist anders erklärbar, dass immer dort Menschen aufbegehren, wo die materiellen Ungleichheiten besonders groß sind? Ungleichheit kränkt, selbst dort, wo es gewiss nicht um echten Mangel geht.[53] Auch die Mitglieder im sehr teuren Golfclub sind zu recht gekränkt, wenn der Platzwart die Spielzeiten willkürlich  zuteilen sollte.[54]

Hinter dem Bestreiten von Gleichheit als intrinsischem Wert steht letztlich der verdienstethische Irrtum, dass alles, was Menschen sich schulden – nicht nur knappe Güter, sondern auch Achtung, Anerkennung und sogar Würde – auf einem Verdienst beruhe, und sei es das Verdienst, zum selben Kollektiv zu gehören. Hier zeigt sich im Grunde ein antikes Menschenbild, das nur denjenigen als vollwertigen Menschen akzeptiert, der sich als Vollbürger würdig erweist. Würde muss man sich demnach durch tugendhaftes Verhalten erst verdienen.

Nur wenn in dieser Weise Würde an Achtung und Achtung an Verdienst gebunden sind, macht es Sinn, wie Taylor, von einer „Politik der Anerkennung“ oder  wie Margalit von einer „Politik der Würde“ zu sprechen. „Keine Würde ohne Achtung!“[55] behauptet denn auch F. J. Wetz und meint, ein „völlig säkulares Wertverständnis  (schließe) die Antastbarkeit der Würde grundsätzlich nicht aus.“[56] Die Würde des Menschen, so Wetz, bestehe „aus nichts anderem als aus der Achtung davor. Erst die Würde zu respektieren heißt, sie zu konstituieren.“[57] Wo aber selbst Menschenwürde nicht mehr als vorpositives, gleichsam metaphysisches Wesensmerkmal des Menschen, vor jedem Verdienst, vor jeder kollektiven Identität, vor jeder Anerkennung durch andere verstanden wird – wie viel leichter ist es da, Gleichheit als Wert zu bestreiten, der mir schon qua meiner Eigenschaft als Mensch zukommt?

Schließlich der Vorwurf mangelnder Barmherzigkeit und Güte bei den Egalitaristen, die Leid und Elend nicht ungeachtet ihrer Verschuldung lindern wollten. Hier offenbart sich am deutlichsten der Rückschritt der Non-Egalitaristen in die Vormoderne, in eine Denkweise des Ancien Regime, das soziale Gerechtigkeit als voluntaristisches Mitgefühl mit den Schwächeren verstand. In der frühen Neuzeit schufen personale Bindungen über die Stände hinweg einen „Zusammenhalt, der den Absturz ins Bodenlose“[58] verhindern sollte. Unterstützung für die Schwächeren war auf Solidarität, Wohlwollen und Nächstenliebe gegründet, aber sie war kein einklagbares Recht, das man selbstbewusst und mit aufrechtem Gang fordern konnte. „Gleichheit als intrinsischen Wert aufzugeben“, sagt Nida-Rümelin, „und durch Solidarität zu ersetzen hieße zu einer karitativen Wertorientierung zurückzukehren und eine Politik zu legitimieren, die durch die Freiheit des Marktes einerseits und eine Solidarität andererseits charakterisiert ist, die ohne Verankerung in kollektiven Identitäten und lokalen kulturellen Kontexten nicht lebensfähig wäre.“[59]

In anonymen Massengesellschaften und mehr noch in einer globalisierten Welt darf Gerechtigkeit aber nicht mehr von kollektiven Identitäten, engen oder weiten, abhängen, sondern muss  rationalen, universellen Gleichheitsgrundsätzen folgen.

Konkret: Wenn ich Gerechtigkeit an Suffizienz, Anerkennung oder kollektiver Identität messe, dann ist es gerecht, wenn der polnische Bauarbeiter in Deutschland  die Hälfte des Lohns eines deutschen Bauarbeiters nach Hause bringt; dann ist, angesichts von 20 Millionen Arbeitslosen eine Festung Europa, die Arbeitsmigranten aus armen Ländern aus- und abweist, gerecht, dann ist es gerecht, wenn 20% der Weltbevölkerung 80% der Weltressourcen verbrauchen. Nur gleicher Lohn für gleiche Arbeit, gleiche Lebenschancen für alle Menschen und gleiches Anrecht auf Ressourcen  verhindern, dass das als gerecht gilt.  

 Im Übrigen unterstütze ich meinen Bruder auch im selbstverschuldeten Leid, aber nicht aus Gerechtigkeitsgründen, sondern aus Bruderliebe.  Und  solange es genügend unverschuldetes Leid gibt oder bis alle Menschen Brüder werden, brauchen wir eine unparteiliche Gerechtigkeit, und die gibt es nicht ohne Gleichheit.

 LITERATUR

 

Anderson, Elizabeth (2000) Warum eigentlich Gleichheit? In: Krebs, Angelika (Hrsg.): Gleichheit oder Gerechtigkeit? Texte der neuen Egalitarismuskritik, Frankfurt/Main, S. 117- 171.

 Aristoteles: Nikomachische Ethik, hrsg. von Günther Bien. Hamburg 1985.

 Berger, Peter A./ Schmidt, Volker H. (Hrsg) (2004): Welche Gleichheit, welche Ungleichheit? Grundlagen der Ungleichheitsforschung, Wiesbaden.

 Berger, Peter A. (2005): Deutsche Ungleichheiten. Eine Skizze. In: Bundeszentrale für politische Bildung (Hrsg): Aus Politik und Zeitgeschichte (APuZ) Heft 37/2005, 12. 09. 2005:  Ungleichheit – Ungerechtigkeit.  S. 7-16.

 Boshammer, Susanne (2005): Was heißt gerecht verteilen? In: Horster, Detlef, (Hrsg.)  Sozialstaat und Gerechtigkeit, Weilerswist, S. 44 – 60.

 Forst, Rainer (2001): Zu einer kritischen Theorie transnationaler Gerechtigkeit, in:

Schmücker, Reinold/ Steinvorth, Ulrich (Hrsg): Gerechtigkeit und Politik, Berlin S. 215-233.

Forst, Rainer (2004): Kontexte der Gerechtigkeit, Frankfurt/Main.

Frankfurt, Harry (2000): Gleichheit und Achtung, in: Krebs, Angelika (Hrsg.): Gleichheit oder Gerechtigkeit? Texte der neuen Egalitarismuskritik, Frankfurt/Main, S. 38 – 49.

 Fraser, Nancy/Honneth, Axel (2003): Umverteilung oder Anerkennung, Frankfurt/Main.

 Gosepath, Stefan (2004): Gleiche Gerechtigkeit. Grundlagen eines liberalen Egalitarismus. Frankfurt/Main.

Habermas, Jürgen (1992): Faktizität und Geltung, Frankfurt/Main.

Hinsch, Winfried (2004): Gerechtfertigte Ungleichheiten. Grundsätze sozialer Gerechtigkeit, Berlin, New York.

Höffe, Otfried (2004): Wirtschaftsbürger, Staatsbürger, Weltbürger. Politische Ethik im Zeitalter der Globalisierung.

 Höffe, Otfried (2005): Soziale Gerechtigkeit: Ein Zauberwort. In: Bundeszentrale für politische Bildung (Hrsg): Aus Politik und Zeitgeschichte (APuZ) Heft 37/2005, 12. 09. 2005:  Ungleichheit – Ungerechtigkeit.  S. 3-6.

 Honneth, Axel, (1992) Kampf um Anerkennung, Frankfurt/Main.

Horster, Detlef, (Hrsg.) 2005:  Sozialstaat und Gerechtigkeit, Weilerswist 2005.

Kant, Immanuel (1785): Grundlegung zur Metaphysik der Sitten (GMS) Akademie Textausgabe Band IV, Berlin 1968.

Kersting, Wolfgang (2000): Theorien der sozialen Gerechtigkeit, Stuttgart.

Kersting, Wolfgang (2002): Kritik der Gleichheit,. Über die Grenzen der Gerechtigkeit und der Moral,  Weilerswist.

Krebs, Angelika (2005): Wieviel Gleichheit wollen wir? In: Horster, Detlef, (Hrsg.) 2005:  Sozialstaat und Gerechtigkeit, Weilerswist, S. 37 – 43.

Krebs, Angelika (Hrsg.) (2000):  Gleichheit oder Gerechtigkeit? Texte der neuen Egalitarismuskritik, Frankfurt/Main.

Koller, Peter (2002): Was ist und was soll soziale Gleichheit?, In: Schmücker, Reinold/ Steinvorth, Ulrich (Hrsg): Gerechtigkeit und Politik, Berlin S. 95-115.

Kruip, Gerhard (2005): Was ist soziale Gerechtigkeit? In: Horster, Detlef, (Hrsg.): Sozialstaat und Gerechtigkeit, Weilerswist, S. 87-99.

Margalit, Avishai (1997): Politik der Würde. Über Achtung und Verachtung, Berlin.

Margalit, Avishai (2000): Menschenwürdige Gleichheit. In: Krebs, Angelika (Hrsg.): Gleichheit oder Gerechtigkeit? Texte der neuen Egalitarismuskritik, Frankfurt/Main, S. 107 – 116.

Menzel, Ulrich (1992): Das Ende der Dritten Welt und das Scheitern der großen Theorie, Frankfurt/Main.

Nagel, Thomas (1994): Eine Abhandlung über Gleichheit und Parteilichkeit, Paderborn, München.

Nida-Rümelin, Julian (2005) Kritik des Non-Egalitarismus, in: Frankfurter Rundschau, 13. 09. 2005.

Nozick, Robert (1976): Anarchie -Staat -Utopia, München.

Nussbaum, Martha C. (1999): Gerechtigkeit oder das gute Leben, Frankfurt/Main.

Rawls, John (1975): Eine Theorie der Gerechtigkeit, Frankfurt/Main. 

Senghaas, Dieter (1977) Weltwirtschaftsordnung und Entwicklungspolitik. Plädoyer für Dissoziation, Frankfurt/Main.                                                                               Taylor, Charles (1993): Die Politik der Anerkennung, in: Ders: Multikulturalismus und die Politik der Anerkennung, Frankfurt/Main 1993, S. 13 – 78.

Tugendhat, Ernst (1993): Vorlesungen über Ethik, Frankfurt/Main.

Walzer, Michael (1995): Sphären der Gerechtigkeit, Frankfurt/Main.

Walzer, Michael (1998): Über Toleranz. Von der Zivilisierung der Differenz, Hamburg.

Wetz, Franz Josef (2005): Illusion Menschenwürde. Aufstieg und Fall eines Grundwerts, Stuttgart.

 

 

 ANMERKUNGEN



[1] Aristoteles, Nikomachische Ethik, 1129b.

[2] Tatsächlich wird schon das „suum cuique“ im Zusammenhang mit der Gleichheit bestimmt. „Wenn jeder das Seine bekommt, dann stehen sie sich gleich, und es kann ein geregelter Verkehr stattfinden, weil diese Gleichheit zwischen ihnen verwirklicht werden kann.“ (1133b)

[3] Vgl: Berger (2005) S. 9.

[4] Krebs (2005) S. 41f.

[5] Höffe (2005) S. 5.

[6] Kruip (2005) S. 90.

[7] Süddeutsche Zeitung, 27. 04. 2000

[8] Tugendhat (1993) S. 373 f.

[9] Aristoteles, 1097b.

[10] Vgl. Kersting (2000) S. 9 ff.

<a class=" link" title="" name=

Klaus Goergen:

DER SPIELRAUM DES WILLENS   (2005)

 (Aus: K. G.: Zugänge zur Ethik. Berlin 2010. S. 67-84)

 Die aktuelle Debatte um die Freiheit hat u.a. dazu geführt, dass man heute genauer sieht: Es geht nicht um eine Alles-oder-Nichts-Position, es geht nicht schlicht darum, ob wir über einen freien Willen verfügen oder nicht. Man muss vielmehr unterscheiden lernen zwischen starken und schwachen Begriffen von Freiheit, und einen Freiheitsbegriff zu finden suchen, der den aktuellen Erkenntnissen der Geistphilosophie, der Psychologie und insbesondere der  Neurowissenschaften Rechnung trägt.

Ich will einen schwachen Begriff von Freiheit verteidigen, indem ich zuerst gegen einen starken Begriff von Freiheit argumentiere, dann die Einwände gegen einen schwachen Begriff von Freiheit hinterfrage  und schließlich andeute, welche ethischen Konsequenzen sich aus einem schwachen Begriff von Freiheit ergeben.

Starke Vorstellungen von Willensfreiheit stehen in der Tradition Kants. Sie verbindet in der Regel eine enge Verknüpfung von freiem Willen mit Vernunft und mit Moral. Eine freie Willensentscheidung ist demnach:

1. Nicht voraussagbar, 

2. aus dem Nichts entstanden, bedingungslos, voraussetzungslos. Sie wird nur aus Gründen getroffen, nicht aus Ursachen. Mit der freien Willensentscheidung beginnt gleichsam eine neue Kausalkette in der Welt.

3. eine Entscheidung, die auch anders  hätte ausfallen können. Sie war nur eine Option unter mehreren frei wählbaren. 

4. eine rein rationale Entscheidung. Die Gründe, nach denen entschieden wird, sind nur gute, vernünftige Gründe. Vernunft und Wille sind identisch, in dem Sinne, dass alle Neigungen, emotionalen Bedürfnisse, unbewusste Ängste und Hoffnungen keinen Anteil an der Willensentscheidung haben dürfen.

 

   Die beiden letzten Bedingungen insbesondere entsprechen  am deutlichsten der Intuition eines freien Willens, die jeder Mensch (in der westlichen Moderne) hat, wenn er denkt: 'ich hätte, trotz allem,  anders entscheiden können' oder wenn er sagt: 'Ich verspreche Dir, dies und das zu tun, komme, was wolle.' oder wenn er urteilt: 'Er ist voll verantwortlich für seine Tat, auch wenn er noch so sehr unter Druck stand.'  Wir wollen einen freien Willen, innere Autonomie, die sich selbst genügt.

 

Zu 1. Am leichtesten lässt sich die Bedingung der Nicht-Voraussagbarkeit in Frage stellen. Es gibt vieles in der Welt, das Wetter, die Schwingungen von Pendeln, mein nächster Schnupfen, das nicht voraussagbar ist und dennoch würde wohl niemand behaupten, das läge am freien Willen des Wetters, des Pendels oder meiner Nase. Spätestens seit der Teilchen-Physik und der Chaostheorie wissen wir, es gibt zahllose Ereignisse, die zwar ohne Zweifel kausal bedingt sind, deren Bedingungen aber so komplex sind, dass eine Prognose unmöglich wird. Im Übrigen sind auch alle zufälligen Ereignisse nicht voraussagbar. Freier Wille und Zufall sind nach diesem Kriterium also nicht zu unterscheiden.

 

Zu 2.  Zur Willensfreiheit gehört, bei Descartes wie bei Kant, ihre Voraussetzungslosigkeit, "das Vermögen, einen Zustand von selbst anzufangen." (III 363) wie Kant sagt. Diese "Causalität aus Freiheit" setzt er gegen die "Causalität nach dem Gesetze der Naturnothwendigkeit ",(V 95) die jenseits des freien Willens in der Welt herrsche.

Aber wie sieht es aus, wenn wir uns einen freien Willen denken, der ohne Ursachen entsteht? Peter Bieri hat diese Vorstellung in sehr anschaulichen Beispielen ad absurdum geführt.[1] Ein freier Wille, der mich bei jeder Gelegenheit und zu jeder Zeit überkommt, führt mich schnell ins Chaos: Gerade noch will ich an einer Demonstration teilnehmen, aber kaum sitze ich im Zug, belehrt mich mein freier Wille eines Besseren. Jetzt bin ich plötzlich fest überzeugt, doch einen anderen Termin wahrnehmen zu wollen. Ich steige am nächsten Bahnhof aus, rufe ein Taxi... Ein freier Wille dieser Art bleibt mir völlig fremd, es ist ja eigentlich gar nicht mein Wille, denn er hat mit mir, meinen Bedürfnissen, Ängsten, Hoffnungen nichts zu tun, sonst wäre er ja nicht frei im Sinne einer Ursachenlosigkeit. Ein Wille, der mich überfällt, ist das Gegenteil dessen, was er nach Kant eigentlich sein soll: ein Zeichen der Autonomie des Menschen. Einen freien Willen in diesem Sinne kann es, zum Glück, nicht geben.

Nun verweisen aber die Kantianer zu Recht darauf, die Idee einer "kosmologischen Freiheit" bei Kant sei schließlich nur ein transzendentales Argument. Eine absolute, ursachenlose, nur aus vernünftigen Gründen sich speisende Freiheit sei denkmöglich, da sie, so gut wie ihr Gegenteil,  zu beweisen sei. Das heiße aber, man dürfe sie nicht mit einer "Freiheit im praktischen Verstande" verwechseln. Kant selbst verweist darauf, die kosmologische Freiheit sei "in dieser Bedeutung eine reine transzendentale Idee, [...] deren Gegenstand in keiner Erfahrung bestimmt gegeben werden kann" (III, 363)  Schauen wir uns also die Argumentation bei Kant etwas genauer an.

In der "dritten Antinomie der reinen Vernunft" (III,308 ff.) will Kant zeigen, ein freier Wille als prima causa sei beweisbar und widerlegbar. Schon hier ist allerdings fraglich, ob der Beweis der Freiheitsthese wirklich trägt.

Auch wenn es stimmt, dass es ein Widerspruch ist, wenn einerseits die Reihe der Naturkausalitäten nach hinten als endlos verlängert gedacht werden muss, und andererseits doch überhaupt keine Folge eintreten kann, wenn nicht eine Ursache a priori angenommen wird, so folgt daraus im strengen Sinne nur, dass es eben eine erste Ursache geben muss, eine "absolute Spontaneität" (III, 308) beim Hervorbringen einer allerersten Ursache in der Reihe der Naturkausalitäten. 

Kants weitergehende Ableitung einer "transzendentalen Freiheit", die immer wieder solche absoluten Spontaneitäten hervorbringt - in seinen Worten ist es uns "erlaubt, mitten im Laufe der Welt verschiedene Reihen der Causalität nach von selbst anfangen zu lassen" (III 312), diese Ableitung ergibt sich daraus aber keinesfalls zwingend. Wenn wir, modern gesprochen, den Urknall als erste absolute Spontaneität annehmen müssen, können wir doch den 'Rest' der kosmischen Entwicklung, inklusive meiner moralischen Entscheidungen nach Gesetzen der Naturkausalität erklären.

Die dritte Antinomie beweist in ihrer These, salopp gesprochen, nur einen 'Schöpfergott', aber keinen freien Willen.

Am Ende der dritten Antinomie steht es also nicht 'eins zu eins' für und gegen die Willensfreiheit, sondern 'null zu eins' gegen die Freiheit, da die Antithese in sich schlüssig zeigt, dass die Annahme einer transzendentalen Freiheit "ein leeres Gedankending" (III 309) bleibt. Das transzendentale Argument, das die Bedingung für die Möglichkeit einer "Freiheit im praktischen Verstande" (III, 363) schaffen soll, ist damit hinfällig.

Im Weiteren argumentiert Kant aber, obwohl sich These und Antithese der dritten Antinomie aufheben, Willensfreiheit also nicht widerspruchsfrei beweisbar ist, sei sie damit doch denkmöglich. Und weil sie denkmöglich sei, also als transzendentales Argument vertretbar, könne sie die, rein gedankliche, Grundlage bilden für eine "Freiheit im praktischen Verstande". Und nun beginnt die Engführung:  Die praktische Freiheit besteht in der Fähigkeit, von "Antrieben der Sinnlichkeit" sich loszumachen, aber diese 'Befreiung'  heißt nicht, die Freiheit sei  "gesetzlos", vielmehr  hat der freie Wille die Eigenschaft, sich selbst ein Gesetz zu sein, dieses Gesetz ist das Sittengesetz, deshalb richtet sich  der freie Wille stets auf das sittlich Gute.

 Das ist nun alles andere als stringent. Weil es 'denkmöglich' ist, ist es noch lange nicht in praxi existent, wenn aber die praktische Freiheit existent wäre, muss sie noch lange nicht selbst-referentiell sein und selbst wenn sie sich einem Gesetz 'freiwillig' unterwirft, muss es noch lange nicht das Sittengesetz sein.

Diese ganze zweifelhafte Logik hat Nietzsche in seinem Aphorismus: "Wie die wahre Welt zur Fabel wurde"  auf den Punkt gebracht: "Die wahre Welt, unerreichbar, unbeweisbar, unversprechbar, aber schon als gedacht ein Trost, eine Verpflichtung, ein Imperativ." Hier ist die platonische Ideenlehre "sublim geworden, bleich, nordisch, königsbergisch." (KSA 6, 80)

Jürgen Habermas hat nun versucht, die Kantische Idee einer "Kausalität aus Freiheit" oder, wie es modern heißt,   "mentalen Verursachung" diskurstheoretisch zu retten.[2] Wenn ein in Sprache, Schrift und Kulturzeugnissen materialisierter "objektiver Geist", d.h. ein "symbolisch gespeichertes kollektives Wissen"[3] den "subjektiven Geist" des Einzelnen prägt, "Warum sollte es dann aber nicht, gegenläufig zur Determinierung des subjektiven Geists durch das Gehirn, auch eine 'mentale Verursachung' im Sinne der Programmierung des Gehirns durch den objektiven Geist geben?"[4] Auf diese Weise könne "der objektive Geist gegenüber dem subjektiven Geist der individuellen Gehirne eine strukturbildende Kraft erlangen"[5]. Nun wird allerdings auch kein hartgesotten-deterministischer Hirnforscher bestreiten, dass das Gehirn des Einzelnen durch sprachlich-gefasste, gesellschaftlich-kulturelle Eindrücke und  Lernprozesse beeinflusst und verändert wird, und natürlich gibt es einen "Raum der Gründe", in dem wir glauben, Entscheidungen unter dem "Zwang des besseren Arguments" zu treffen. Aber  dieser Raum ist eingebettet in einen "Raum der Ursachen", der die Gründe vorselektiert, bewertet und steuert und der sanfte "Zwang des besseren Arguments" weiß nichts vom harten Zwang der Naturkausalität, weil dieser im Un- und Vorbewussten  wirkt. Sprachlich verfasste Gründe, die neben Ursachen wirken, sind noch keine 'mentale Verursachung', Habermas hat nur die kantische 'Selbstverpflichtung' durch die 'Grammatik' ersetzt, aber auch diese ermöglicht es nicht "einen Zustand von selbst anzufangen." (III 363)

 

Zu 3. Zur Willensfreiheit gehört, dass das Ergebnis der Entscheidung offen ist, man hätte anders handeln können. Schon Kant fragt sich: "wie kann derjenige in demselben Zeitpunkte in Absicht auf dieselbe Handlung ganz frei heißen, in welchem, und in derselben Absicht, er doch unter einer unvermeidlichen Naturnothwendigkeit steht?" (V,96)

 Wie nun, wenn es aber Fälle gibt, in denen eine freie Entscheidung getroffen wird und das Ergebnis der Entscheidung dennoch feststeht? Harry Frankfurt[6] hat diese These zu belegen versucht. Es sind all jene Situationen, in denen Menschen etwas aus freien Stücken entscheiden, wozu sie, hätten sie es nicht getan, ohne es bei der Entscheidung zu ahnen, gezwungen worden wären. Beispiele für Personen oder Mächte, die Mittel haben, Menschen notfalls zu einer Entscheidung zu zwingen, gibt es gewiss genug: Ein Mann, zum Beispiel, will seinen Schwiegervater dazu bringen, seine Frau, dessen Tochter, zur Alleinerbin einzusetzen. Er kann den Schwiegervater notfalls mit seinem geheimen Wissen über einen frühen Mord erpressen, der Schwiegervater würde die Tochter sofort zur Alleinerbin machen, um die Aufdeckung des Mordes zu verhindern – aber er hat sich schon aus freien Stücken dazu entschieden, so dass der Schwiegersohn von seiner Erpressung gar keinen Gebrauch machen muss.

Ist das nun eine Entscheidung aus freiem Willen? Verneinen wir die Frage, dann ist zwar die Idee gerettet, dass das Anders-handeln-Können Bedingung des  freien Willens ist, aber es ist nicht begründbar, und widerspricht sicher unserer Intuition, was nun genau die freie Entscheidung verhindert haben soll.

Bejahen wir die Frage, dann macht es keinen Sinn mehr, den freien Willen an die Offenheit der Entscheidung zu binden. Freier Wille und Voraussagbarkeit von Entscheidungen sind dann vereinbar. Der Fall zeigt, dass, selbst wenn wir einen freien Willen annehmen, seine wichtigste Bedingung, das Anders-handeln-Können in Frage steht.

 

Der Fall kann, aus anderer Perspektive, auch als Prüfstein für die Idee der Selbstzuschreibung dienen, die wesentlich zur Annahme von Willensfreiheit gehört. Wir sind ja der Meinung, zum freien Willensakt gehöre nicht nur, dass er eindeutig und alleine Ursache einer gewollten Handlung ist, sondern dies müssen wir uns in einem bewussten Akt auch selbst zuschreiben. Wenn mir ein Willensakt bewusst ist, dann weiß ich, dass ich es war, der die Handlung bewirkt hat und habe ich sie nicht bewirkt, dann gibt es auch kein Bewusstsein von einer Willensentscheidung.

Leider ist das in der Lebenspraxis nicht so eindeutig. Es gibt sowohl Fälle, in denen ich mir eine Handlung fälschlicherweise als eigene Willensentscheidung zuschreibe als auch das Gegenteil: eine Selbstzuschreibung unterbleibt, obwohl eine Person eine Handlung faktisch vollzogen hat.[7]  Da ist eine junge Frau fest davon überzeugt, es sei allein ihre freie Entscheidung gewesen, sich gerade diesen Mann erwählt zu haben – und doch wissen alle in ihrem Umfeld, dass der Erwählte ihrem Vater in allem frappant ähnelt. Eindeutigere Fälle falscher Selbstzuschreibung finden wir bei posthypnotischen Handlungen, wenn Menschen überzeugt sind, aus freien Stücken auf dem Boden zu kriechen – und doch war es der Hypnotiseur, der es ihnen diktierte. Und umgekehrt:  Da ist ein alter Mann fest davon überzeugt, im Krieg niemals jemanden getötet zu haben – und doch ist es bewiesen. Von solchen Fällen traumatischer Verdrängung und Abkapselung von Handlungen berichten viele Psychiater. Die bewusste Selbstzuschreibung einer Handlung ist offenbar kein sicherer Prüfstein für einen freien Willen.

 

Nun mag man einwenden, mit solch konstruierten Ausnahmefällen sei das starke Argument des Anders-Handeln-Könnens noch nicht widerlegt. Schauen wir also noch einmal genauer. Was ist denn eigentlich gemeint mit der Behauptung, man habe in einer Entscheidungssituation auch anders handeln können? Können ist hier offensichtlich nicht verwendet im Sinne einer Fähigkeit  - 'er kann Piano spielen' - vielmehr einer alternativen Möglichkeit. "Wir sagen: 'Das hätte schief gehen können', selbst wenn alles noch einmal gut gegangen ist. [...] Doch unter welchen Bedingungen kann man überhaupt im Nachhinein davon sprechen, dass ein Ereignis hätte eintreten können, das faktisch nicht eingetreten ist? Offenbar hat es doch andere Umstände gegeben, die den Eintritt des Ereignisses verhindert haben."[8] Ich hätte anders handeln können, heißt also letztlich nichts anderes, als: Wären die Umstände anders gewesen, hätte ich anders gehandelt. Nach der sogenannten Konditionalanalyse wird das Argument des Anders-Handeln-Könnens damit schnell trivial: Eine Person hätte anders gehandelt, wenn sie anderes gewollt hätte.[9]  Der Wille wird somit konditional, abhängig von den – geänderten – Umständen.

 

 Zu 4.  Zu einem starken Begriff von Willensfreiheit gehört, und dies ist am deutlichsten mit einer rationalistischen  Konzeption verbunden, dass freie Entscheidungen nicht von anderen als vernünftigen Gründen getragen sind. "Der Begriff der Freiheit ist ein reiner Vernunftbegriff" (VI, 221) sagt Kant – und noch 200 Jahre nach seinem Tod glaubt etwa John Searle, man könne eine freie Entscheidung treffen, die "nicht durch Leidenschaft, Wut oder eine fixe Idee erzwungen" sei, sondern "einfach die Vorzüge und Nachteile" in rationaler Abwägung überlegt ohne "weiteren Reizinput" während der Entscheidungszeit.[10] Das heißt also, die Vernunft darf nicht durch unbewusste Neigungen, innere Zwänge oder gar physiologische Vorentscheidungen getrübt oder gelenkt werden, wenn ein freier Wille am Werk ist. Freier Wille und Vernunft fallen in eins. 

 Wie nun, Donald Davidson hat darauf hingewiesen[11], wenn ich trotz bester, vernünftiger Gründe für eine Handlung mich anders entscheide? Wenn ich zum Beispiel einen wichtigen Termin habe, der über meine berufliche Zukunft entscheiden kann, über das Glück meiner Familie und ich dennoch – aus Nostalgie, aus Sentimentalität, aus Solidarität  vielleicht -  mich zur Teilnahme an einer Demonstration entscheide, von der ich zudem weiß, sie wird im Grunde nichts bewirken? Ist das etwa keine Entscheidung aus freiem Willen? Die Überwindung ist  gegeben, und doch spricht die Vernunft für eine andere Entscheidung. Die Gleichsetzung von Vernunft und freiem Willen scheitert an Beispielen dieser Art. Der Kantianer muss hier wählen: Wenn  nur das vernünftig ist, wozu ich mich aus  freiem Willen entscheide, dann muss er die vernünftigen Gründe für das Wahrnehmen des Termins bestreiten; wenn der freie Wille sich stets für das Vernünftige entscheidet, dann muss er bestreiten, dass es ein freier Wille ist, der sich für die Teilnahme an der Demonstration entscheidet. Beides wäre ziemlich unplausibel. Das Dilemma ist nur lösbar, wenn ich, wie einst Descartes, den Willen als eigene, von der Vernunft unabhängige 'Kraft' fasse. Dass eine solche 'Kraft' sich in der "Zirbeldrüse" aber nicht finden lässt, wie Descartes mutmaßte, das wissen wir heute – aber wo steckt sie dann?

"Descartes Irrtum" sagt Damasio[12], bestand in der scharfen Trennung  von Körper und Geist, in der Vorstellung einer materielosen, nicht zur "res extensa" zählenden Entität 'Geist', die unabhängig vom Körper eigenen Gesetzen folgt und ein Teil deren der freie Wille ist. 'Kants Irrtum' ist demnach seine entsprechende Trennung des Menschen in ein intelligibles Wesen und ein Naturwesen.[13] Aber wir sind keine "Bürger zweier Welten", der Wille ist keine autonome  immaterielle Kraft, sondern er unterliegt den Naturkausalitäten, wie alles andere auch.

 

 Dieser Einwand steht  für jene Art von  Kritik, die der psychologische Determinismus gegen die Idee der  Willensfreiheit anführt. Kant entrüstete sich übrigens stark über diese Ideen, zu seiner Zeit vorgetragen von Empiristen und Sensualisten. Er sah darin "einen ekelhaften Mischmasch von zusammengestoppelten Beobachtungen und halbvernünftelnden Prinzipien, daran sich schale Köpfe laben" (IV, 409) Man hört, er fühlt sich getroffen. 

Aber die moderne Psychologie hat längst deutlich gemacht: Es gibt keine Entscheidung, die nicht von unbewussten Bedürfnissen gelenkt ist, eine Entscheidung aus reinen Vernunftgründen ist eine Chimäre. Alle Vernunft ist 'unrein' in dem Sinne, dass sie durch emotionale oder unbewusste Vorentscheidungen Argumente gewichtet, auswählt, aus dem Blick lässt. Dies ist wohl gemerkt nicht mit dem Umstand zu verwechseln, dass eine Vernunftentscheidung emotionale Aspekte bewusst in ihr Kalkül einbeziehen kann. Natürlich gehört zu einer vernünftigen – im Gegensatz zu einer kalt  verstandesmäßigen – Entscheidung, dass sie Ängste, Befürchtungen, Hoffnungen  ernst nimmt, allerdings dürfen sie, nach Kant,  nicht den Ausschlag für die Entscheidung geben, wenn es eine freie Willensentscheidung sein soll.  Unrein ist die Vernunft hingegen in dem Sinne, dass jenseits dessen auch  unbewusste, uneingestandene Motive, Ängste, Hoffnungen etc. ihre  Reinheit trüben.[14]  Ein Freiheitsbegriff, der Existenz und Wirkkraft eines Unterbewusstseins ignoriert, koppelt sich vom wissenschaftlichen Diskurs ab und wird zur Glaubensfrage.

 

Der soziologische Determinismus verweist dazuhin auf die Entlastungsfunktion von Institutionen für den Willen. Unser Wille wäre hoffnungslos überfordert, müsste er all das entscheiden, was durch unsere Einbindung in Institutionen der Gesellschaft, von der Familie bis zum Staat, von der Schule bis zur Kirche vorentschieden ist.[15] Anders gesagt: Rollenerwartungen, Gruppenzwang, ein abgestuftes System von positiven und negativen Sanktionen wirken als soziale Determination, die den Willen nicht nur entlastet, sondern lenkt. Das wird aus der Außenperspektive deutlicher als aus der Innenperspektive. Bei uns selbst sind wir überzeugt, der freie Wille könne sich notfalls über alle Zumutungen der Umwelt in einem 'Befreiungsschlag' hinwegsetzen. Aber welchen Spielraum geben wir dem Willen einer Emma Bovary oder Effi Briest, einem Woyzeck oder Bahnwärter Thiel? Ist uns nicht völlig klar, dass sie ihre Männer hintergehen, ihre Frauen morden müssen?  

 

 Die modernen Neurowissenschaften verschärfen nun neuerdings diese Einwände gegen einen starken, rationalistischen Begriff von Willensfreiheit mit physiologischen Argumenten, u.a. mit dem Verweis auf  "somatische Marker", die der  physiologischen Entlastung in Entscheidungssituationen dienen, indem sie alle Eintragungen im  Gedächtnis mit einem emotionalen Wert verbinden und diesen bei Bedarf  als Warnsignal zur Selektion  'unerwünschter' Entscheidungen aktivieren.[16]  Es handelt sich bei den somatischen Markern, so Antonio Damasio, "gewissermaßen um einen Tendenzapparat. Stellen Sie sich beispielsweise vor, Sie haben Aussicht auf ungewöhnlich hohe Rendite bei einer überaus riskanten Investition. Inmitten anderer Beschäftigungen, die sie ablenken, sollen sie sich zu einem raschen Ja oder Nein entschließen. Wenn ein negativer somatischer Zustand den Gedanken, die Investition vorzunehmen, begleitet, wird es Ihnen leichter fallen, die Möglichkeit zu verwerfen..."[17]  Mit anderen Worten: An der scheinbar rein rationalen Entscheidung sind emotionale, unbewusste Vorentscheidungen wesentlich mit beteiligt.

In ähnliche Richtung weisen die Forschungen, u.a von Lawrence Farwell zu einem "brain fingerprinting"  das heißt, der Möglichkeit, Gedächtnisinhalte mittels Hirnstrommessungen freizulegen und damit potentielle  Triebtäter durch eine Art 'neuronalen Lügendetektor' ausfindig zu machen oder die Gehirnuntersuchungen durch Kernspintomographie, die neuronale Auffälligkeiten entdecken und sich daraus Rückschlüsse über Veranlagungen und Vorlieben erhoffen.  So ist man heute bereits sicher,   kriminelle Veranlagungen im frühen Jugendalter neuronal feststellen zu können. Der Rechtsphilosoph Reinhard Merkel zeigt in diesem Kontext, vor welche Alternative man damit vielleicht bald einen Straftäter stellen wird:  "Ist es wirklich besser zu sagen: Wir ehren dich als vernünftige Person, aber das wird dir bitter wehtun, weil wir dich wegsperren müssen? Oder sollten wir sagen: Eigentlich bist du ein unvernünftiges Wesen, wir können dir helfen, du musst uns nur ein bisschen an deinem Gehirn herumoperieren lassen.?"[18]

Für Aufsehen, gerade unter Ethikern, sorgte auch die Entdeckung von Spiegelneuronen, sogenannten 'mitfühlenden Nervenzellen'[19] . Sieht etwa ein Proband ein fremdes lachendes oder weinendes Gesicht, oder wie sich ein anderer in den Finger schneidet, so fangen im Broca-Zentrum des eigenen Gehirns genau jene Neuronen an zu feuern, die für eine entsprechende Mimik oder für Schmerzempfindungen zuständig sind. Man hat das als neuronale Basis menschlicher  Empathiefähigkeit gedeutet, gleichsam ein neurochemischer Beweis der Schopenhauerschen Mitleidstheorie. Jedenfalls haben die nachfühlenden neuronalen Reaktionen  mit einer freien, vernunftgesteuerten Willensentscheidung nichts zu tun.

 Die empirischen Experimente zur Überprüfung von Willensfreiheit, wie sie seit den 60er Jahren immer wieder unternommen wurden[20], konnten zwar keine komplexen Entscheidungssituatio-nen, wie sie etwa moralischen Handlungen vorangehen sollten, überprüfen, und sind in ihren Versuchsaufbauten auch umstritten, aber sie haben doch ergeben, dass der Eindruck eines freien Willens als Handlungsauslöser bei einfachen Handlungen trügt: Der Körper hat seine Entscheidung schon getroffen, bevor der Wille als bewusster Akt entsteht. "Der Willensentschluss folgt dem Beginn des Bereitschaftspotentials" 14. Er scheint  eher eine Art Kontroll- und Ordnungsmechanismus  für das Bewusstsein zu sein,  der die Selbstzuschreibung einer Handlung garantiert.  "Das Gefühl, etwas gewollt zu haben" betont Gerhard Roth, hänge auch damit zusammen, "dass das Gehirn vor jeder Bewegung ein Erwartungsmodell der sensomotorischen Rückmeldungen entwirft und dann mit den tatsächlichen Rückmeldungen vergleicht. Sind die Abweichungen gering, stellt die Großhirnrinde fest: Das war ich! Die Forscher glauben beweisen zu haben, dass diese Feststellung im Bewusstsein zurückdatiert wird und dann vor dem Beginn der Bewegung angesiedelt wird."15  Etwas plakativ: 'Wir tun nicht, was wir wollen, sondern wir wollen, was wir tun.'

 

Der Einwand, solche Experimente seien ganz ungeeignet, das zu entkräften, was Kant sich unter einem komplexen, vernunftgesteuerten freien Willensentschluss vorstellt, steht auf schwachen Beinen: In der "Anmerkung zur dritten Antinomie" sieht Kant die "transzendentale Idee der Freiheit" in der "absoluten Spontaneität der Handlung" (III,310) garantiert und führt in diesem Zusammenhang ein Beispiel an, das aus dem Labor des Hirnforschers stammen könnte: "Wenn ich jetzt (zum Beispiel) völlig frei und ohne den nothwendig bestimmenden Einfluß der Naturursachen von meinem Stuhle aufstehe(!), so fängt in dieser Begebenheit sammt deren natürlichen Folgen ins Unendliche eine neue Reihe schlechthin an..." (III,312). Wenn das Willensfreiheit ist, dann ist sie in der Tat empirisch widerlegt.

Insgesamt lässt die aktuelle naturwissenschaftliche Forschung keinen Spielraum mehr für die Annahme eines starken freien Willens als "prima causa", jenseits einer subjektiven Empfindung. Nur ein kleinerer Teil der permanenten Gehirnaktivitäten, die aber alle unser Denken und Fühlen beeinflussen,  tritt ins Bewusstsein und kann Anteil haben an dem, was wir uns als freien Willen zuschreiben, der große Rest bleibt unbewusst, aber nicht weniger wirksam.

"Unser Gehirn", bemerkt der Psychologe Douwe Draaisma, "ist ein Ökosystem in heiklem Zustand. [...] Ein bisschen mehr oder weniger von einem bestimmten Neurotransmitter, kleine Schwankungen in Hormonspiegeln, minimale Störungen im Schlaf-Wachrhythmus, geringe Verschiebungen in der Empfänglichkeit von Rezeptoren, eine unscheinbare Verletzung im Cerebellum" 16 – und schon denken, fühlen und wollen wir anders. 

 

Wir kommen nicht umhin: Willensfreiheit im starken Kantischen Sinne ist eine Illusion. Das kränkt uns zutiefst, weil es unser Selbstbild als intelligible, autonome Persönlichkeit in Frage stellt. Ganz wie uns einst die Zumutung der Evolutionstheorie kränkte. Aber so wie es uns gelungen ist, diese Kränkung zu verschmerzen und in unser Selbstbild zu integrieren, so muss das auch mit dem Verlust der Willensfreiheit gelingen, wollen wir nicht einem Selbstbetrug nachhängen, der vor den Erkenntnissen der modernen Sozial- und Naturwissenschaften keinen Bestand hat. Im 19. Jahrhundert hat man gegen Darwin angeführt, seine Theorie führe unmittelbar in die Barbarei, in den Niedergang von Kultur und Moral. Manche Verfechter eines starken Begriffs von Willensfreiheit argumentieren heute verblüffend ähnlich.

 

Ohne Willensfreiheit, so der erste Einwand, sei die Idee von Verantwortlichkeit, damit von Schuldfähigkeit, damit von Strafwürdigkeit nicht mehr zu halten. Dass diese Sorge unbegründet ist, zeigt schon ein Blick in jene Zeiten und Räume, etwa die Antike oder außerwestliche Kulturen, die ohne die Idee der Willensfreiheit ein funktionierendes Rechtssystem entwickelt haben. Auch moderne Rechtssysteme kommen ohne Rückgriff auf Willensfreiheit aus. Verantwortlichkeit und Straffähigkeit werden heute utilitaristisch und kontraktualistisch begründet. Mit der Aufgabe des freien Willens ist schließlich nicht die instrumentelle Vernunft suspendiert. Ein jeder kennt nicht nur das Sanktionssystem der Gesellschaft, sondern weiß auch, dass er sich wie jeder andere an die Regeln halten muss, weil jeder andere sich sonst auch entziehen könnte. 

Im Gegenteil: der freie Wille ist nicht das edelste Kind der Individualisierung, seine Preisgabe könnte die Menschen duldsamer machen, toleranter, verständnisvoller, weniger rigide. Pointiert hat Nietzsche darauf verwiesen, wie sehr der freie Wille "zum Zweck der Strafe, das heisst des Schuldig-finden-wollens"17 dienlich ist. Und wenn wir bei Kant hören,  selbst in einer Gesellschaft, die sich aufzulösen beschlossen hat  "müßte der letzte im Gefängnis befindliche Mörder vorher hingerichtet werden, damit jedermann das widerfahre, was seine Thaten werth sind" (VI, 333), dann verstehen wir, was Nietzsche meint. Judith Butler kritisiert diese kantische – oder sartresche – Vorstellung einer absoluten Verantwortung neuerdings scharf, wenn sie darauf  verweist, dass eine Ethik, die davon ausgeht, Menschen seien sich all ihrer Antriebe völlig bewusst und die uns  die volle  "Verantwortung für eine uneingeschränkte Selbsterkenntnis" zuschreibt, dazu neigt, uns "fehlbaren Geschöpfen eine Art 'ethischer Gewalt' anzutun."18 Eine solche Ethik  überfordert uns, weil sie unsere Verantwortlichkeit an einem falschen Menschenbild misst. Notwendig wäre hingegen eine Ethik, "die auf unserer gemeinsamen unabänderlichen Teilblindheit in Bezug auf uns selbst gründet. Die Einsicht, dass man nicht jederzeit ganz der ist, der man zu sein glaubt, könnte zu einer gewissen Geduld gegenüber anderen führen [...] zu "Bescheidenheit und Großzügigkeit...denn ich brauche Vergebung für etwas, das ich nicht vollständig wissen kann [...] und ganz ähnlich gilt für mich die Verpflichtung, Anderen zu vergeben, die sich ihrerseits zum Teil...undurchschaubar sind." 19

 

Ohne Willensfreiheit, so ein zweiter Einwand, gäbe es für die Menschen keine Hemmung  mehr, sich nur an ihren Lüsten, Neigungen und  kurzfristigen  Interessen zu orientieren. "Die größte moralische Vollkommenheit des Menschen ist: seine Pflicht zu thun und zwar aus Pflicht", belehrt uns Kant. (VI, 392) Nur der freie Wille garantiere die Fähigkeit des Absehens, der Überwindung, der Selbstverpflichtung. Aber auch diese Sorge lässt sich zerstreuen. Was wir brauchen, ist, in moderner Redeweise ausgedrückt, Frustrationstoleranz, die Fähigkeit, von kurzfristigen Lustbefriedigungen abzusehen, Triebaufschub, Stärkung des Über-Ichs.  All das wird in der Erziehung geleistet, ganz selbstverständlich und schon immer, wenn auch nicht stets mit ausreichendem Erfolg. Aber das Beharren auf einen freien Willen ist auch hier kein geeignetes Mittel der Beförderung. Ich kann mich so wenig selbst verpflichten, wie ich mich bei mir selbst entschuldigen oder mir selbst verzeihen kann. 

Im Gegenteil, erforderlich ist ein Lernprozess während kindlicher Sozialisation, eine kluge mentale Beeinflussung von ratio und emotio, und die setzt, nota bene, Prägbarkeit voraus. Und eine solche Sicht kann einen wahrhaft bedeutsamen Zeugen anführen: "Darum muss man von der ersten Kindheit an [...] dazu angeleitet worden sein, über dasjenige Lust und Unlust zu empfinden, worüber man soll. Denn das ist die rechte Erziehung.", sagt Aristoteles20

 

Ohne Willensfreiheit, so der grundsätzliche Einwand, könne es letztlich kein geregeltes Miteinander der Menschen geben. Wer traut noch einem Versprechen, einer Abmachung? Wird nicht jeder Treueschwur zur Farce, wenn kein freier Wille dafür gerade steht?

Dagegen spricht, dass viele unserer Annahmen, unserer Verhaltensweisen gegenüber anderen, unserer politischen und ökonomischen Entscheidungen gar nicht möglich sind, wenn wir nicht von einem vorhersagbaren Verhalten des anderen ausgehen, und damit seinen freien Willen bestreiten: Keine Hochrechnungen bei Wahlen, überhaupt keine empirische Verhaltensforschung, keine Werbewirkung, kein Markt, dessen "unsichtbare Hand" Nachfrage und Angebot steuert,  keine Schule, keine Psychologie und keine  Politik, die von Prognosen über menschliches Verhalten leben, und letztlich kein Vertrag, der heute nicht auf Treu' und Glauben, vielmehr auf strafbewehrten Regeln fußt, ohne die Annahme, dass Menschen sich berechenbar, voraussagbar verhalten.

Kurz: es scheint, als könne es, im Gegenteil,  nur  ein gemeinschaftliches friedliches Zusammenleben geben, weil wir eben keinen freien, unberechenbaren  Willen haben.

 

Wenn wir den freien Willen wie folgt beschreiben: Er ist als Fixpunkt tief im Bewusstsein verankert, wir spüren ihn, auf seine Prädikate glaubt man keinesfalls verzichten zu können, man käme sich weniger wertvoll vor ohne ihn, er ist wichtiger Teil menschlichen  Selbstbildes als edelste Gattung, denn nur der Mensch kennt ihn,  ja, die Welt scheint einzustürzen ohne ihn, es scheint kein Halten mehr, wir fragen uns: "Irren wir nicht wie durch ein unendliches Nichts? Haucht uns nicht der leere Raum an?" 21 ohne ihn? Und doch beruht seine Existenz wesentlich darauf, dass man ihn nicht im strengen Sinne widerlegen kann, auch wenn sehr vieles gegen ihn spricht – wenn wir den freien Willen so beschreiben, dann wird sein religiöser Status deutlich.

Dann erinnert uns Kants  eigentliches Argument, die erlebte Willensfreiheit im Selbstverständnis als 'Beweis' ihrer  Existenz -  in seinen Worten: das "Bedürfnis der Vernunft [...] sich auf einen ersten Anfang aus Freiheit zu berufen" (III,312) - an einen mittelalterlichen Gottesbeweis: Weil wir uns nichts Höheres als Gott denken können, deshalb existiert er. Der Fehlschluss von der Idee auf die Existenz trifft dann auch den freien Willen.

Und dann sind vielleicht auch die Argumente der Religionskritik die wichtigsten gegen ihn. Er ist eine Projektion unserer Wünsche, ein unerlaubter Rückschluss von Prädikaten auf Existenz: Weil wir wünschen, uns über  Nöte und Neigungen hinwegsetzen zu können, glauben wir an eine Kraft, die uns das ermöglicht, und nennen sie 'freier Wille'. Wir spüren diese Kraft, den Willen, ganz so, wie wir religiöse Gefühle einer numinosen "Gemütsgestimmtheit"22 spüren, aber so wenig, wie sich aus diesen Gefühlen auf die Existenz Gottes schließen lässt, bedeutet die Erfahrung der wirkenden Kraft eines Willens, dass dieser frei sei.

Damit sind wir am entscheidenden Punkt. Wille und Freiheit sollten, wie einst in der Scholastik, wieder getrennt gedacht werden. Der Umstand, dass der Wille nicht bedingungslos frei ist, heißt nicht, dass es keinen Willen gibt. Diese schlichte Wahrheit war verstellt, weil wir den Willen stets als unbedingt-freien oder als nicht existent sahen. Befragen wir unser Inneres aber genauer, so ist es nicht eigentlich ein freier Wille, den wir als Wirkkraft spüren, sondern – ein Wille.

Wer auf seinem Willen beharrt, der ist in der Lebenspraxis nicht damit zu beeindrucken, dass man ihn darauf verweist, sein Wille sei nicht bedingungslos frei. Der Trinker, der unter größtem Willenseinsatz sich entwöhnt, wird gerne zugestehen, dass seine Sorgen um Gesundheit und Geist ihm geholfen haben.

Wir können also fragen: Was muss ein schwacher Begriff von Willensfreiheit mindestens voraussetzen, wenn er nicht völlig mit Handlungsfreiheit verwechselt werden will? Er muss mehr behaupten, als äußere Autonomie, d.h. mehr als den Umstand, dass ich frei bin, wenn ich von keinen äußeren Zwängen eingeschränkt werde. Denn sonst ist Willensfreiheit schlicht identisch mit Handlungsfreiheit. Er muss zumindest in irgendeiner Weise eine subjektive Urheberschaft für eine Handlung voraussetzen, die eindeutig einer Person zugerechnet werden kann, denn sonst könnte es schließlich auch Zufall sein, was zu einer Handlung führt. Dabei muss diese Zurechenbarkeit aber nicht davon ausgehen, dass schon die Entstehung einer Absicht eindeutig einer Person zugerechnet werden kann. Es reicht vielmehr hin, wenn der Beweis der Freiheit im Negativen und im Nachhinein erbracht wird. Eine Handlung kann dann als frei gelten, wenn eine Präferenz tatsächlich aufgegeben werden kann.23 Nur in diesem eingeschränkten Sinne ist ein Begriff von Willensfreiheit zu retten, der den wissenschaftlichen Erkenntnissen moderner Forschung standhält. Ein letztes Beispiel: Angenommen ich habe einerseits die Präferenz zu rauchen, andererseits die Angewohnheit, dies auch in meiner Wohnung zu tun. Wenn es mir nun nicht gelingt, das Rauchen aufzugeben aber es gelingt mir, nicht mehr in der Wohnung, sondern nur noch im Freien zu rauchen, so habe ich eben keinen freien Willen in Bezug auf das Rauchen bewiesen,  aber sehr wohl einen freien Willen in Bezug auf das Rauchen in der Wohnung.  

Was wir preisgeben, wenn wir den Willen von einem starken Freiheitsanspruch entkoppeln, ist die Kantische Dreieinigkeit von Wille, Vernunft und Moral. Als selbständige Kraft, die sich nicht in die Pflicht nehmen lässt, kann der Wille auch auf Unmoralisches gerichtet sein. Auch ein Diktator braucht Willensstärke. Aber es macht keinen Sinn, das zu bestreiten, indem wir seine Fähigkeit, von seinen Neigungen abzusehen, nicht als freien Willensentschluss anerkennen, sondern diesen nur jenen zugestehen, die auf Moralisches zielen.

 

Wie nennen wir die Entsagungskraft, wenn nicht Wille?

Was wir gewinnen, wenn wir den Willen als Wirkkraft ohne unbedingten Freiheitsanspruch fassen, löst hingegen viele Probleme.

Wir können den Willen weiterhin verstehen als sicher erlebte Kraft, die zu unserem Selbstverständnis gehört. "im Willen selbst", sagt Descartes, "hat man keine Falschheit zu befürchten; denn möchte ich etwas noch so Verkehrtes, [...] so bleibt es dennoch wahr, dass ich es will."24  Wir können ihn als Überwindungs- und Entsagungskraft sehen, als Energie, die unsere lässlichen Neigungen niederhält, und uns zu entsagungsreichen Leistungen befähigt, mithin als Kraft, die uns adelt, ganz so, wie Kant den Willen gesehen haben will. Die Alternative heißt ja nicht: Kant oder Nietzsche, freier Wille als vernunftgesteuerte Selbstverpflichtung oder triebhafte Kraft zur rücksichtslosen Durchsetzung meiner Macht- und Liebesgelüste. Tertium datur: Bewusster Wille als Fähigkeit, die eigenen Gelüste und Bequemlichkeiten zu durchschauen und zu unterdrücken -  aus welchem Motiv auch immer.  

Und zugleich können wir dem Stand der Forschung Rechnung tragen, indem wir zugestehen, dass dieser Wille sich auch aus unbewussten Antrieben speist, dass aktuelle, bewusste Neigungen hintangestellt werden, auch weil unbewusste stärker wirken. Die Willensstärksten sind dann vielleicht die Getriebensten. Aber schmälert das ihre Leistungen im Absehen von den kleinen Begehrlichkeiten?

 


[1] Peter Bieri, Das Handwerk der Freiheit, München, Wien 201, S. 230 ff.

[2] Jürgen Habermas in: FAZ 15. 11. 2004: "Um uns als Selbsttäuscher zu entlarven, bedarf es mehr"

[3] Ebd.

[4] Ebd.

[5] Ebd.

[6] Harry Frankfurt, Freiheit und Selbstbestimmung, hrsgg. von M. Betzler und B. Guckes, Berlin 2001, S. 53-64.

[7] Zahlreiche Beispiele in: Daniel Wegner, The Illusion of concious Will, Cambrigde 2002.

[8] Michael Pauen, Illusion Freiheit, Frankfurt/Main 2004, S. 120.

[9] Vgl. Z.B. G.E. Moore, Freier Wille, in: U. Pothast, Hg., Seminar: Freies Handeln und Determinismus, Frankfurt/M. S. 142 ff.

[10] John Searle, Freiheit und Neurobiologie, Frankfurt/M. 2004, S. 39.

[11] Donald Davidson, Essays on Actions and Events, Oxford 1980, S. 30 f.

[12] Antonio Damasio, Descartes Irrtum, München 2001, S. 328 ff.

[13] O. Höffe bestreitet, dass Kant in dieser Frage einen Dualismus vertritt und sieht ihn als Vertreter eines "Substanzmonismus":    

  O. Höffe, Kants Kritik der reinen Vernunft, München 2003, S. 231f.

[14] Dies gilt auch für die Annahme von analytischen und synthetischen Urteilen a priori, vielleicht mit Ausnahme von reinen mathematischen Gesetzen: Ein freier Wille, der sich nur im mathematischen Denken manifestieren kann?

[15] Vgl. Arnold Gehlen, Der Mensch, seine Natur und seine Stellung in der Welt, Wiesbaden 1986.

[16] Vgl. A. Damasio, Descartes Irrtum, a.a.O.  Kap. 8 u. 9, S. 227-297.

[17] Ebd. S. 239

[18] R. Merkel im Interview der Zeitschrift Geo, Geowissen 2003, S. 78

[19] Vgl. etwa: Berliner Zeitung, 15. 04. 2003.

[20] Vgl. Michael Pauen, Illusion Freiheit, a.a.O. S. 196 ff. Dort auch eine aktuelle Kritik der Libet-Experimente.

14 Gerhard Roth, Fühlen, Denken, Handeln, Frankfurt a.M. 2001, S. 438.

15 Gerhard Roth, Aus Sicht des Gehirns, Frankfurt/M. 2003, S. 180.

16 Zit. nach: H.J. Heinrichs: Das Paradigma der Hirnforschung 2, DLF-Köln, Sendemitschnitt, 30. 05. 04, S. 9.

17 Friedrich Nietzsche, Götzendämmerung, Sämtliche Werke Band 6, Kritische Studienausgabe, hrsgg. von G. Colli,

    M. Montinari, München 1980, S. 95.

18 Judith Butler, Kritik der ethischen Gewalt, Frankfurt/M. 2003, S. 10.

19 ebd. S. 54, 56.

20 Nikomachische Ethik, 1104b.

21 Friedrich Nietzsche, Die fröhliche Wissenschaft, Aph. 125: Der tolle Mensch, s. Anm. 13, Band 3, S. 481.

22 Vgl. Rudolf Otto, Das Heilige, München 1917.

23 Ich folge hier der Bestimmung eines schwachen Begriffs von Freiheit bei M. Pauen, Illusion Freiheit, a.a.O. S. 82ff.

24 Rene Descartes, Meditationen, Übersetzt und herausgegeben von Lüder Gäbe, Hamburg 1959, S. 65.

Klaus Goergen

KURZE GESCHICHTE DER RELIGIONSKRITIK

(2005)

 

 Schon daß ich jemanden das Daseyn Gottes

diskutiren sehe, erregt in mir eine so sonderbare

Angst, eine so unheimliche Beklemmung, wie ich sie

einst in London empfand, als ich, umgeben von lauter

Wahnsinnigen, meinen Führer aus den Augen verlor.

 (H. Heine, Religion und Philosophie in Deutschland)

 

In einer bis zum Überdruss auf- und abgeklärten Welt sollte man meinen, das Thema Religionskritik sei bestenfalls noch von historischem Interesse. "Für Deutschland ist die Kritik der Religion im Wesentlichen beendigt"[1] stellt Marx nach seiner Feuerbach-Lektüre vor 160 Jahren fest; "Gott ist tot"[2] sagt Nietzsche vor 120 Jahren und will damit auf die Geschichtlichkeit des Phänomens Religion verweisen.[3] Und heute stellt Herbert Schnädelbach fest, dass selbst der Atheismus "nicht einmal mehr ein Thema ist. [...] Unsere Kultur ist nicht nur post-christlich, sondern auch post-atheistisch."[4]

Aber dann höre ich innerhalb einer Woche: in den USA gelingt  George W. Bush die Wiederwahl, weil er die christlich-fundamentalistischen Wähler als strikte Gegner homosexueller Beziehungen  mobilisieren konnte, in China gibt es viele Tote bei religiösen Auseinandersetzungen zwischen buddhistischen Sekten, in Holland brennen abwechselnd Kirchen und Moscheen, nachdem ein muslimischer Fanatiker einen islam-kritischen  Regisseur ermordet hat, in Berlin kursieren Blanko-Entschuldigungen für muslimische Schülerinnen, darin heißt es: "Wir bescheinigen hiermit, dass die Beteiligung an einem koedukativ veranstalteten Schwimmunterricht nach dem Islam unerlaubt ist. Muslima dürfen sich ohne islamische Bekleidung auch untereinander nicht sehen lassen"[5], in Stuttgart dürfen zwar christliche Nonnen in Tracht, muslimische Lehrerinnen aber nicht mit Kopftuch unterrichten, und in Köln jubeln Hunderttausende Jugendliche einem neuen Papst zu.

Soll nun aus diesem Widerspruch ein  Anlauf zur Religionskritik begründet werden, so sind wir schon mitten im verminten Disput: Ist das offenkundige Fortbestehen von Religiosität, trotz aller Kritik, nicht ein deutliches Zeichen dafür, wie stark sie im Selbstbewusstsein verankert, wie sehr sie Teil der Identität vieler Menschen und Fixpunkt ihrer Lebensorientierung ist? Oder ist dieses Fortleben nicht vielmehr Ausdruck aufklärungsresistenter Verstocktheit, kognitiver Unzugänglichkeit und Verlustangst gesteuerter Neurose der Gläubigen? In dieser Weise betreiben Religionskritiker und Theologen ein endloses Katz-und Maus-Spiel. Auf jede Kritik reagiert die Theologie mit einer Revision ihres Glaubens- und Gottesbegriffs, alle Einwände stärken nur die Ausflucht in den unbegreiflichen Gott.[6]

 

DEFINITIONEN UND FUNKTIONEN

Die Schwierigkeiten der Religionskritik beginnen bereits beim Begriff, die Teile des Kompositums müssen vorab definiert werden. Ein Religionsbegriff, der eine möglichst umfassende und angemessene Kritik erlauben soll, darf nicht zu eng sein, um die ganze Bandbreite historischer und aktueller Formen von Glaubensinstitutionen,  die Innen- und Außenperspektive religiöser Bedürfnisse und die ganze Ambivalenz der unterschiedlichen Funktionen von Religionen zu fassen. Er darf nicht zu weit sein, damit Religion unterscheidbar bleibt von anderen Kulturphänomenen, von anderen ideologischen Systemen und von nur privatem Glauben. In diesem Sinne soll Religion verstanden werden als Phänomen, das vier Aspekte umfasst:

1. Religion als Vollzug von Gemeinschaftshandlungen, die den Alltag, die persönliche Lebens- und die Erfahrungswelt von Gruppen ordnen.

2.  Religion als Sinngebungs- und Orientierungssystem unter Verwendung vorgefasster ideologischer 'Glaubensangebote'. 

3. Religion als persönliche und interpersonelle Erfahrung und Ausdrucksform, die ästhetische, mystische  und moralische Bedürfnisse artikulieren und konkretisieren.

4. Religion als soziokulturelles Subsystem.[7] 

Mit einer solchen Definition von Religion ist der Besuch eines Gottesdiensts noch von einem Opernbesuch, die "Caritas" noch von "terre des hommes" und der Gotteskrieger noch vom säkularen Söldner zu unterscheiden, wenn erst alle vier Elemente zusammen als konstitutiv für eine religiöse Handlung oder Institution gelten.

Was unter Kritik von Religion verstanden werden soll, muss ebenfalls konkretisiert werden.

Zu unterscheiden sind insbesondere immanente und radikale Kritik, nur die letztere ist atheistisch und bestreitet die Existenz eines übernatürlichen Wesens, die Geschichte der Religionskritik ist, bis heute, allerdings überwiegend immanente Kritik. Zu unterscheiden ist ferner die Kritik religiöser Praxis von jener religiöser Theorie. Die "Kriminalgeschichte des Christentums" entlarvt nur die mörderische Praxis einer Kirche und ihrer Diener, trifft aber nicht "das Wesen des Christentums";  wer muslimische Unterdrückung von Frauen, islamischen Patriarchalismus und aggressiven Fanatismus  kritisiert, kann immer noch sagen: 'Allahu akbar'.

Allerdings: die radikale, theoretische Kritik seziert mit kühlem Kopf und philosophisch-kaltem Verstand die Unvernunft des Glaubens, die immanente oder praktische Kritik hingegen entrüstet sich mit heißem Herzen und lebensweltlicher Vernunft über die Barbarei und Sophisterei kirchlicher und religiöser  Praxis. Und letztlich sind es  die Praxis und die Macht der religiösen Institutionen, die Religionskritik legitimieren und notwendig machen. Die Gemeinden der UFO-Gläubigen, Sonnenanbeter und Sterndeuter hingegen werden belächelt. Ihre Harmlosigkeit lohnt nicht der Kritik.

 

IMMANENTE RELIGIONSKRITIK

Ob am Anfang immanenter Kritik die intra- oder die interreligiöse stand, ist nicht präzise aus-zumachen. In einer frühen chinesischen Redewendung heißt es: 'Die drei sind eins', womit auf die großen Parallelen zwischen älterem Taoismus, Konfuzianismus und Buddhismus verwiesen wird. Und doch bekämpfen sich die Anhänger Laotses, Konfuzius' und Buddhas bis heute. Die drei sind eins – das könnte nicht minder gelten für die drei monotheistischen Religionen Judentum, Christentum und Islam – und doch bekämpfen sich die Anhänger Moses, Jesus und Mohameds bis heute.   Jedenfalls hat sowohl die Kritik der Religionen aneinander als auch jene der verschiedenen Glaubensrichtungen und Konfessionen untereinander eine lange Tradition. Und ganz wie im weltlichen Streit bekanntermaßen nie so insbrünstig gehasst und gekämpft wird  wie innerhalb der Familie, ist die wechselseitige Kritik der Gläubigen die unerbittlichste. Ganz sicher hat sie mehr Opfer gefordert als alle Kritik von Atheisten. Zu Recht ist bemerkt worden, dass auch Sokrates und Jesus schließlich frühe Opfer von religiösem Zwist  waren. 

Dass der Streit zwischen Muslimen und Christen seit je der blutigste ist, das ist zuerst eine Folge des Missionsauftrags, und damit des Toleranzverbots, den nur diese beiden Religionen explizit kennen, sowie  des Endgültigkeitsanspruchs, der  für die Christen wie  für Muslime  gilt.

Die strikte Betonung des Monotheismus im Islam war zwar ursprünglich gegen den altarabischen Polytheismus gerichtet, dem Mohamed selbst entstammte[8], wurde aber bald gegen die christliche Trinitätslehre  gewendet. In der Ablehnung eines "eingeborenen Sohns", eines Wiedergängers des frühen Zweimal-Geborenen, Dionysos, der sich, wie jener, als Erlöser feiern lässt, sind sich Muslime und Juden einig. "Ungläubig sind jene, die sagen, Gott ist der Dritte von Dreien, wo es doch keinen Gott gibt außer einem einzigen Gott." (Sure 5, 73). Aussagen dieser Art ziehen sich durch den ganzen Koran. Jesus wird als Prophet, als Vorläufer Mohameds gleichsam, anerkannt, die 19.  Sure ist gar Maria als seiner jungfräulichen  Mutter gewidmet[9], aber Jesus als Gottessohn, sein Tod als Erlösung für die Sünden aller Menschen, das muss Juden wie Muslimen als christliche Anmaßung erscheinen.

Umgekehrt sehen die Christen die Muslime anfangs als christliche Häretiker, die, sei es  aus Unvernunft oder  aus Böswilligkeit, die Botschaft des NT nur unzulänglich verstehen. Noch Franz von Assisi versucht bei Missionsreisen in den Orient, die Fehlgeleiteten auf den rechten Weg des Herrn zurückzuführen. Erst bei Thomas von Aquin werden die Muslime zu "Ungläubigen", denen er nicht nur die   Leugnung  der Gottessohnschaft Jesu und seines Kreuztodes   vorwirft, sondern auch ihre strenge "Prädestinationslehre", nach der für den von Allah gelenkten Menschen keine Handlungsfreiheit bleibt. Im späteren MA  werden die christlichen Vorwürfe an die Muslime dann erweitert: Es gebe keine Wundertätigkeit  Mohameds, die seine religiöse Autorität beglaubigen könnte, sein unsittlicher Lebenswandel widerspreche seinen Botschaften, der Koran sei tautologisch, nichtssagend und obszön, seine Vorstellungen vom Paradies seien falsch und ohnehin  sei die Glaubenspraxis der Muslime gegen alle Vernunft.[10]

Der Türke "ist Gottes rute und des Teuffels diener, das hat keinen Zweifel"[11], so urteilt Martin Luther in seiner Schrift "Vom Kriege widder die Türcken". Sie stammt aus jenem Jahr, 1529, in dem die osmanische Eroberung Osteuropas bis vor Wien vorgedrungen war und ist damit Ausdruck der damals verbreiteten Angst vor der "Türkengefahr". Aber das ist eine ganz weltliche Angst, und entsprechend will Luther den Kampf gegen den Islam auch der weltlichen Herrschaft überlassen. Ein Krieg im Zeichen des Kreuzes widerspricht seiner Meinung nach dem Friedensgebot des NT. Das ist immerhin ein Fortschritt gegenüber den Kreuzzügen, die bis dahin innerhalb der christlichen Kirche religiös begründet wurden.

Aber es stritten und streiten beiliebe nicht nur Muslime mit Christen. In Kaschmir stehen heute Muslime gegen Hindus, in Nahost gegen die Juden; in China kämpfen Buddhisten gegen   Taoisten, in Indien Hindus gegen Sikhs und in Mexiko Christen gegen Anhänger von Naturreligionen. Religiöser Glaubensstreit ist bis heute eine wesentliche Quelle für Konflikte und Kriege auf allen Kontinenten.

 

Die intrareligiöse Kritik beginnt meist unmittelbar nach der Etablierung einer neuen Religion. Die erste Sezession unter Christen beginnt bereits im 4. Jahrhundert, und zwar über eben jenen Streitpunkt, der auch Muslime und Christen trennt, nämlich die Frage nach der Göttlichkeit Jesus. Die Neoplatoniker, später die Nestorianer verlassen die Kirche, weil sie Jesus zwar als Gottessohn, nicht aber selbst als göttlich anerkennen wollen. Der Dissens führt schließlich, im 9. Jhd. zum 'großen Schisma', der Trennung in eine griechisch-byzantinisch-orthodoxe und eine lateinisch-römisch-katholische Kirche. Die weiteren Kirchenspaltungen, insbesondere die von Luther provozierte, erweitern auch die innerchristliche Kritik. Die Stichworte heißen: Kritik des katholischen Dogmatismus und  Unfehlbarkeitsanspruchs, Kritik von Zölibat und Ablasshandel, Kritik des katholischen Patriarchalismus und der Basisferne, Kritik von Marien- und Heiligenkult. Auf der anderen Seite: Kritik protestantischer Körper- und Lustfeindlichkeit, Kritik der Staatshörigkeit und der protestantisch-calvinistischen Arbeitsethik.[12]

So wie die christlichen Kirchen neben der Dreiteilung eine Vielzahl von weiteren Glaubensrichtungen,  Gemeinschaften und Untergruppen kennen – schließlich verstehen sich auch die Mormonen, trotz aller Polygamie und die Herrenhuter Sekten mit ihren bizarren Bräuchen als Christen – gibt es auch im Islam neben den großen Konfessionen von Sunniten und Schiiten, die über die Rechtmäßigkeit der Nachfolger Mohameds einen blutigen Streit führen, eine große Zahl weiterer Richtungen und Bekenntnisse. So streiten die verschiednen schiitischen Gruppen etwa darüber, ob nun der fünfte, sechste oder zwölfte Imam der letzte rechtmäßige Nachfolger Mohameds sei.

Für die hohe Zeit immanenter Religionskritik, inter- wie intrareligiöser, die Zeit zwischen der 'Reconquista' Spaniens im 13. Jhd., den osmanischen Kriegszügen nach Osteuropa im 16. und dem 30-jährigen Krieg im 17. Jahrhundert, die auf der einen Seite unter der Parole: "kämpfet wider sie, [...] bis alles an Allah glaubt" (Sure 8,40) und auf der anderen unter dem Befehl: "Taufe oder Tod" mit  Schwert,  Folter und Vertreibung ausgetragen wird, ist der Begriff 'Kritik' allerdings eine arge Verharmlosung.

 

Eine neue und nun weniger gewalttätige Stufe erreicht die Religionskritik im Zuge der Aufklärung und ihrer rationalistischen Orientierung, nun allerdings nur noch innerhalb der christlich-jüdischen Welt. Es ist oft bemerkt und neuerdings auch bedauert worden, dass die anderen Weltreligionen, insbesondere der Islam, bisher nie einer rationalistischen Kritik ausgesetzt waren und sich einer modernen wissenschaftlichen Analyse weitgehend entzogen. Die Ansätze zu einer historisch-kritischen Islamforschung stammen allesamt von westlich-christlichen Forschern,[13] und die wichtigsten atheistischen Religionskritiker entstammen dem Juden- oder Christentum.

Die Aufklärung kritisiert nun an der Religion all das, was vor der Vernunft keinen Bestand hat. Dabei setzt sie am Naheliegenden an, den Wundern und Ungereimtheiten im religiösen Glauben. In einem satirisch-utopischen Roman z. B.:  "Reise eines Erdbewohners in den Mars" aus dem Jahr 1790 fällt der Held in die Hände eines Marsstaats, der unschwer als christlicher Staat erkennbar wird. Im Gespräch mit einem Priester werden nun all die Seltsamkeiten von Jungfrauengeburt, Dreifaltigkeit, Abendmahl, Erlösertod und Auferstehung als unvernünftig entlarvt. Doch als die Gäste beim Priester kritisch nachfragen, empört er sich: "Ketzer! Gotteslästerer! Ergreift sie! Werft sie hinaus! Steiniget sie!"[14]  Die Flüchtenden ziehen dann ein Fazit ihrer Begegnung mit dem Christentum: "Wir fanden in allem, was uns der Pfaffe gesagt hatte, nichts als die gröbsten Widersprüche und die plumpste Unvernunft. [...] Wir konnten nicht begreifen, wie man all dies Gespinnste eines verrückten Gehirns für heilig und ehrwürdig halten konnte [...] und unser Resultat war: daß wir im Lande der Verrückten wären".[15]

Mitunter genügte es schon, zentrale Aussagen christlicher Religion in knapper Form wiederzugeben, um sie als blasphemische Beleidigung zu empfinden. So etwa in einem Aphorismus Schopenhauers, den er "Gespräch anno 33", das Todesjahr Jesus, nennt:

"Wissen Sie schon das Neueste?

– Nein, was ist passiert?

- Die Welt ist erlöst.

– Was Sie sagen.

- Ja, der liebe Gott hat Menschengestalt angenommen und sich in Jerusalem hinrichten lassen; dadurch ist die Welt nun erlöst und der Teufel geprellt.

- Ei, das ist ja charmant."[16]

 

Diese Art von Religionskritik, die religiöse Glaubensinhalte mit vernünftigen oder moralischen Maßstäben kritisiert, ist bis heute die weitaus häufigste und geläufigste Kritik. So scharf sie im Einzelnen vorgetragen wird, sie bleibt doch immanente Kritik in dem Sinne, dass sie mit religiösen Kreaturgefühlen gegenüber einem Numinosen[17] vereinbar bleibt.

Noch im Jahr 1998 lesen wir in einem "Brief an Jesus", verfasst von einem evangelischen Theologie-Professor: "So, Herr Jesus. Schluss mit all dem. Ich halte die total verfahrene Lage von Theologie, Kirche und Bibel nicht mehr aus. Bleibe Du dort, wo Du bist, im Galiläa des ersten Jahrhunderts. Dann bist Du wieder viel glaubwürdiger als charismatischer Exorzist und Lehrer von Rang und wir können dann wieder in  ein normales Verhältnis zu Dir treten, wie wir es zu anderen maßgeblichen Menschen der Antike, wie Buddha, Konfuzius und Sokrates auch haben."[18]  

Aber moderne Theologen haben längst gelernt, diese Arten von Kritik zu parieren durch Literarisierung, Symbolisierung, Spiritualisierung und Verdünnung biblischer Aussagen und kirchlicher Glaubenssätze. Ja, vermutlich hätten die Religionen längst weniger Anhänger, würden die 'heiligen Schriften' nicht permanent von professionellen Auslegern dem Zeitgeist und dem Wissensstand angepasst.

 

VON FEUERBACH BIS FREUD: RADIKALE RELIGIONSKRITIK

Im Zuge der Französischen Revolution verbindet sich rationalistische Religionskritik mit aggressiver Kirchenkritik. Die Kirche war im Lauf der Jahrhunderte so eng mit dem absolutistischen Herrschaftssystem verwoben,  Adel und Klerus so untrennbar geworden, dass die allgemeine Rebellion gegen die Unterdrückung sich nun auch gegen die Vertreter der Kirche wendet. Die Entchristiansierung Frankreichs kostete nicht nur Tausende von Priestern und Mönchen das Leben, sondern man versuchte auch, die Spuren des Christentums in Kultur und Alltag zu tilgen. Christliche Zeitrechnung und Feiertage wurden durch revolutionäre ersetzt, die Kirchen und Klöster geschlossen, das Zölibat aufgehoben, Priester zwangsverheiratet. Mit dem "Fest des höchsten Wesens", versinnbildlicht in einer  'Göttin der Vernunft', sollte das religiöse Vakuum gefüllt und ein eigener revolutionärer Kult etabliert werden. Die  Verunglimpfung religiöser Symbole diente als inszenierter Tabubruch, um christliche Tradition der Lächerlichkeit preiszugeben. Stefan Zweig berichtet von einem solchen Schauspiel, das 1793 in Lyon von Joseph Fouché, dem ehemaligen Priester und jetzigen radikalen Jacobiner inszeniert wurde: "...eine lärmende Rotte schleppt im Triumph...die aus den Kirchen geraubten Meßgefäße, Kelche, Ziborien und Heiligenbilder heran; hinter ihnen trottet ein Esel, dem man eine gestohlene Bischofsmitra über die Ohren gestülpt hat. An seinen Schweif haben sie ein Kruzifix und die Bibel gebunden – so pendelt am hellichten Tag zum allgemeinen Gaudium das Evangelium an einem Eselsschwanz im Straßendreck. [Es] wird ein großer Scheiterhaufen entzündet. Ernst sieht [...] Fouché zu, wie das Evangelium vom Eselsschweif abgeschnitten und ins Feuer geworfen wird, um dort inmitten der angefachten Lohe aus Kirchengewändern, Meßbüchern, Hostien und Holzheiligen in Rauch aufzugehen. Dann läßt man noch den grauen Vierfüßler aus einem heiligen Kelche trinken als Belohnung für seinen blasphemischen Dienst."[19]

Solche wütenden Ausbrüche von Kirchenhass blieben aber historische Episode und wurden, wie vieles aus der Französischen Revolution in der folgenden Restaurationsphase rasch wieder zurückgedrängt. Aber auch wenn die Entchristianisierung damals nicht nachhaltig sein konnte, weil sie weit über den historischen Auftrag dieser bürgerlichen Revolution hinausschoss, sie gehört doch zum Nährboden der radikalen, atheistischen Religionskritik, die kaum 50 Jahre später beginnt.

Dabei ist es  erstaunlich,  wie innerhalb ganz weniger Jahre eine Reihe von Hegelianern alle wichtigen Werke radikaler philosophischer Religionskritik hervorbringen, sodass am Ende eines Jahrzehnts Religion als historisches Phänomen vollkommen entzaubert ist.

 

1835 untersucht David Friedrich Strauß in das "Leben Jesus" die literarischen Quellen des Christentums und zeigt, dass der historisch belegbare Jesus ein anderer ist als der Christus des Glaubens. Letzterer ist nur eine mythologische, irreale Gestalt.

Bruno Bauer gelangt in seinen textkritischen Arbeiten zum AT "Kritik der Geschichte der Offenbarung" (1838) und zum NT "Kritik der evangelischen Geschichte der Synoptiker" (1841/42) zu der Einschätzung, dass die Evangelien reine literarische Produkte der Evangelisten sind. Was im NT steht, ist literarische Erfindung, entspringt dem Selbstbewusstsein der Verfasser und ist keineswegs Überlieferung von Offenbarungen eines Gottes. Letztlich gelangt er zur Überzeugung, dass es selbst eine historische Figur Jesus nie gegeben habe. Die genealogischen Analysen erweisen das Christentum als eine der "großen Erzählungen", ihre Glaub-Würdigkeit entspricht jener anderer fiktiver Werke der Weltliteratur.

 

Ludwig Feuerbach kann in seinem Hauptwerk "Das Wesen des Christentums" (1841) hier anknüpfen. Wenn die Evangelien das Produkt des Selbstbewusstseins der Evangelisten sind, dann ist kein weiter Schritt zu der Einsicht: "Jedes Wesen hat seinen Gott, sein höchstes Wesen in sich selbst. Preisest Du die Herrlichkeit Gottes, so preisest Du die Herrlichkeit des eigenen Wesens."[20]  Wenn mithin Feuerbach den Schöpfungsprozess umkehrt, nicht Gott den Menschen, vielmehr dieser seinen Gott schafft, "alle Bestimmungen des göttlichen Wesens" sagt er, "sind menschliche Bestimmungen."[21], so ist es ein starkes Argument, wenn er genealogisch zeigen kann, dass der historische Wandel der Götter- und Gottesbilder dem Wandel der menschlichen Kultur und Selbstbilder vollkommen entspricht. Die früheren Religionen werden von den späteren als Götzendienst betrachtet, oder, positiv gewendet: "Jeder Fortschritt in der Religion ist daher ein tieferes Selbstverständnis."[22] Wir werden noch sehen, dass Nietzsche dieser positiven Sichtweise eines religiösen Fortschritts von antikem Polytheismus zu neuzeitlichem Monotheismus heftig widerspricht. Einen eindrucksvollen Beweis für Feuerbachs These von der Denunziation früherer Religionen durch spätere liefert, 100 Jahre nach Feuerbach, Karl Barth. Zuerst stimmt er Marxens Einschätzung von Religionen als Phänomen des "ideologischen Überbaus" ausdrücklich zu, um dann fortzufahren: "Aber das Christentum ist keine Religion. [...] Man kann sich die Augen nicht davor verschließen, daß es  hier im Unterschied, ja Gegensatz zu allen Religionen nicht um einen Aufbruch des Menschen zu Gott, sondern um einen Aufbruch Gottes zum Menschen hin geht."[23] Die Christenmenschen, so Barth, würden vom Erscheinen Gottes "überrascht", nicht sie erschaffen sich ihre Götzen, sondern der eine Gott erscheint ihnen.

Nun ja, Feuerbach kann uns erklären, was hier passiert: "Jede bestimmte Religion, die ihre älteren Schwestern als Götzendienerinnen bezeichnet, nimmt sich selbst [...] von dem Schicksal, dem allgemeinen Wesen der Religion aus; sie schiebt nur auf die andern Religionen, was doch ... die Schuld der Religion überhaupt ist. Weil sie einen anderen Gegenstand, einen andern Inhalt hat, weil sie über den Inhalt der früheren sich erhoben, wähnt sie sich erhaben über die notwendigen und ewigen Gesetze, die das Wesen aller Religion konstituieren, wähnt sie, daß ihr Gegenstand, ihr Inhalt ein übermenschlicher sei."[24]

Feuerbach argumentiert aber nicht nur genealogisch, sondern auch anthropologisch und logisch. Der logische Fehler des Gläubigen besteht in der Verwechslung bzw. Gleichsetzung von Prädikaten und Existenzbehauptung. Weil  Menschen gewohnt sind, Prädikate an eine Existenzbehauptung  zu binden, fällt uns nicht auf, dass in dem Satz "Gott ist allmächtig" zwei Behauptungen stecken. Die Existenzbehauptung, 'Gott existiert', gilt uns als selbstverständliche Voraussetzung der Prädikatsbehauptung, er sei allmächtig, obwohl sie in Wirklichkeit nur eine Folge der Prädikate ist.[25] Die Idee der Allmacht sucht sich eine Existenz, der sie angehaftet werden kann.  Da nun aber die Gott zugeschriebenen Prädikate, nämlich weise, gütig, allwissend, gerecht etc. zu sein, in Wirklichkeit nichts anderes sind als menschliche Ideale, Prädikate eines idealisierten Menschen, ist die Behauptung einer göttlichen Existenz nur eine Projektion unseres Selbstbewusstseins. Lernen die Menschen diesen Trugschluss zu durchschauen, so werden die Gott zugeschriebenen Prädikate wieder frei, können als menschliche Ideale wieder ihre utopische Kraft geltend machen und  zu Zielen einer humanen Lebensführung werden.  Das ist der ethische Kern der Feuerbachschen Kritik:  Ein wahrer Humanismus kann sich erst entfalten, wenn die göttlichen Prädikate wieder zu menschlichen Zielen werden.

In diesem Sinne versteht sich Feuerbach auch nicht als konsequenter Atheist: "ein wahrer Atheist", sagt er," ist daher auch nur der, welchem die göttlichen Prädikate, die Liebe, die Weisheit, die Gerechtigkeit nichts sind, aber nicht der, welchem das Subjekt dieser Prädikate nichts ist."[26]

 

Diesen letzten Schritt, nicht nur die Existenz, sondern auch die Prädikate Gottes als sinnvolle humanistische Ziele zu negieren, unternimmt dann, nochmals drei Jahre später, Max Stirner in seinem provokanten, von der preußischen Zensur sofort verbotenen Werk "Der Einzige und sein Eigentum", (1844), in dem er das Hohelied des puren Egoismus singt.  Hier klingt bereits das Programm des Nihilismus an, das Nietzsche dann aufgreift und vertieft.[27] Stirner schreibt: "Das Göttliche ist Sache Gottes, das Menschliche Sache 'des Menschen'. Meine Sache ist weder das Göttliche noch das Menschliche, ist nicht das Wahre, Gute, Rechte, Freie usw., sondern allein das meinige, und sie ist keine allgemeine, sondern ist – einzig, wie ich einzig bin. Mir geht nichts über mich!"[28]

Ethisch gesehen wird hier allerdings das Kind mit dem Bade ausgeschüttet.  Und natürlich  verwiesen Theologen gerne darauf, hier zeigten sich die moralischen Konsequenzen der Preisgabe des Gottesglaubens: Sei erst die Achtung vor dem Höchsten dahin, so sei  eben kein weiter Weg mehr zum Niedrigsten des blanken Egoismus und der Unmoral.

 

Aber im selben Jahr, in dem Stirners Manifest des Egoismus erschien, erscheint auch ein anderes Werk, in dem nun ganz andere Konsequenzen aus der Feuerbachschen Religionskritik gezogen werden.

Karl Marx zeigt in der Einleitung zur "Kritik der Hegelschen Rechtsphilosophie", (1844) die praktischen politischen Konsequenzen der radikalen Religionskritik und bettet sie zugleich ein in die allgemeine Kritik der 'Überbauphänomene' von Staat, Recht und Kultur. In dreifacher Hinsicht ergänzt und konkretisiert  er die Kritik Feuerbachs, und zwar ganz im Sinne seines allgemeinen Programms der Kritik des Hegelianismus, den er von seinem idealistisch-philosophischen Kopfstand auf die materialistisch-politischen Beine stellt.

Er liefert, erstens, das bei Feuerbach fehlende Motiv dafür, warum die Gläubigen sich ihre Ideale – unbewusst – in den Himmel projizieren: "Dieser Staat, diese Sozietät produzieren die Religion, ein verkehrtes Weltbewusstsein, weil sie eine verkehrte Welt sind."[29] Das religiöse Bewusstsein ist entfremdetes Bewusstsein in einer entfremdeten Welt.  In dieser erfindet sich nicht der einzelne Gläubige seine Glaubensinhalte, sondern diese werden ihm im Ganzen vermittelt.

Er zeigt, zweitens, die Folgen und Funktionen der Religiosität für den Einzelnen: Sie ist der "Trost- und Rechtfertigungsgrund [...] einer herzlosen Welt"[30]. Sie hilft, das irdische Jammertal zu durchstehen und verhindert damit zugleich die Bereitschaft zur Rebellion.

Das ist die Dialektik von Trost und Vertröstung, von abstrakter Verheißung und konkreter Hoffnung.

Er zeigt, drittens, dass die Religionskritik als Katalysator für die allgemeine Kritik  herrschender Zustände dient:  - "Die Kritik des Himmels verwandelt sich in die Kritik der Erde, die Kritik der Religion in die Kritik des Rechts..."[31] - und damit als Voraussetzung für eine reale revolutionäre Veränderung der Gesellschaft.

Anders als für den Philosophen Feuerbach, für den Religionskritik eine intellektuelle Herausforderung war, ist sie für den Revolutionär Marx Herzenssache. Seine revolutionäre Ungeduld leidet an der religiösen Duldsamkeit, der schaffrommen Ergebenheit der  entfremdeten Gläubigen.

 

Friedrich Nietzsche verbindet dreißig Jahre später beides und dazu die Lust am bösen Spott über die "Hinterwelt" der religiösen Theorie  und das Verlogene der religiösen Praxis. Religionskritische Bemerkungen, nie eine zusammenhängende Darstellung, finden sich, überwiegend in aphoristischer Form, im gesamten Werk Nietzsches. Mit zunehmendem Alter werden die Aphorismen böser und ressentiment-geladen, besonders gegenüber dem Christentum. Im Gegensatz zu den 'vornehmen' Religionen der griechischen Antike, so Nietzsche, negiere das Christentum alles Ästhetische, sei weder appolinisch noch dionysisch, vielmehr eine barbarische Religion: "Mit jeder Ausbreitung des Christentums über noch breitere, noch rohere Massen, denen die Voraussetzungen immer mehr abgiengen, aus denen es geboren ist, wurde es nötiger, das Christenthum zu vulgarisieren, zu barbarisieren, - es hat Lehren und Riten aller unterirdischen Kulte des imperium Romanum, es hat den Unsinn aller Arten kranker Vernunft in sich eingeschluckt."[32] "Das Christenthum" sei "der Vampyr des imperium Romanum"[33] heißt es im späten Werk "Der Antichrist".

Im direkten Widerspruch zu Feuerbachs Sichtweise einer Höherentwicklung des Gottesbilds  mit der Zunahme der Selbsterkenntnis der Menschen steht aber schon Nietzsches Sicht im frühen Werk "Menschliches, Allzumenschliches", etwa in seinem Aphorismus "Das Ungriechische im Christenthum". "Der Mensch denkt vornehm von sich", heißt es hier, "wenn er sich solche Götter giebt"[34], wie es die Griechen mit ihren Göttern taten, die als Spiegelbild der edelsten und besten Exemplare der eigenen Gattung erscheinen -  im Gegensatz zu den Christen, die in einem Knechtschaftsverhältnis zu ihrem Gott stehen, die sich unterwerfen müssen, von göttlicher Gnade beschämt werden. Das Christentum will: "vernichten, zerbrechen, betäuben, berauschen, es will nur Eins nicht: das Maass, und deshalb ist es im tiefsten Verstande barbarisch, ...unvornehm, ungriechisch."[35]

Aber Nietzsche argumentiert nicht nur religionsgeschichtlich, sondern auch logisch.

Er verweist etwa in "die Gefangenen" auf die Selbstwidersprüchlichkeit religiöser Begriffe: wer sich wirklich für andere einsetzen will, wie Jesus das behauptet, lässt sich nicht durch deren Haltung davon abbringen. Da Jesus aber den Glauben an ihn zur Bedingung seines Handelns macht, will er sich nicht wirklich für die Menschen einsetzen, er liebt sie nicht selbstlos.[36] Und im Aphorismus "der Alltagschrist" zeigt er dessen  Widerspruch zwischen Denken und Verhalten: Wer wirklich an den 'Jüngsten Tag' und eine jenseitige Vergeltung  glaubte, der müsste, angesichts der Ungeheuerlichkeit von Drohung und Verheißung ein völlig anderes Leben führen, müsste "Priester, Apostel oder Einsiedler werden und mit Furcht und Zittern  einzig am eigenen heile arbeiten."[37]

In Nietzsches  radikaler Kritik aller Metaphysik und  Destruktion des idealistischen Selbstbewusstseins bleibt kein Platz für ein Jenseits, das, so Nietzsche, erfunden wurde, "um die einzige Welt zu entwerthen, die es giebt, - um kein Ziel, keine Vernunft, keine Aufgabe  für unsre Erden-Realität übrig zu behalten!" Es bleibt kein Platz für eine "'unsterbliche Seele', erfunden, um den Leib zu verachten, [...] um allen Dingen, die Ernst im Leben verdienen, einen schauerlichen Leichtsinn" entgegen zu setzen.[38] Und es bleibt zuletzt kein Platz für irgend eine Vorstellung einer 'anderen Welt', die als "wahre Welt" erscheint, sei es als Welt der tugendhaften Weisen, bei Plato; sei es als verheißene Welt für die frommen Büßer, im Christentum; sei es als zwar unerreichbare, unbeweisbare, aber schon als denkmögliche, transzendentale Welt, Trost spendend und verpflichtend, bei Kant; sei es schließlich als unerreichte, unbekannte Welt zu nichts mehr verpflichtend, nicht tröstend, nur noch eine leere Idee, im Positivismus.[39]

"eine unnütz, eine überflüssig gewordene Idee", so Nietzsche, "schaffen wir sie ab!"[40]

 Nietzsches berühmtester Aphorismus, jener vom 'tollen Menschen', der den Tod Gottes beklagt und die moralischen Folgen dieses Mordes in apokalyptischen Bildern ausmalt, enthält mehrere Deutungsebenen. Auf der Oberfläche konstatiert er den grassierenden Atheismus der Zeit: "Da dort gerade Viele von denen zusammen standen, die nicht an Gott glaubten, so erregte er ein grosses Gelächter."[41] Die nächste Ebene wird gern auf der Kanzel zitiert: Sie zeigt das moralische Vakuum, die ethische Desorientierung, die nach dem Verlust religiöser Moralbegründung einsetzt: "Irren wir nicht wie durch ein unendliches Nichts? Haucht uns nicht der leere Raum an? Ist es nicht kälter geworden?[42] Aber das ist nicht die tiefste Aussage des Texts. Der Tod Gottes verweist auf dessen Geschichtlichkeit. Wer ermordet werden kann, muss geboren worden sein. Religiosität ist ein historisches Phänomen, Gott ist nichts Unendliches, seine Erzeuger sind wir, und so wie er unsere Kopfgeburt ist, stirbt er auch in unserem Kopf. "Wir alle sind seine Mörder" ruft der tolle Mensch[43]. Und in der tiefsten Schicht der Deutung erweist sich dieser  Mord an Gott als heroische Groß- und Befreiungstat, die den 'neuen Menschen' möglich macht, weil sie die letzte Stufe der "Umwertung aller Werte" vollzieht, indem sie die "wahre Welt", die  letzte Ausflucht als Schein entlarvt. Mit dem Mord  an Gott, als Vatermord, befreit sich der Mensch von seiner letzten, stärksten Fessel, die ihn an der Erkenntnis des Nihilismus gehindert hat, und ihn nun zu wahrer Autonomie befähigt. "Ist nicht die Größe dieser Tat zu gross für uns? Müssen wir nicht selber zu Göttern werden, um nur ihrer würdig zu erscheinen? [...] Wer immer nach uns geboren wird, gehört um dieser Tat willen in eine höhere Geschichte, als alle Geschichte bisher war!"[44] Das ist Nietzsches  Programm der vollendeten Autonomie.

 

Welcher psychische Mechanismus liegt dem Gottesglauben zugrunde, wie entstehen die religiösen Gefühle von Schuld und Scham, was verbindet religiöse Rituale mit neurotischen Zwangshandlungen?

Sigmund Freud beantwortet solche Fragen radikaler Religionskritik in der Psychoanalyse. Ihr wird die unsterbliche Seele zur vergänglichen Psyche, der Seelsorger wird zum Seelenarzt, die religiöse Heilserwartung wird zum infantilen Wunschdenken, dessen Hoffnung ohne Grund bleibt. "Die Zukunft einer Illusion", so der Titel von Freuds religionskritischem Hauptwerk, 1927, ist zuende, sobald sie von der kritischen Vernunft als solche entlarvt wurde.

Freuds frühe Darstellung der Entstehung von Religiosität in "Totem und Tabu", 1912, ist inzwischen Gemeingut: Gott ist der erhöhte, in die Transzendenz verlängerte, reale Vater – 'der Vater im Himmel', die "Vatersehnsucht" die Wurzel des religiösen Bedürfnisses. Der religiöse Mensch bleibt insofern infantil, als es ihm nicht gelingt, die vom Vater vermittelte Welt der Normen, die Gebote und Verbote als völlig im Über-Ich aufgegangene zu begreifen, er braucht die Verkörperlichung der Normen in einer väterlichen – strengen und gütigen -  Figur, seine Ich-Identität bleibt unvollendet, weil ihm ein letzter Schritt der Ablösung und Auflösung in der Abstraktion nicht gelingt. Und weil dieser Mechanismus nicht nur in der Ontogenese funktioniert, sondern auch in der Phylogenese ist Religiosität sowohl eine subjektive Zwangsneurose als auch ein Massenwahn.

Im späteren Werk wird neben dem Über-Ich auch das Es, neben dem Vater auch die Mutter zur Erklärung der Entstehung von Religiosität herangezogen. Die Ohmacht und Hilflosigkeit des Kleinkinds lässt es sein erstes Libido-Objekt in der schützenden und nährenden Mutter finden, sie wird "zum ersten Angstschutz".[45]  Zusammenfassend heißt es bei Freud:

"Wenn nun der Heranwachsende merkt, daß es ihm bestimmt ist, immer ein Kind zu bleiben, daß er des Schutzes gegen fremde Übermächte nie entbehren kann, verleiht er diesen die Züge der Vatergestalt, er schafft sich die Götter, vor denen er sich fürchtet, die er zu gewinnen sucht und denen er doch seinen Schutz überträgt. So ist das Motiv der Vatersehnsucht identisch mit dem Bedürfnis nach Schutz gegen die Folgen der menschlichen Ohnmacht."[46]

Aber anders als Nietzsche bleibt Freud, gerade im Spätwerk skrupulös und selbstkritisch. Er erfindet sich einen kritischen Gegenspieler, der ihn mit Einwänden aus der Sicht des Gläubigen konfrontiert. Es sei, so dieser Gegenspieler, doch seinerseits eine Illusion Freuds zu glauben, die Vernunft könne die Rolle der Religion ersetzen, wenn es um Erziehung, Kultur und Moral gehe. Und Freud räumt ein: "Der Primat des Intellekts liegt gewiß in weiter, weiter aber wahrscheinlich doch nicht unendlicher Ferne."[47] Beharrt aber zum Schluss seines Hauptwerks doch darauf: "Nein, unsere Wissenschaft ist keine Illusion. Eine Illusion aber wäre es zu glauben, daß wir anderswoher bekommen könnten, was sie uns nicht geben kann."[48]

Mit diesem 'Glaubensbekenntnis' an die Kraft der menschlichen Vernunft ist die  philosophische, politische und psychologische Kritik der Religion im Wesentlichen abgeschlossen.

 

ANMERKUNGEN

[1] Karl Marx, Zur Kritik der Hegelschen Rechtsphilosophie, Einleitung, in: MEW 1, S. 378.

[2] Friedrich Nietzsche, Die fröhliche Wissenschaft, Nr. 125, in: Sämtliche Werke, hrsgg. v. G. Colli und M. Montinari, München 1980, Band 3, S. 480.

[3] So etwa  in der Deutung von M. Heidegger: Nietzsches Wort "Gott ist tot", in: Holzwege, Frankfurt 1972, S.200 ff.

[4] Herbert Schnädelbach, Jenseits des Christentums, in: Süddeutsche Zeitung, 16. 06. 2004.

[5] Süddeutsche Zeitung vom 13/14. 11. 2004, S. 2.

[6] "Die traditionelle Religionskritik provoziert die Theologie zur Konzentration auf die Rede vom unbegreiflichen Gott." So der Fundamentaltheologe G.M. Hoff, Religionskritik heute, Regensburg 2004, S. 7.  

[7] Diese Bestimmung orientiert sich an: Heinz Schmidt, Religionen im Ethikunterricht, in: E&U 4,1998, S. 21f.

[8] Heinz Halm, Der Islam, Geschichte und Gegenwart, München 2002, S. 8f.

[9] Die große Zahl an Parallelen zwischen biblischen und koranischen Aussagen belegen anschaulich: A. Renz, S. Leimgruber, Christen und Muslime, München 2004, S. 103-214.

[10] Ludwig Hagemann, Christentum contra Islam, Darmstadt 1999, S. 61ff.

[11] Zit nach: Ebd. S. 82.

[12] Vgl. zur intrachristlichen Religionskritik die ausführliche Darstellung von Karl Kupisch, Kirchengeschichte, 5 Bände, Stuttgart 1983².  

[13] Vgl. L. Hagemann, aaO., S. 106 ff. Er nennt den österreichischen Orientalisten Alfred v. Kremer, den Ungar Ignaz Goldziher und den Deutschen C.H. Becker als Begründer einer kritischen Islamforschung.

[14] Carl Ignaz Geiger, Reise eines Erdbewohners in den Mars, Faksimile der Ausgabe von 1790, Stuttgart 1967, S. 23.

[15] Ebd. S. 24

[16] Zit nach: Enzyklika für die Freiheit der Religionskritik, hrsgg. v. Humanistische Union, München 1989, S. 14.

[17] Vgl. Rudolf Otto, Das Heilige, München 1917.

[18] Gerd Lüdemann, Der große Betrug, Lüneburg 1998, S. 17.

[19] Stefan Zweig, Joseph Fouché, Bildnis eines politischen Menschen, Frankfurt/M. 1988, S. 59 f.

[20] Ludwig Feuerbach, Werke in sechs Bänden, Band 5: Das Wesen des Christentums, Frankfurt/M. 1976, S. 26.

[21] Ebd. S. 32.

[22] Ebd. S. 31

[23] Karl Barth, Die Offenbarung Gottes, Basel 1932, S. 14.

[24] L. Feuerbach, aaO. S. 31f.

[25] Schon Kant hatte darauf verweisen: "Die Existenz ist kein reales Prädikat" (AAIII, 564)

[26]  L.Feuerbach, aaO. S. 38.

[27] Auf die überragende Bedeutung Stirners für Nietzsches Denken hat neuerdings wieder R. Safranski verwiesen: Rüdiger Safranski, Nietzsche, Biografie seines Denkens, München, Wien 2000, S. 124ff.

[28] Max Stirner, Der Einzige und sein Eigentum, Bottrop 1986, S. 7.

[29] Karl Marx, Zur Kritik der Hegelschen Rechtsphilosophie, in: MEW 1, Berlin 1976, S. 378.

[30] Ebd.

[31] Ebd.

[32] Friedrich Nietzsche, Der Antichrist, Nr. 37, in: Sämtliche Werke, KSA, Bd. 6, S. 209.

[33] Ebd. S. 245.

[34] Friedrich Nietzsche, Menschliches, Allzumenschliches, 114, in: KSA 2, S. 117f.

[35] Ebd.

[36] Ebd. S. 590

[37] Ebd.S. 470

[38] Friedrich Nietzsche, Ecce homo, in: KSA 6, S. 374.

[39] Vgl. F.N., Wie die wahre Welt endlich zur Fabel wurde, in KSA 6, S. 80 f.

[40] Ebd.

[41] F.N. Die fröhliche Wissenschaft, Nr. 125, KSA 3, S. 480.

[42] Ebd.

[43] Ebd.

[44] Ebd.

[45] Sigmund Freud, Die Zukunft einer Illusion, in: Studienausgabe Bd. IX, S. 156. Freud spricht den Wandel von der Betonung des Vaters zu jener der Mutter dort selbst an.

[46] S. Freud, Die Zukunft einer Illusion, a.a.O. S. 158.

[47] Ebd. S. 186.

[48] Ebd. S. 189.

RADIKALE RELIGIONSKRITIK HEUTE

Was bleibt als Stachel? Was bleibt als Herausforderung einer weltlich-begründeten Ethik durch eine religiös begründete? Diese Engführung der Fragestellung scheint mir legitim angesichts des Umstands, dass alle anderen Funktionen von Religion entweder obsolet geworden sind – die ideologische, die sinnstiftende, die herrschaftslegitimierende – oder zur Not durch weltliche Institutionen und Verfahren ersetzbar: die herrschaftskritische, die psychologische und die karitative; und selbst moderne Theologen stellen heute die ethische Funktion von Religion in den Vordergrund.

Drei Fragen will ich dabei aufgreifen, die alle, wenn auch auf unterschiedlichem Niveau, in das Umfeld der Begründung von Moral gehören.

 1. Brauchen wir die Religion, weil die weltliche Begründung von Menschenwürde und Menschenrechten nicht stark genug ist, deren universelle Gültigkeit zu garantieren?

Dass Menschenrechte, seit der Aufklärung metaphorisch als unveräußerliche Naturrechte postuliert, philosophisch durchaus umstritten sind, ist das eine: R. Rorty plädiert dafür, statt auf Menschenrechten als Apriori zu beharren, sei es besser, die Menschenrechtskultur zu befördern; J.F. Lyotard stellt fest: "Ein Mensch hat nur dann Rechte, wenn er etwas anderes als ein Mensch ist."[1] und für J. Bentham sind sie schlicht: 'Unsinn auf Stelzen'. Das andere ist, dass Menschenrechte und Menschenwürde in der Gegenwart stark unter Druck geraten. Denken wir nur an die Diskussion um die Gentechnik, die Legitimation von Angriffskriegen im Namen der Menschenrechte, deren Einschränkung im Namen der Sicherheit oder die Debatten in USA, Israel, England und Deutschland über eine Lockerung des Folterverbots.

Daher nimmt es nicht Wunder, wenn selbst Denker wie Habermas fragen, ob eine weltlich-rationale Begründung von Menschenrechten hinreicht.[2] Gibt es nicht gleichsam ein emphatisches Defizit in der Hochschätzung der Menschenrechte, das etwa mit dem Glauben an die Gottes-Ebenbildlichkeit des Menschen, mit seiner religiösen Aufwertung zur "Krone der Schöpfung" und seiner Rechte als 'heilige' kompensiert werden könnte? Brauchen wir die Religion, um den universalen Geltungsanspruch von Menschenrechten emphatisch besser zu verankern? Ich nenne einige Einwände:

Der religiöse Multilateralismus steht in direktem Widerspruch zum menschenrechtlichen Universalismus. Als Ebenbild welchen Gottes sollen sich Hindus sehen? Buddhisten halten sich nicht gerne für die 'Krone der Schöpfung' und für Muslime ist im Zweifelsfall der Krieg heilig. Ein Rekurs auf Glaubenssätze machte nur für jene Religionen überhaupt Sinn, in deren Verbreitungsgebiet Menschenrechte mit religiöser Metaphorik plausibel in Verbindung gebracht werden können – und das ist gewiss nicht universell der Fall.

Die lange Geschichte der Menschenrechts-Missachtungen im Namen von Religionen macht sie zudem zum denkbar unglaubwürdigsten Anwalt der Menschenrechte.

Auch das Christentum, das sich gerne als Beförderer der Menschenrechte sieht, hat in Wahrheit an deren Verbreitung kaum Anteil. Im Gegenteil, das vermeintlich abendländisch-christliche Weltbild ist weitgehend gegen den Widerstand der christlichen Kirchen durchgesetzt worden. H. Schnädelbach wiest darauf hin: "'Die Würde des Menschen ist unantastbar' ist ebenso wenig ein christlicher Satz wie 'Alle Gewalt geht vom Volke aus'. Paulus sagt: 'Es ist keine Obrigkeit ohne Gott, wo aber Obrigkeit ist, da ist sie von Gott verordnet.' (Röm. 13,1)"[3]

Grundsätzlich stehen  die unterschiedlichen  Glaubensinhalte und Werte der verschiedenen Religionen  eher für einen kulturellen und moralischen Relativismus in der Welt denn für einen menschenrechtlichen Universalismus. R. Inglehart zeigt in seiner großen Studie über den Wertewandel in 43 Gesellschaften, dass es eine klare positive Korrelation in der Welt  gibt, zwischen Religiosität und konservativ-traditioneller Wertorientierung: Wer religiös ist, neigt auch zu Nationalstolz, Familiensinn, Autoritätsfixierung und politischem Desinteresse, und er lehnt Ehescheidung und Homosexualität ab[4]. Das sind nun nicht gerade jene Haltungen, in deren Reihe die Achtung von Menschenrechten passt.   Die Defizite der Menschenrechtskultur müssen auf andere, profane Weise behoben werden, die Religionen taugen dafür nicht.

 

2. Brauchen wir die Religion, weil der Mensch eben nicht nur ein Vernunftwesen ist und eine vernunftgestützte Moralbegründung daher nicht wirklich überzeugen kann?

Profane Moralbegründungen haben ein Motivationsproblem. Am deutlichsten ist das bei den deontologischen Begründungen, weil sie uns eine rein rationale kategorische Selbstverpflichtung zumuten, die sich auf nichts stützt als die vernünftige Einsicht in das moralisch Richtige. Gegenüber dieser blutleeren Begründung scheint die religiöse Heilserwartung, die dem Gläubigen als Lohn für ein gottgefälliges Leben winkt, bzw. die religiöse Strafdrohung einer allmächtigen Autorität eine deutlich kräftigere und gefühlsstärkere Motivation. Man kann durchaus fragen: 'Warum soll ich mich an den kategorischen Imperativ halten?', aber es macht keinen Sinn zu fragen: 'Warum soll ich mich denn an die göttlichen Gebote halten?'

Aber damit sind wir schon bei den Problemen religiöser Moralbegründung. Auf die Frage, ob Gott in ihrem Leben eine wichtige Rolle spielt, antworten zwar 85% der Nigerianer mit 'ja', aber in den USA sind es nur 53%, in Italien 34, in Großbritannien 16, Frankreich und Deutschland 13, Russland 12, Japan 6 und China 1%.[5] Für alle anderen, und das ist global die Mehrheit, bleibt eine religiöse Moralbegründung trotz ihrer starken Motivation wirkungslos. Religiöse Fundierung löst das Motivationsproblem eben nur für Gläubige. Und schließlich gibt es auch andere profane Moralbegründungen, die das Motivationsproblem ganz weltlich angehen. Ihre Motivangebote heißen: 'Glück' – in den antiken Ethiken und dem Utilitarismus, 'Natur' – in den anthropologischen und biologischen Ansätzen, 'Empathie und Anerkennung' in nonkognitivistischen Theorien von Schopenhauer bis zur Care-Ethik, oder 'aufgeklärtes Eigeninteresse' in den Spielarten der Vertragstheorie. Den aufgeklärten Menschen der Moderne scheinen diese Antworten auf die Frage: 'warum soll ich moralisch sein?', gewiss plausibler als der Verweis auf Gottes Wille. Immer weniger Menschen sind auf dem Stand von Kants Diener Martin Lampe, dem der Meister, wie Heinrich Heine kolportiert, aus Gutherzigkeit und wider besseres Wissen, seinen Gott belässt, weil er ohne ihn unglücklich wird. Eine autoritätsgestützte Moralbegründung passt nicht mehr in eine demokratische Welt, auch charismatische Diktatoren hatten meist kein Motivationsproblem mit ihren Untertanen, aber das ist kein Grund, sie wieder herbei zu wünschen.

 

 3. Brauchen wir die Religion, weil uns letztlich nur das religiöse Kreaturgefühl, der Glaube an etwas Größeres vor der Verabsolutierung und Selbstanbetung  bewahrt und uns einen Weg eröffnet, die eigene Egozentrizität zu überwinden?

Anders als den Egoismus kann ich meinen Egozentrismus nur sehr schwer überwinden. Auch wenn ich, ganz altruistisch, das Wohl des Anderen über mein eigenes stelle, bleibe doch ich es, der das will und tut. "Auch bei demjenigen", sagt Ernst Tugendhat, "dem es nicht um sein eigenes Wohl geht, bleibt die Struktur der Egozentrizität erhalten, weil er das Wohl von anderen zu seinem Zweck macht."[6] Es gibt also zwei Wege, sich selbst und seine Interessen weniger wichtig zu nehmen, im einfachen Fall dämpfe ich meine Selbstbezogenheit, relativ zum Anderen, im schwierigen Fall nehme ich meine Sorgen um und mein Engagement für den anderen nicht so wichtig. Der Altruismus, sehen wir, bleibt vereinbar mit der Vorstellung, ich sei der Mittelpunkt des Universums, vielleicht nehme ich mich gar umso wichtiger, je mehr ich mich um andere kümmere. Wohin gerät die Welt ohne meine Opferbereitschaft?

Was hilft uns, diese letzte Selbstbezogenheit zu überwinden, von uns selbst und unseren Sorgen um uns und die Welt zurückzutreten, mehr Gelassenheit zu erreichen angesichts all der Enttäuschungen und Unglücke, gegen die wir trotz allen Einsatzes machtlos bleiben?  Hier findet, als Antwort, der Gottesglaube seine schönste Begründung. In der Hinwendung zum Numinosen gelingt es dem Gläubigen, die Selbstbezogenheit zu überwinden, die eigene Perspektive zu verlassen  und die Welt 'von außen' zu sehen.

Allerdings wird auch hier nur dem Gläubigen geholfen. Der Ungläubige muss sich andere Wege suchen. Ernst Tugendhat schlägt die Mystik vor, nicht die religiöse eines Meister Eckart, die als Mittel zur Gottfindung dient, sondern eine Mystik, die im Gegensatz steht zur Religion, weil sie uns helfen will, die eigenen Wünsche zu relativieren und zu einem neuen Selbstverständnis zu gelangen. "Der Weg der Religion hingegen besteht darin, dass man die Wünsche lässt, wie sie sind, und statt dessen eine Transformation der Welt mittels einer Wunschprojektion vornimmt: die Macht, die die Menschen umgibt, wird zu diskreten Wesen verdichtet, von deren Wirken man sich vorstellen kann, daß das eigene Glück oder Unglück abhängt, und die als von uns beeinflussbar angesehen werden."[7] Der Weg der Mystik, als einem Zurücktreten von der eigenen Wichtigkeit in der Welt, ist der des Staunens. Nicht jenen Staunens allerdings, das gleich nach Gründen fragt für das Erstaunliche, vielmehr dem Staunen, das es beim Unbegreiflichen belässt, das uns nicht zum Enträtseln drängt, sondern im Anstaunen verharrt. Und das gilt für vieles, was unseren Sinnen nicht zugänglich ist: die Zeit, der Raum, das Sein, die Zahl, das Bewusstsein, alles, was bei Platon die ewigen Ideen  der Welt sind und bei Kant die "transzendentalen Ideen der reinen Vernunft".  Und es gilt für manches, was wir sinnlich erleben, aber nicht begrifflich fassen können: Musik, ein Bild, ein dunkles Gedicht. Im ganz weltlichen Staunen angesichts all dessen kann im fortdauernden Nicht-Verstehen des Erstaunlichen die Selbstbezogenheit überwunden werden.

 

 ANMERKUNGEN

[1] J.F. Lyotard, Die Rechte des Anderen, in: Die Idee der Menschenrechte, hrsgg. v. S. Shute, S. Hurley, Frankfurt/M. 1996, S. 171.

[2] Vgl. etwa: J. Habermas, die Einbeziehung des Anderen, Frankfurt/M. 1996, S. 51.

[3] H. Schnädelbach in: Süddeutsche Zeitung, 16. 06. 2004.

[4] R. Inglehart, Modernisierung und Postmodernisierung, Frankfurt/Main, New York 1998, S. 121.

[5] Ebd. S. 125

[6] E. Tugendhat, Egozentrizität und Mystik, München 2003, S. 39.

[7] Ebd. S. 122.

Klaus Goergen

Medien und Moral  (2010)

(In: K. G. Zugänge zur Ethik. Berlin 2010. S. 177-193)

 

Alle reden von Medienethik und keiner weiß, was sie soll.

Das hat viele Ursachen, einige will ich andeuten. Die erste ist die schiere Uferlosigkeit ihrer potentiellen Gegenstände und Adressaten ihrer moralischen Forderungen: Medienethik richtet sich auf alles Gedruckte, alles Gesendete, alles Hoch- und Runtergeladene und alles auf Leinwand Projizierte, von Buch und  Zeitung über Film und Sendung bis zu Mail und Blog. Und entsprechend uferlos ist der Personenkreis, an den sich medienethische Forderungen richten könnten: Wären es nur die Redakteure, Reporter, Verleger, die Rundfunkräte  und Besitzer von Privatsendern, könnte man Medienethik noch im engen Sinne als journalistische Ethik verstehen – und für die gibt es seit langem wohlfeile moralische Codizes und Institutionen:  Pressecodex, Presserat, KEK, Kontrollrat für jugendgefährdende Medien. Auch Codizes für Journalisten in den neuen Medien gibt es inzwischen.  Aber es sind eben auch die Drehbuchautoren und -verleger, Filmproduzenten und Schauspielerinnen, Hersteller von Computerspielen und  Avataren, Netzbetreiber, Blogger, Besitzer von Suchmaschinen, Betreiber von Bewertungsportalen und social networks (facebook etc.) -   und die Rezipienten: User, Hörer und Leser.

Und dann reicht es nicht, die "Achtung vor der Wahrheit, die Wahrung der Menschenwürde und wahrhaftige Unterrichtung der Öffentlichkeit" als  "oberste Gebote"[1] zu verkünden, wie es der Pressecodex tut, oder für Multimedia-Journalisten festzulegen, sie  "verpflichten sich zu einer verantwortungsvollen, unbeeinflussten, und umfassenden Information der Öffentlichkeit mit dem Ziel der Meinungsbildung."[2]

 

Aber es reicht ebenso wenig,  in einer "netiquette", einer Ethik für das Netz,  TOS-templates zu formulieren, in denen  sich der Nutzer verpflichtet, keine "falschen, diffamierenden, beleidigenden, vulgären, hasserfüllten, profanen, sexuell orientierten, pornografischen" etc. Materialien einzustellen und nichts herunterzuladen: "unless you own the copyright"[3]

Denn das ist nicht weniger naiv und hilflos als die hehren Grundsätze eines Presse- oder Multimedia-Codex.

 

Wie lauten die moralischen Forderungen, die sich gleichermaßen an Dieter Bohlen richten und an Eltern, die ihren Kindern nur selektiven Zugang zu elektronischen Medien erlauben wollen? Welche gemeinsamen moralischen Standards gelten für "YouTube" und die FAZ, für die Kriegsberichterstattung und "The Call of Duty"[4]? Nur zwei   Beispiele für die normativen Schwierigkeiten: Zensurfreiheit ist zweifellos für Printmedien und traditionelle elektronische Medien eine zentrale, ethische Norm. Dem Grundgesetz gilt sie sogar als einzige Garantie der Pressefreiheit.[5] Aber ist das Zensurverbot auch für das Internet ethisch angemessen, das keine vorgeschaltete Selbstzensur von Medienunternehmen, kein journalistisches  Berufsethos kennt, die das Schlimmste im Vorfeld ausfiltern? Immerhin gibt es in Deutschland inzwischen eine "Piratenpartei", die sich der Idee des völlig freien Netzes verschrieben hat.

Nun, die Antwort wird ganz neu abwägen müssen zwischen Schutz- und Freiheits-ansprüchen, die in dieser Weise bei den bisherigen Medien nicht im Konflikt standen. Das jüngste Verbot von Kinderpornographie  im Netz ist ein erster Hinweis auf die Richtung.

 Ein zweiter Fall: das soziale Netzwerk "facebook" - und man mag fragen, ist nicht bereits die Kategorie ein Euphemismus -  hat zum Jahreswechsel 2010 die Schutzeinstellungen für seine Mitgliederdaten abgesenkt. Seitdem ist jedes Mitglied mit Anschrift und Porträtfoto im Netz zu finden. Facebooks Reaktion auf den Vorwurf von Datenschützern, Persönlichkeitsrechte zu verletzen: Jedes Mitglied habe schließlich ein Widerspruchsrecht. Wer anonym bleiben wolle, müsse das nur erklären.[6] Und nun wird diskutiert, ob ein Widerspruchsrecht hinreicht oder eine Zustimmungslösung nicht doch die ethisch angemessenere wäre.

Undenkbar wäre Entsprechendes in den Printmedien: Würde die "Süddeutsche Zeitung" Anschrift und Konterfei ihrer Abonnenten abdrucken, wäre sie morgen tot und der Verleger im Gefängnis. Die  moralischen Skrupel gegenüber dem Recht auf informationelle Selbstbestimmung sind bei den sogenannten "neuen Medien" offenbar viel geringer als bei Print- und Sendermedien, und das, obwohl dort die avisierte Öffentlichkeit tendenziell  global ist. Vielleicht liegt es daran, dass digitale 'Öffentlichkeit' angesichts der Anonymität ihrer Erzeugung als solche noch gar nicht recht ins Bewusstsein gedrungen ist. Mein Bild in der SZ sehen definitiv hunderttausende Leser - mein Bild im Netz - so kann ich mir einreden -  sieht vielleicht gar niemand.

 

Eine zweite Ursache für die Schwierigkeiten einer Medienethik normativ zu werden sind die zahlreichen Widersprüche, mit denen sie konfrontiert ist. Im Widerspruch stehen medienethische Forderungen selbst: Das Recht auf freie und umfassende Meinungsbildung kann in Widerspruch geraten zum Recht auf Privatsphäre und Datenschutz.  Im Widerspruch stehen ethische Einschätzungen der Medienwirkung: Helfen Medien, den fremden Anderen besser zu verstehen, befördern sie damit Verantwortung und Toleranz oder irritieren sie durch ihr Überangebot an weltweitem Infotainment unser Verantwortungsbewusstsein und befördern sie eher Gleichgültigkeit und Zynismus? Im Widerspruch stehen ethische und ökonomische Anforderungen an die Medien: Die Unabhängigkeit journalistischer Arbeit wird durch die hohe finanzielle Abhängigkeit der Medien von Werbung eingeschränkt. In Widerspruch geraten können der Auftrag nach umfassender Recherche und Wahrheitsprüfung und der hohe Zeitdruck, unter dem Journalisten arbeiten. Die Medienexpertin Larissa Krainer zieht aus diesen Widersprüchen den Schluss: "Der Erkenntnisgegenstand von Medienethik ist der Widerspruch selbst."[7] Der Ausgleich dieser Widersprüche sei daher "die zentrale methodische Herausforderung der Medienethik."[8]

 

Die Hauptursache für die ethische Desorientierung im Bereich der Medien liegt aber an einem anderen Umstand.

Es gibt nämlich zwei ganz unterschiedliche Arten von Medienethik - ich will sie affirmative - oder liberale - und kritische Medienethik nennen, die in fast jeder Hinsicht eine gegen-sätzliche  Auffassung von den Medien haben: von ihrem Status, ihrer politischen Bedeutung,

ihrer Wirkung und damit auch der ethischen Forderungen im Bereich der Medien.

 Die liberale Medienethik setzt neutral am Wortsinn von 'Medium' als Kommunikations-mittel an, mithilfe dessen Informationen festgehalten bzw. transportiert werden können. Das gilt für die Schreibfeder wie für den PC, für das Ölgemälde wie für die digitale Fotografie. Das Medium dient dem Zweck der medialen Präsenz, ist aber selbst kein Zweck, sondern eben nur Mittel: "Als Handlung eines Subjekts sagt der Vollzug medialer Kommunikation sehr wohl selbst, wie wir das Medium angemessen zu gebrauchen haben und worin dieser Gebrauch seine Grenzen hat, über die hinaus er erst zum Missbrauch wird."[9], sagt Felix Weil.  Medienethik wird hier als Missbrauchsethik in subjektiver Verantwortung von Produzent und Rezipient verstanden. Das Medium selbst erscheint ethisch neutral und ohne Wirkung auf das Bewusstsein. Moralisch verwerflich ist es demnach, mithilfe eines Mediums zu lügen, zu täuschen, aufzuwiegeln oder abzuwiegeln, bloßzustellen oder zu verharmlosen. (Erinnern wir uns an die Selbstverpflichtungen der "netiquette".)  Für Medien gelten dieselben moralischen Gebote und Verbote wie für jede unmittelbare sprachliche Handlung. Die ethischen Normen primärer Kommunikation werden auf die sekundäre Kommunikation schlicht übertragen, die "hardware" des Mediums als solchem bleibt dabei ausgeblendet. Damit bleibt eine liberale Medienethik angewandte Ethik in dem schlichten Sinn, dass allgemeine normativ-ethische Prinzipien in ihr zur Anwendung kommen.

Als Mittel der Öffentlichkeitserzeugung werden Medien in affirmativer Medienethik hochgeschätzt: Sie erlauben die Verbreitung von Wissen, die Teilnahme am öffentlichen Diskurs, sie garantieren Präsenz, erweitern das Bewusstsein und die Urteilskraft. Insgesamt vergrößern Medien unsere Freiheitsspielräume. Ihr ethischer Vorzug liegt darin, dass sie uns die Beziehung zu anderen erleichtern und uns helfen, Verantwortung auch gegenüber dem ganz Fremden zu empfinden, von dem wir nur durch sie erfahren. "Wir müssen umeinander wissen", sagt Roger Silverstone, "und das setzt eine konstante kritische Auseinandersetzung mit der Darstellung des Anderen in den Medien voraus. Dies ist für unser Verhältnis zu fernen Fremden...bedeutsam"[10]. Daher heißt die erste ethische Forderung einer liberalen Medienethik: Freier, unzensierter und unkontrollierter Zugang zu möglichst vielen unterschiedlichen Medien für möglichst viele Menschen.  Ihre Normen heißen: Informations- und Zensurfreiheit und Vielfalt: Binnenpluralismus für Radio und TV und Außenpluralismus für Print- und digitale Medien. Daher kritisiert liberale Medienethik auch Konzentrations- und Monopolisierungstendenzen in den Medien, von der Pressekonzentration bis zum Googlemonopol. Und sie mahnt einen flächendeckenden Zugang zu den Medien an.

Am Beispiel der digitalen Medien zeigt sich das etwa an der These vom "Digital Divide". In den 90er Jahren wurde eine Kluft zwischen PC-Besitzern bzw. Menschen mit Netzzugang und jenen, die noch analog kommunizieren, als ethisches Gerechtigkeitsproblem ausgemacht. Die drohende Wissenslücke zwischen analogen Hinterwäldlern und den digital Aufgeklärten  verschärfe die soziale Ungleichheit, national wie international.  Inzwischen hat sich das Problem, zum Segen von Bill Gates,  weitgehend entspannt. Die jüngste JIM-Studie stellt fest: "Vollversorgung besteht bei Handy, Computer, Internetzugang und Fernseher"[11].

Da sich  die  Bildungslücke dennoch nicht schließt, konstatiert  Heinz Moser nun  einen Second Digital Divide: "Nicht der Zugang ist ungleich verteilt, sondern schichtspezifische Unterschiede bestehen in der Qualität und Intensität der Nutzung"[12]  Auch hier zeigt aber die JIM-Studie: die Unterschiede zwischen der PC- und  Internetnutzung bei Hauptschülern und Gymnasiasten sind marginal: zwar spielen die Hauptschüler etwas häufiger brutale Computerspiele, aber sie nutzen das Internet genauso zum Lernen und in der Schule.[13] Eine Medienethik, die glaubt, Bildungsdefizite ließen sich durch Digitalisierung lösen, macht sich nur zum Handlanger von Soft- und hardware-Produzenten. In den USA werben Eliteschulen inzwischen damit, dass sie PC-freie Zonen sind.

 

 Die politische Bedeutung von Medien sieht die liberale Medienethik ebenfalls positiv. Sie erscheinen als Mittel der Teilhabe in der anonymen Massendemokratie, in der Regierende und Regierte nur noch über Medien vermittelt in Verbindung treten können. Medien dienen der Artikulation und Aggregation  von Interessen. Als 'vierte Gewalt' dienen sie der Kontrolle der politischen Elite. Sie ermöglichen moderne Formen des Lernens und dienen der Welterfahrung in einer globalisierten Welt. Damit befördern sie Toleranz und Verständnis gegenüber dem Fremden.

Insbesondere das Internet wird gepriesen als basisdemokratisches, hochaktuelles, interaktives und subversives Medium, das nicht durch die Filter von Verlagen und Journalisten zensiert werde, in dem sich vielmehr jeder frei äußern könne. Der blitzschnelle Zugang zu  Informationen aus der ganzen Welt weise es als das Medium der globalisierten Welt aus. "Ohne Google wäre ich aufgeschmissen"[14] bekennt Frank Schirrmacher,   Thomas Krüger, der Präsident der Bundeszentrale für politische Bildung, hält die "open source-Idee" für aufklärerische Hochleistung:

"Es hat sich gezeigt, dass mit Entwicklungen wie freier Software, so genannten Peer-to-Peer Netzwerken und anderem eine grundlegende soziale und politische Dimension der neuen Informations- und Kommunikationstechnologien sich zu Wort meldet. Die darin breit angelegte Möglichkeit der Aufhebung der strikten Trennung von Sender und Empfänger hat große  Schnittmengen mit der politischen Idee des mündigen Bürgers."[15]

Die Internetpropheten schwärmen von einer ganz neuen "Schwarmintelligenz", die sich durch die weltweite Wissensvernetzung angeblich einstelle und zu einer "Weisheit der Massen" führe, die größer sei als alles, was ein einzelner intellektuell je leisten könne.[16] Und Jeremy Rifkin erhofft sich neuerdings gar die Rettung der Welt durch das Internet: Die "Milleniumsjugend, die als erste Generation in den virtuellen Gemeinschaftsräumen des Internets aufwächst", entwickle "ein neues dramaturgisches Bewusstsein", das ihr "die Tür zum Weltbürgertum und zu einer alles umspannenden empathischen Einstellung öffnen wird."[17] 

Gegen solchen Überschwang hilft Jaron Lanier, selbst ein Internetpionier, der nun feststellt, die Anonymität des Netzes evoziere eher die dunkle Seite im Menschen. Statt von der empathischen Weisheit der Massen, sollte man besser von der "Herrschaft des Mobs im Netz" sprechen. Aus Millionen "Beleidigungsfragmenten" und narzisstischen Belanglosigkeiten entstehe eher eine Verklumpung von Dummheit denn eine höhere Weisheit.[18]

 

Wie hilflos eine liberale Medienethik, die nur vor Missbrauch warnen kann, gerade angesichts der neuen Medien ist, zeigen exemplarisch die Stuttgarter Medienexpertin Petra Grimm und die Bonner Kommunikationswissenschaftlerin Caja Thimm. In einer Studie "Gewalt im Web 2.0" mahnt Grimm: "Wichtig wäre es, den Jugendlichen die Ursachen von Gewalt sowie medialer Gewalt bewusst zu machen"[19] und: "Jugendliche sollen kompetent gemacht werden im Umgang mit Cyber-Mobbing und ihnen sollten Hilfsangebote zur Verfügung gestellt werden.[...] Es geht darum, ihnen Mut zum Nein-Sagen zu machen, wenn sie einen Link nicht haben oder sehen wollen."[20] Frau Thimm setzt als Fazit einer Studie über "Ethische Fragen im Kontext von 'Second life' " auf die "Thematisierung ethischer Selbstregulationsfunktion" der Nutzer, die "Chancen und Grenzen...im virtuellen Umfeld" selbstbestimmt ausloten sollten. Im Übrigen seien die normalen  "moralischen Standards" im Netz "nicht nur gewahrt sondern sogar weiterentwickelt"[21] worden.

 

 Eine kritische Medienethik hingegen versteht Medien nicht nur als Mittel, sondern als Selbstzweck. Die Zweck-Mittel-Unterscheidung sei bei modernen Massenmedien (Film, TV, Internet) "reine Illusion", sagt schon Günther Anders, einer der ersten kritischen Medientheoretiker. "Die Einrichtungen selbst sind Fakten, und zwar solche, die uns prägen."[22]  Marshall McLuhan formuliert die Grundthese kritischer Medientheorie: "Das Medium ist die Botschaft"[23]. Die Medienwirkung erschöpft sich also nicht in ihrem subjektiv-gewollten Zweck, die mediale Technik wirkt vielmehr durch ihre Eigengesetzlichkeit und verändert Wahrnehmung und Bewusstsein, soziale Beziehungen und Selbstbild. Kritisch zu betrachten und ethisch zu bewerten sind also weniger die Inhalte der Medien als ihre Formen und Technik. "Eine Analyse von Programm und Inhalt gibt keine Hinweise auf die Magie dieser Medien oder auf ihre unterschwellige Wirkung"[24], sagt McLuhan. Konkret: Fernsehkritik  z. B. meint weniger Kritik von Sendungen und ihrer Inhalte, als Kritik des  Umstands, dass das TV  das Nahe fern und das Ferne nah macht und die Kluft zwischen Wissen um die Welt  und Handeln in der Welt bis zur Lähmung vergrößert.  Damit verschwimmt das Gefühl für Zuständigkeiten und Verantwortlichkeit.  Wenn durch das Fernsehen "die Welt zu uns kommt, statt wir zu ihr, so sind wir nicht mehr 'in der Welt', sondern ausschließlich deren schlaraffenlandartige Konsumenten."[25], so Günter Anders.  Fernsehen, dies am Rande, ist übrigens noch immer das dominante Massenmedium, auch bei Jugendlichen. 2/3 aller Jugendlichen sehen täglich fern, 90% mehrmals in der Woche, durchschnittlich sehen Jugendliche täglich 137 Min. fern, knapp gefolgt von der Internetnutzung mit 134 Min. so die neueste JIM-Studie[26] vom November 2009.

Medienethik in diesem  Sinn einer kritischen Medientheorie, die direkte und indirekte Wirkungen von Medien auf  Bewusstsein, Identität und Sozialität  kritisch betrachtet, begleitet die Entwicklung der Medien von der Erfindung der Schrift bis zu Computer und Internet: Einige Schlaglichter:

Plato kritisiert die Schrift: Sie führe zum Verlust von Unmittelbarkeit, schwäche das Gedächtnis und behindere das selbständige Denken.

Die katholische Kirche kritisiert die Erfindung des Buchdrucks durch Gutenberg: Die gedruckte Bibel für jedermann überfordere den theologischen Laien und führe zur Anmaßung einer laienhaften Auslegung durch den einfachen Gläubigen.

Im 19. Jahrhundert wird das Aufkommen von Tageszeitungen, das durch Telegrafie und Rotationsdruck ermöglicht wurde, kritisiert: Sie beförderten das Belanglose und Kurzfristige, lenkten ab vom dauerhaft Bedeutsamen, beschleunigten das Zeitempfinden in unnatürlicher Weise.

Walter Benjamin kritisiert die Fotografie: Sie zerstöre den Wert von Echtheit, die "Aura der Authentizität". Fotografien seien "Plüsch für das Auge."

Adorno spricht  in seiner Kritik des Films von "Kulturindustrie", die durch Serienproduktion und Massenverteilung, wie jede Industrie, die autonome Kunst des Schauspiels zerstöre. Im Film gehen Kreativität, Spontaneität und Echtheit des Bühnenschauspiels verloren. Filme dienen der Verblendung, weil sie uns  vortäuschen, "dass die Welt draußen die bruchlose Verlängerung derer sei, die man im Lichtspiel kennenlernt"[27],  sie bewirken Entfremdung und Realitätsverlust. Die Vergnügungsindustrie des Films dient der Ablenkung und Zerstreuung. "Lachen in ihr wird zum Instrument des Betrugs am Glück."[28]

Günther Anders sieht im Fernsehen einen Neutralisierungseffekt von Nähe und Ferne. Desorientierung sei die Folge, Wichtiges und Unwichtiges verschwimmen, Verantwortung kann nicht mehr wahrgenommen werden. Die Kritik des Fernsehens wird bei McLuhan, J. Mander und N. Postman  erweitert.  Die Eigengesetzlichkeit des  Mediums TV, das von spektakulären bewegten Bildern lebt, fasst Jerry Mander so zusammen:  "Krieg ist fernsehgerechter als Frieden",   "Gewalt ist fernsehgerechter als Gewaltlosigkeit", "Politische Bewegungen mit einzelnen Führern sind fernsehgerechter als Bewegungen ohne Führer." "Konkurrenzverhalten ist fernsehgerechter als Zusammenarbeit".[29] Die formalen Mittel, mit denen Film und TV die Emotionalisierung und Personalisierung ihrer Gegenstände erreicht, heißen:  Großaufnahme, "kurze Einstellungen, schnelle Kamerafahrten und subjektive Kamera, ungewöhnliche Perspektiven und Trickeffekte"[30]  

 

 Jean Baudrillard spricht den modernen Massenmedien gar die Eigenschaft des Mediatorischen im Sinne der Vermittlung von Rede und Antwort überhaupt ab. Weil sie "Rede ohne Antwort", sind, verabsolutierte Rede, errichten sie ein Monopol der "Gabe ohne Gegengabe"[31] und damit einen verantwortungsfreien Raum.

Peter Sloterdijk kritisiert die unheilige Allianz von Produzenten und Rezipienten der Massenmedien. Er spricht von einem zweifachen Zynismus der Medien: Katastrophen werden von den Medien selbst  zu Gewinnzwecken ausgebeutet und die Überflutung des Bewusstseins führe zu Gleichgültigkeit, moralischer Irritation und zu Zynismus bei den Rezipienten:

"Eine ungeheure Gleichzeitigkeit spannt sich in unserem informierten Bewußtsein aus: Hier wird gegessen; dort wird gestorben. Hier wird gefoltert; dort trennen sich prominente Liebende. Hier geht es um den Zweitwagen, dort um eine landesweite Dürrekatastrophe. [...] hier werden siamesische Zwillinge erfolgreich getrennt; dort stürzt ein Zug mit zweitausend Menschen in einen Fluß. – Such is life. Als Nachricht ist alles verfügbar, was Vordergrund ist, was Hintergrund, was unwichtig ist, was wichtig. Alles reiht sich in eine gleichförmige Linie, worin Gleichförmigkeit auch Gleichwertigkeit und Gleichgültigkeit erzeugt."[32]           

     Berhard Bürdek warnt in seiner Kritik der digitalen Medien vor einem "digitalen Wahn"[33]. Er sieht die Gefahren eines Präsenz- und Aktualitätswahns durch Internet und Online-Dienste; die Überflutung mit Daten und Fakten führe zu einem Informationschaos, die Ununterscheidbarkeit von Wahrem und Falschen, von Belanglosem und Wichtigen in den zahllosen Internetportalen führe nicht zu mehr Bildung, eher zu größerer Irritation. Die Komplexität der neuen Medien führe zu "Techno-Stress". Der 'Dauersurfer' oder 'User' mutiere zum "homo computatis".[34]

Vilém Flusser steht am deutlichsten für eine Kritik des "iconic turn" in den Medien. Die     "technischen Bilder", worunter er Foto, Film, TV, Video und alle digital animierten Bilder   versteht, verdrängen die Schrift als wesentlichstes Medium.  Ihre Erfindung sei so revolutionär für Wahrnehmung und  Denken, dass sie  "nicht angemessen gewürdigt" seien, wenn man sie "mit der Erfindung des Buchdrucks vergleicht." Sie müssten vielmehr "mit der Erfindung der Schrift"[35] verglichen werden, um den Paradigmenwechsel zu ermessen, den sie für unsere Welterfahrung bedeuten. Der alphabetisch orientierte, lineare, eindimensionale Code der Schrift habe ein analytisches, kalkulatorisches  Denken begünstigt, das nun durch ein synthetisches Denken in mehrdimensionalen Bildern abgelöst werde. Schreiben und Lesen werden verkümmern: "Nur noch Historiker und andere Spezialisten"   würden es in Zukunft "lernen müssen."[36] Da insbesondere Computer als 'Wirklichkeitsmaschine' fungierten, sieht Flusser die Programmierer als die wahren neuen Schöpfer von Welten aus der Maschine.

 

Eine kritische Medienethik betont also, anders als die liberale,  die sozialen und mentalen Gefahren der digitalen Medien: Bedrohung von Privatheit und Intimsphäre durch Ausspähen digitaler Kommunikation, Datenspeicherung und Vernetzung.  Verwechslung aktueller Informiertheit mit Bildung. Im Internet sind alle Daten gleich, eine Gliederung nach Relevanz ist für Laien nicht  möglich.    

Computerspiele, Chats und Surfen enthalten aufgrund der Suggestivität des Mediums hohe  Suchtpotentiale.  Permanenter Konsum führt zur Verkümmerung menschlicher Kontakte und zum Verlust von sozialer Kompetenz.  Das Internet befördere die Zerstreuung und Zerstreutheit, es leide die Konzentrationsfähigkeit,  die Aufmerksamkeitsspanne werde deutlich kürzer, das Kurzzeitgedächtnis kollabiere permanent;  Menschen, die häufig am Bildschirm arbeiten, leiden unter Procrastination, das sind chronische Aufschubtechniken und unter extremer Zeitverschwendung.[37] 

Wir sehen: Seit der Erfindung der Schrift gibt es keinen technischen Fortschritt in der sekundären Kommunikation, der nicht von einer kritischen Medienethik mit Ahnungen und Warnungen begleitet wurde. Daraus lassen sich nun allerdings ganz unterschiedliche Schlüsse ziehen: Eine affirmative Medienethik wird sich über die Bedenkenträger amüsieren und darauf verweisen, alle historischen Befürchtungen gegenüber dem je neuesten Stand der Kommunikationstechnologie habe sich als hilf- und haltlose Maschinenstürmerei erwiesen. Die großartigen Vorteile gerade der neuen Medien, die globale Kommunikation und Information revolutionierten, dürften nicht klein geredet und durch vermeintliche Gefahren eskamotiert werden. Kritik der neuen Medien sei reine Don Quichotterie.

 

Die kritische Medienethik wird zum einen darauf verweisen, dass nicht von ungefähr kein neues Medium je ein älteres verdrängt hat, und darauf beharren, die Schäden der neuen Medien für die Sozialität, das Bewusstsein und das Sein der Menschen seien womöglich  größer als die unbestrittenen Vorzüge komfortablerer Information und Kommunikation.

Platons Kritik der Schrift mag heute bizarr wirken, aber die Rede vom 'Verlust der Unmittelbarkeit' ist auch heute noch sehr hilfreich, um den Wandel in der persönlichen Kommunikation auf den Begriff zu bringen. Beim Telefonieren geht die Unmittelbarkeit von Deixis und Augenschein verloren, beim Mailen die Akustik und die Gleichzeitigkeit, die Unmittelbarkeit von Rede und Gegenrede. Manche Menschen empfinden es heute bereits als Zudringlichkeit, wenn angerufen und nicht gemailt oder gesimst wird. Dabei ist der Verlust an  Humanität, den das Preisgeben der Stimme in der privaten Kommunikation bedeutet, noch gar nicht recht ermessen.  

In virtueller Kommunikation,  bei "second life", "studiVZ", "Club Penguin" schließlich kommunizieren Stellvertreter, Avatare, der eigenen Person, mit Avataren der anderen. Damit ist ein Grad an Verlust von Unmittelbarkeit erreicht, der es u.a. extrem erleichtert, soziale Schranken zu durchbrechen. Wenn mein Avatar deinen Avatar beleidigt, demütigt oder übervorteilt, kann dich das zwar als reale Person traumatisieren, aber ohne alle rechtlichen Konsequenzen. Der Verlust von Unmittelbarkeit eröffnet hier einen moralfreien Raum, der sich rasch mit Dingen füllen wird,[38] gegen die der Staatsanwalt machtlos ist.[39]

Wie Platons Begriff noch heute heuristischen Wert hat, aktuelle Tendenzen in den Medien kritisch zu hinterfragen, so auch Adornos Rede von  "Verblendung" und Entfremdung, Günter Anders Analyse des Neutralisierungseffekts oder Sloterdijks Diagnose eines doppelten Zynismus der Medien. Alle verweisen auf ethisch  problematische Aspekte gerade auch der neuen Medien.

 

 Einige weitere  Begriffe scheinen mir aber notwendig gerade für eine kritische Ethik der neuen Medien: Individualisierung und Anonymisierung, sowie  Dissoziierung und narzisstische  Enthemmung. In den ersten beiden bestätigen und verdichten sich in medialen,  allgemeine Tendenzen der Moderne. Individualisierung ist schließlich nicht nur ein Prozess medialer Kommunikation - vom gemeinsamen Kinobesuch zum individuellen DVD-Film, vom gemeinsamen Demonstrieren zum individuellen Bloggen - sondern der Lebensstile insgesamt.

Anonymisierung gibt es nicht nur in der medialen Kommunikation: was ich hoch- und herunterlade, im Chat oder Blog von mir gebe,  weiß niemand - außer den staatlichen Spähern natürlich - sondern in allen Lebensbereichen. Dieser Anschluss medialer Tendenzen an die moderne Lebenswelt insgesamt verstärkt ihre Relevanz für die Medienethik.

Beides, Individualisierung wie Anonymisierung sind altbekannte Feinde der Verantwortlichkeit, der Hilfsbereitschaft, allgemein der moralischen Zuwendung zum Anderen. Denn diese setzt eine kollektive Identität voraus,  ein Verständnis für Gemeinsamkeit und für Zuständigkeiten, für Zusammengehörigkeit mit konkreten Anderen.

Die zahllosen, lockeren Kontakte, die in den "communities" gepflegt werden, sind aber etwas ganz anderes. Sicher hat es etwas Faszinierendes, anonym in den Äther hineinzurufen und aus dem Äther Antwort zu erhalten, jedenfalls kann diese unerhört neue Art zu kommunizieren den Zulauf zu den "communities" erklären - aber mit echten, menschlichen Beziehungen, gar Freundschaften, hat diese Art der Kontaktpflege nichts zu tun. "Ein Freund", sagt William Deresiewicz, ist nicht der, der mir jeden blödsinnigen Gedanken mitteilt, der ihm im Kopf herumgeht - ein Freund ist der, den ich sechs Monate nicht sehe, für den ich mir dann aber ein ganzes Wochenende Zeit für Gespräche nehme."[40]

  Permanent online zu sein, permanent "Statusberichte" über die eigene Befindlichkeit abzugeben "erzeugt die Illusion von Gemeinschaft ohne die Verpflichtungen, die echte Freundschaft mit sich bringen. Wann immer man das Bedürfnis hat, mit einem «Freund» zu kommunizieren, schreibt man einfach eine kurze Nachricht in eine der neuen Plattformen – und erhält sogleich Antwort. Die dauernde Verfügbarkeit der Community erzeugt ein wohliges Gefühl von Nähe und sozialer Anbindung: Man kann Einzelgänger sein, ohne wirklich allein zu sein."[41], stellt Max Celko in einer Studie über Medien und Identität fest. Die Kombination lustvoller Selbstentblößung im Schutzraum der Anonymität - man denke an die Manie, jede Belanglosigkeit im Bild festzuhalten und ins Netz zu stellen - mit der Illusion echter menschlicher Beziehungen durch die Pseudo-Freundschaften der "communities" lässt auf die Dauer das Verständnis für soziale Normen verkümmern.

 Individualisierung und Anonymisierung beschreiben die sozialen Folgen der neuen Medien, sie stellen  Prozesse dar, die sich negativ auf die soziale, und damit auch ethische, Kompetenz auswirken.

Dissoziierung und narzisstische Enthemmung beschreiben eher mentale Folgen der neuen Medien. Unter Dissoziierung soll jener Prozess verstanden werden, der durch synästhetische Reizüberflutung - Wort und Schrift und Bild und Film und Ton bestürmen uns auf einmal - und die Gleichzeitigkeit unterschiedlicher medialer Präsenzen entsteht. Man muss nicht gleich, wie Frank Schirrmacher, behaupten:  "Multitasking ist Körperverletzung"[42], um es einigermaßen bizarr zu finden, wenn anlässlich der medialen Inszenierung des neuen i-pad als dessen Vorzug gepriesen wird: Mit dem i-pad auf dem Schoß, könne man beim Fernsehen gleichzeitig die aktuellen Einschaltquoten oder Hintergrundinformationen zum Gesehenen abfragen.[43] 

Die Dissoziation des Bewusstseins durch die neuen Medien führt zu einer sukzessiven Entkernung des Selbstbewusstseins bzw. der Identität, dessen Folgen für die Möglichkeit moralischen Handelns fatal sein dürften.

Jean Paul Sartre hat, in anderem Zusammenhang, das Problem des Selbstbewusstseins, das nur gelegentlich bei sich selbst ist, an einer eindrücklichen Geschichte veranschaulicht: Wenn ich durch ein Schlüsselloch schaue, um das Treiben im Nebenzimmer zu beobachten, so ist in diesem Moment mein Selbstbewusstsein außer Kraft gesetzt.  Die Objekt­haftung meines Bewusstseins bedingt, dass es mich nicht selbst erfasst - ich als Person bin meinem Bewusstsein in diesem Moment nicht gegenwärtig ich bin nicht bei mir.  Sar­tre nennt dies ein „unreflektiertes Bewusstsein". Erst wenn ich Schritte höre,  als Voyeur überrascht werde, und mich nun im Angesicht des Anderen zu schämen beginne, erwacht mein Selbstbewusstsein wieder. "Meine Scham ist ein Geständnis", sagt Sartre.[44]

Sind die neuen Medien das Schlüsselloch, von dem wir uns nicht mehr lösen können, das uns so in Bann und außer Atem hält, dass wir nicht mehr zu uns kommen? Dann steht es schlecht um das moralische Bewusstsein, das sich erst im Blick des konkreten Anderen als reflektiertes Bewusstsein entfalten kann.

Ist bei den dissoziativen, das Selbstbewusstsein auflösenden Prozessen das mediennutzende Subjekt eher in einer passiven Rolle, sieht es der Begriff der narzisstischen Enthemmung als Akteur. Der neue "Strukturwandel der Öffentlichkeit", den das Internet mit seinen Millionen an Webseiten, Plattformen, Foren etc. darstellt, hat eine Grauzone zwischen Privatheit und Öffentlichkeit entstehen lassen, in der sich jeder zu allem äußern und seine narzisstischen Inszenierungsbedürfnisse ungehemmt ausleben kann.  Die Verlockung  globaler, medialer Präsenz bei geringstem persönlichem Aufwand  ist vor allem bei jenen übermächtig, die anders sich kaum Gehör verschaffen können. Und entsprechend sind die Ergebnisse, ein Beispiel genügt: 

Über den Medientheoretiker Vilém Flusser finden sich bei Google 70.000 Einträge und bei Wikipedia eine Seite,  Paris Hilton bringt es bei Google auf 38 Millionen Einträge  und bei Wikipedia wird sie mit sechs Seiten gewürdigt.[45] Das "externe Gehirn" des Internet bildet eine so grotesk verzerrte Welt ab, dass jeder, der sich daran dauerhaft anschließt, in seinem biologischen Gehirn entsprechende Verzerrungen gewärtigen muss.

An moralischen Urteilen mangelt es in dieser bizarren Welt gewiss nicht, aber sie lösen sich in ihrer Gleich-Gültigkeit und postmodernen Vielfalt in Beliebigkeit auf. Die narzisstische Enthemmung der Millionen, die das Netz speisen, macht es für jede normative Orientierung untauglich.  

 

 Ein allerletzter Blick:

Schließlich unterscheiden sich affirmative und kritische Medienethik in ihrem Umgang mit dem, was Günter Anders  einst "prometheische Scham" nennt, also dem Umstand, "dass wir es so herrlich weit gebracht haben, uns vor Dingen zu schämen"[46].  Anders leitet seine Kritik noch aus den technischen Errungenschaften der "zweiten industriellen Revolution" ab - wie viel größer ist diese prometheische Scham gegenüber den digitalen Medienautomaten der dritten industriellen Revolution! Die Maschine beschämte mich durch ihre körperliche Überlegenheit, der Computer durch seine geistige. Aber es geht nicht nur darum, dass ich gegen "Deep Blue" im Schach und „Alpha-Go“ im Go-Spiel keine Chance habe und mein PC mir ab und an rät, all jene seiner Funktionen zu löschen, die ich ohnehin nie nutze. Diskreter weise verschweigt er den Grund: weil ich sie gar nicht verstehe. Es geht längst darum, mit der Scham umzugehen, dass permanent neue Geräte und neue Anwendungsmöglichkeiten auftauchen, deren Namen ich nicht einmal verstehe, geschweige denn, dass ich wüsste, wozu sie dienen und wie sie zu bedienen sind.

Die affirmative Medienethik steht ganz im Bann dieser prometheischen Scham. Sie  reagiert  beflissen: In vorauseilendem Gehorsam bemüht sie sich um stets aktuelle "Medien-kompetenz". Gebildete ältere Damen und Herren hoffen, die Elektrifizierung ihrer Kommunikation mache sie irgendwie jünger, sie fürchten, den Anschluss - an was eigentlich? - zu verlieren,  nicht mehr ernstgenommen zu werden - von wem eigentlich? - wenn sie nicht simsen, surfen und chatten und das neueste I-pad  vorzeigen können.

Frank Schirrmacher liefert ein besonders schönes Beispiel für diese Art beflissener Scham, wenn er sein Medienmenetekel "Payback" mit dem koketten Eingeständnis beginnt: "Was mich angeht, so muss ich bekennen, dass ich den geistigen Anforderungen unserer Zeit nicht mehr gewachsen bin."[47] Um dann sogleich zu betonen, wie souverän er seine "SMS, E-Mails, Feeds, Tweets, Newssites, Handyanrufe und Newsaggregatoren"[48] dirigiere.

Eine kritische Medienethik reagiert gelassener auf die digitale Medienoffensive. Sie wird fragen: Warum die Aufgeregtheit? Lassen wir sie doch ruhig einige Zeit neben einander herlaufen:

Die Surfer, Chatter, Blogger, Twitterer und die Leser von Romanen, Zeitungen und Fachbüchern. Das entscheidende Kriterium für Zukunftstauglichkeit und ein glückliches Leben wird doch wohl sein, wer von beiden die Welt besser und tiefer versteht. Und dann sehen wir mal.  



[1] Pressekodex, Bonn 2008. Zit. nach: http://www.presserat.info/pressekodex.0.html

[3] Zit nach: C. Thimm, Die große Freiheit in virtuellen Welten? Ethische Fragen im Kontext von Second life. In: zfkm 1/2009. S. 53. Der erste Teil des Zitats wurde von mir aus dem Englischen übersetzt.

[4] Titel eines bekannten Computer-Kriegsspiels.

[5] "Die Freiheit der Presse...wird gewährleistet. Eine Zensur findet nicht statt." heißt es in Art. 5. Der zweite Satz ist als Bedingung für den ersten zu verstehen.

[6] Vgl. Süddeutsche Zeitung, 28. 01. 2010. S. 3

[7] L. Krainer, Medien und Ethik, München 2001, S. 317.

[8] L. Krainer, Medienethik als angewandte Ethik, in: Medien und Ethik, Hrsg. M. Karmasin. Stuttgart 2002, S. 158.

[9] Felix Weil, Die Medien und die Ethik, Freiburg, München 2001, S. 141.

[10] R. Silverstone: Mediapolis. Die Moral der Massenmedien. Frankfurt/M. 2007, S. 284.

[11] Medienpädagogischer Forschungsverbund Südwest: JIM-Studie 2009. Stuttgart 2009. S. 6.

[12] Heinz Moser: Medienkritik in den Zeiten von Digital Divide und Web 2.0. Vortrag in der AG 47 auf dem 21. DGfE-Kongress in Dresden. Unveröffentlichtes Manuskript.

[13] Vgl. JIM-Studie 2009. S. 37 ff.

[14] F. Schirrmacher: Payback. München 2009. S. 13.

[15] Zit. nach:

[16] Vgl. Stuttgarter Zeitung, 31. 01. 2010. S. 31.

[17] J. Rifkin: Die empathische Zivilisation. Frankfurt(M. New York 2010. S. 401.

[18] Jaron Lanier in: Stuttgarter Zeitung, 30. 01. 2010. S. 31.

[19] P. Grimm: Gewalt im Web 2.0. In: zfkm. 2/2009. S. 10.

[20] Ebd.

[21] C. Thimm: Die große Freiheit in virtuellen Welten? In: zfkm 1,2009. S. 49-56. S. 55f.

[22] G. Anders, Die Antiquiertheit des Menschen, Bd. I, (1956)  München 1985, S. 99.

[23] M. McLuhan, Die magischen Kanäle, (1964) Düsseldorf, Wien 1995², S. 18.

[24] Ebd. S. 40.

[25] Ebd. S. 111.

[26] Medienpädagogischer Forschungsverbund Südwest: JIM-Studie 2009. Stuttgart 2009. S. 27.

[27] T.W. Adorno, Kulturindustrie, in:  M. Horkheimer, Ges. Schriften, Bd. V, Frankfurt/M. 1987, S. 151.

[28] Ebd. S. 152.

[29] J. Mander, Schafft das Fernsehen ab, Hamburg 1981, S. 274 f.

[30] P.Winterhoff-Spurk: Kalte Herzen. Wie das Fernsehen den Charakter verändert. In:  Zeitdossier: Forschung&Lehre 10/2005. S. 523.

[31] J. Baudrillard: Requiem für die Medien. In: Ders.: Kool Killer oder der Aufstand der Zeichen. Berlin 1978. S. 91.

[32] P. Sloterdijk, Kritik der zynischen Vernunft, Bd 2, Frankfurt/M. 1983, S. 561.

[33] B. Bürdek, Hrsg., Der digitale Wahn, Frankfurt/M. 2001.

[34] Ebd. S. 210.

[35] V. Flusser: Kommunikologie. Mannheim 1996. S. 103.

[36] V. Flusser: Die Schrift. Hat Schreiben Zukunft? Göttingen 1987. S. 12.

[37] J. Ferrari spricht von procrastination (chronisches Verschieben) als neuem Krankheitsbild bei Menschen, die

    am Bildschirm und im Internet arbeiten. Vgl: Süddeutsche Zeitung, 23. 07. 2008, S. 11.

[38] Avatare könnten auch unmittelbarer mit eigener Stimme kommunizieren. Darauf verzichten aber die allermeisten virtuell Kommunizierenden - aus gutem Grund: Sie wären über ihre Stimme leichter identifizierbar.

[39] Als 2007 in "second life" Kinderpornographie verbreitet wurde, gab es zwar eine Anzeige gegen Unbekannt - aber sie blieb ohne Erfolg.

[40] W. D. im Interview mit J. Kuhn: Süddeutsche Zeitung, 19. 02. 2009. S. 13.

[41] M. Celko: Medien und identität. In: Deutschunterricht (DU) 3, 2009. S. 44.

[42] F. Schirrmacher: Payback a.a.O. S. 69ff.

[43] Vgl.  Süddeutsche Zeitung, 25. 01. 2010. S. 3

[44] J. P. Sartre: Das Sein und das Nichts. Reinbek b. Hamburg 1962. S. 348.

[45] Das Stichwort "kritische Medienethik" findet sich bei Google ein Mal.

[46] G. Anders: Die Antiquiertheit des Menschen. Band I.  München 1984. S. 95.

[47] F. Schirrmacher: Payback. A.a.O. S. 13.

[48] Ebd.