image

INHALT

 

 

 

NEUROETHIK

Das relative Gute

Sind uns bestimmte moralische Werte in die Wiege gelegt? Und wenn ja, welche? Diese Fragen werden immer wieder kontrovers diskutiert.

Zwischen Sein und Sollen

Auch Ethiker nehmen heute die neurowissenschaftlichen Resultate in ihre Argumentationen auf. »Experimentelle Philosophen« rufen sogar einen neuen Zweig der Moralforschung aus.

Was ist gerecht?

Sie zählt zu den grundlegendsten Fragen der Ideengeschichte: Was ist eine moralisch gute Handlung und was eine böse? Der Philosoph Julian Nida-Rümelin sichtet die Antworten, die die größten Denker darauf gaben.

HIRNDOPING

Schlauer auf Rezept?

Mehr Konzentration, ein besseres Gedächtnis, kreativere Ideen – wer träumt nicht davon? Doch das viel beschworene Neuroenhancement ist umstritten: Manche Experten sehen darin einen Ausdruck des zunehmenden Leistungsstrebens.

INTERVIEW

»Schönheitschirurgie für die Seele«

Der Mainzer Neurophilosoph Thomas Metzinger glaubt, dass Pillen zur Steigerung der geistigen Leistungsfähigkeit eines Tages so normal sein könnten wie Autofahren.

Einmal Moral forte, bitte!

Lassen sich unsere ethischen Urteile auf chemischem Weg manipulieren? Gibt es bald »Empathie auf Rezept«? Philosophen diskutieren Chancen und Risiken solcher Zukunftsträume.

MORAL IM ALLTAG

Ein Herz für Sünder

Anderen zu verzeihen, fällt uns oft schwer. Psychologen haben erforscht, unter welchen Umständen wir eher dazu bereit sind.

INTERVIEW

»Rache allein bringt nichts«

Der Berliner Emotionssoziologe Christian von Scheve über Schuld, Vergebung und Rituale der Reue.

Im Bann des Vorurteils

Schubladendenken gilt gemeinhin als schlecht – aber im Alltag darauf zu verzichten, ist gar nicht so leicht.

Gefühlte Fairness

Wann betrügen Menschen? Ökonomen hielten lange Zeit den möglichen Profit sowie das Risiko aufzufliegen für entscheidend. Doch das ist zu simpel.

Zahlen oder nicht?

Die Steuermoral der Bürger ist umso größer, je mehr sie sich mit dem Staat identifizieren.

EMPATHIE & VERTRAUEN

Der empathische Egoist

Sind Eigennutz und Selbstlosigkeit wirklich unvereinbar? Laut dem Philosophen Michael Pauen sind wir im Gegenteil sogar dringend auf das Zusammenspiel dieser vermeintlich so gegensätzlichen Eigenschaften angewiesen.

Elixier der Nähe

Ob Sex, Bindung oder Tauschhandel – unser soziales Miteinander dirigiert ein Stoff mit erstaunlichen Kräften: Oxytozin. Möglicherweise kann das »Vertrauenshormon« sogar Krankheiten lindern helfen.

Die Ich-Blockade lösen

Neuropharmakologen suchen nach Medikamenten gegen Autismus. Doch obwohl manche Substanzen im Tierversuch »sozialer« machen, beheben sie noch lange nicht die Probleme der Betroffenen.

TIERETHIK

STREITGESPRÄCH

»Tierschutz verlangt mehr, als unser Recht erzwingt«

Aktivisten fordern basale Menschenrechte auch für andere Spezies. Das Für und Wider diskutieren die Ethiker Friederike Schmitz und Peter Kunzmann.

Im Dienst der Wissenschaft

In vielen neurowissenschaftlichen Labors sind Experimente an Mäusen, Hunden oder Rhesusaffen an der Tagesordnung. Das Wohl und Wehe von Versuchstieren zu beurteilen, erscheint dabei schwieriger als gedacht.

STREITGESPRÄCH

»Bonobos bauen keine Kathedralen«

Tierversuche in der Hirnforschung: notwendiges Opfer oder überflüssige Quälerei? Ein Streitgespräch zwischen dem Philosophen Klaus Peter Rippe und dem Neurowissenschaftler Wolf Singer.

 

 

 

 

 

EDITORIAL

Image

Steve Ayan
Redakteur bei GuG
ayan@spektrum.de

Gute Seiten, schlechte Seiten

»Ich habe jemanden umgebracht.« Kaum war der Satz ausgesprochen, herrschte Stille im Wagen. Unser Mitfahrer auf der Rückbank sah aus dem Fenster, als suchte er dort die richtigen Worte. Der Mann wirkte dabei ganz ruhig, sprach mit sanfter, fast trauriger Stimme. »Es war falsch, ich hätte es nicht tun sollen. Aber der, den ich erschossen habe, hat meine Schwester vergewaltigt.«

Solchen Schicksalen kann man begegnen, wenn man wie meine Frau und ich im letzten Türkeiurlaub einen einsamen Tramper am Straßenrand aufgabelt. Wir unterhielten uns mit dem frisch aus dem Gefängnis Entlassenen, der auf der langen Reise in sein anatolisches Heimatdorf war, gaben ihm am Ende noch etwas Geld und setzten ihn an der Schnellstraße ab. Er bedankte sich höflich, wünschte uns einen guten Tag, nahm seinen Koffer und ging.

Urteile darüber, was gut und böse ist, sind meist schnell zur Hand. Doch eine triftige Begründung dafür, warum wir gerade so und nicht anders denken, findet sich viel schwieriger. Forscher bemühen hierfür heute ausgefeilte Versuchsparadigmen wie das Ultimatumspiel und bildgebende Verfahren, die die Hirnaktivität von Probanden während ethischer Entscheidungen offenbaren. So entstand eine neue Disziplin, die experimentelle Philosophie (siehe S. 18).

In diesem dritten und letzten Heft der Reihe »Rätsel Mensch« haben wir die wichtigsten Beiträge aus »Gehirn und Geist« sowie »Spektrum der Wissenschaft« zu Themen der Moralpsychologie und Neuroethik gebündelt. Lesen Sie zum Beispiel ab S. 52, wie sich unser Moralempfinden pharmakologisch verändern lässt, und ab S. 101, warum uns ein gewisses Maß an Egoismus guttut. Auch die Frage, was wir anderen Spezies antun dürfen und was nicht, beschäftigt Tierethiker ebenso wie den Normalbürger (siehe S. 128).

So manche Erkenntnis von Philosophen und Forschern kann uns helfen, andere nicht vorschnell zu verurteilen und unsere intuitiven moralischen Bewertungen mit etwas mehr Distanz zu betrachten. Denn Gut und Böse liegen im wahren Leben doch oft näher beieinander, als es auf den ersten Blick erscheint.

Eine erhellende Lektüre wünscht

Ihr

Image

NEUROETHIK WERTE

Das relative Gute

Ist Moral allein ein Produkt der Kultur – oder gibt es Werte, die alle Menschen teilen? Laut Forschern beruhen ethische Urteile auf Emotionen. Doch deshalb sind sie noch lange nicht »naturgegeben«.

VON STEVE AYAN

AUF EINEN BLICK

Ethik und Emotion

1

Sitten, aber auch moralische Normen unterscheiden sich zwischen verschiedenen Kulturen oft
deutlich.

2

Unsere Urteile in ethischen Fragen werden laut Forschern von Emotionen vermittelt. Manche vermuten darin eine biologische Grundlage der Moral.

3

Obwohl wir als soziale Wesen zum Miteinander geboren sind, dürften uns keine festen moralischen Werte angeboren sein.

Es gibt Dinge, die gehen einfach gar nicht. Lügen etwa, Versprechen brechen, andere betrügen oder ihnen mutwillig schaden. »Was du nicht willst, das man dir tu, das füg auch keinem andern zu!« Den größten Teil unserer Kindheit verbringen wir damit, solche Regeln zu verinnerlichen – und zwar weniger durch Einsicht als durch langes Üben. »Gib ab! Nicht hauen! Entschuldige dich!« Der ständige Appell, sozial verträglich zu handeln, sowie eine Fülle von Konventionen formen mit der Zeit eine Vorstellung davon, was sich gehört und was nicht.

Hier gibt es aber durchaus großen Spielraum, wie ein Bick auf andere Kulturen zeigt: Unter den Etoro, einem Naturvolk auf Papua-Neuguinea, ist es üblich, dass Jungen, um in die Gemeinschaft der Erwachsenen aufgenommen zu werden, ältere Männer oral befriedigen! Zugegeben, ein weit hergeholtes Beispiel. Doch man muss nicht in entlegene Winkel der Welt fahren, um Sitten zu finden, die uns hier zu Lande moralisch fragwürdig erscheinen. Koreaner essen unsere treuesten Gefährten – Hunde. Im arabischen Raum verheiraten viele Eltern ihre Töchter nach eigenem Belieben. Und US-Amerikaner befürworten mehrheitlich die Todesstrafe.

Das Erstaunliche ist nun nicht, dass es solche Praktiken gibt – auch bei uns geht ja vieles moralisch nicht astrein zu, wie etwa der groteske Freikauf von Formel-1-Milliardär Ecclestone zeigt (um nur ein Beispiel zu nennen). Erstaunlich ist vielmehr die Bandbreite dessen, was Menschen als ethisch richtig oder zumindest unbedenklich ansehen. In multikulturellen Gesellschaften wird das besonders brisant, weil hier unterschiedliche Moralvorstellungen aufeinanderprallen.

Dann ist Toleranz gefragt. Beziehungsweise Konsens darüber, dass manche Werte allen gemeinsam sein sollten. Nur welche? In Zeiten der Neuroethik (gefettete Begriffe siehe »Grundbegriffe der Moralforschung«) stellen sich Forscher wie auch Laien immer wieder die Frage: Hilft der Blick ins Gehirn vielleicht, eine natürliche, angeborene Moral des Menschen zu definieren? Sind nicht zumindest einige Normen fest im Denkorgan verankert?

Sicher gibt es Grundfesten, auf die jede Gesellschaft baut: etwa das Verbot zu töten, zu betrügen oder zu rauben. Sie sind essenziell für eine funktionierende Gemeinschaft – aber sind sie auch naturgegeben? Angesichts zahlloser gewalttätiger Konflikte mag man das bezweifeln. Womöglich gibt es die moralischen Auflagen von Fairness und Friedfertigkeit ja gerade, weil wir uns »von Natur aus« selbst am nächsten sind und Interessen notfalls auch brutal durchsetzen? Augenscheinlich ist es alles andere als trivial, die Grenzen zwischen sozial erworbener und angeborener Moral abzustecken.

Philosophen und Theologen galten die Regeln der Ethik jahrhundertelang als gottgegeben. Ehrfürchtig staunte etwa Immanuel Kant (1724–1804) über das moralische Gesetz in ihm, das so unbezweifelbar sei, dass es von einer höheren Macht stammen musste. Der zu Beginn in kindgerechtem Deutsch zitierte »kategorische Imperativ« galt ihm als oberster Grundsatz. Das Prinzip der Reziprozität, das darin zum Ausdruck kommt, halten auch heute noch viele Ethiker für universell gültig – doch das liegt wohl vor allem daran, dass es so abstrakt ist. Welche konkreten Forderungen in Form alltäglicher Ge- und Verbote sich daraus ergeben, bleibt offen.

Bei so handfesten Fragen wie der, ob und welche Tiere man essen oder welche Formen der Sexualität man leben darf, herrscht heute ein historisch wohl einzigartiger ethischer Relativismus: Es ist uns quasi in Fleisch und Blut übergegangen, dass andere Menschen – zumal in fremden Ländern – oft nicht nur andere Sitten pflegen, sondern auch andere Vorstellungen davon haben, was ethisch akzeptabel ist.

Die Suche nach einem natürlichen »Moralinstinkt« erhielt in jüngerer Zeit jedoch neuen Auftrieb durch Ergebnisse der Hirnforschung. Den Stein ins Rollen brachten etwa Studien des experimentellen Philosophen Joshua Greene, der heute an der Harvard University lehrt. Er konfrontierte Probanden mit einer inzwischen berühmten moralischen Zwickmühle: Stellen Sie sich vor, ein außer Kontrolle geratener Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Durch Umlegen einer Weiche können Sie das Gefährt auf ein Nebengleis lenken, wo ein einzelner, nichts ahnender Kollege steht. Würden Sie diesen einen opfern, um fünf andere zu retten? Die meisten Probanden bejahen das.

Was aber, wenn man einen Mann von einer Brücke stürzen müsste, um den Waggon aufzuhalten? Die Art der Beteiligung macht einen großen Unterschied, obwohl es rechnerisch aufs Gleiche hinausläuft. Nun will fast niemand den Fünfertrupp retten, egal wie vernünftig es erscheinen mag; ein Mord von eigener Hand ist dafür ein zu hoher Preis.

Die Hirnaktivität von Versuchsteilnehmern, die solche Entscheidungen in Greenes Labor fällen sollten, unterstreicht das: Wie Messungen per funktioneller Magnetresonanztomografie (fMRT) ergaben, wird unser Urteil im ersten Fall unter anderem von vermehrtem Feuern der Neurone in dorsolateralen präfrontalen Kortex (DLPFC) begleitet. Dieses Areal ist am Abwägen von Handlungsoptionen beteiligt – ein Kosten-Nutzen-Rechner, der besonders das Arbeitsgedächtnis beansprucht. Das zweite Szenario dagegen löst stärkere Aktivität in Bereichen wie dem zingulären Kortex aus, der emotionale Reaktionen vermittelt. Offenbar sticht die Gefühlsaufwallung das kühle Für und Wider aus.

Greene gründete auf diese und weitere Befunde seine Dual Process Theory (»Zwei-Prozess-Theorie«) des moralischen Urteilens. Sie besagt kurz, dass ethische Fragen im Gehirn zwei verschiedene Pfade aktivieren, einen kognitiven und einen emotionalen. Die Gefühle hätten dabei das letzte Wort: Wir mögen manches zwar vernünftig finden, gut und richtig werde es erst kraft unserer Emotionen.

Damit knüpft die Zwei-Prozess-Theorie an einen alten Streit der Moralphilosophie an: den zwischen Rationalisten und Sentimentalisten. Erstere – darunter Kant – glaubten, ethische Urteile seien nur dann legitim, wenn man sie als richtig erkenne. Bauchgefühle allein genügten nicht; erst Einsicht in die zu Grunde liegenden Prinzipien mache den Menschen zu einem moralischen Wesen.

Dieser »Begründungsethik« widersprach etwa der Brite David Hume (1711–1776) mit dem Hinweis darauf, dass sich ethische Regeln nicht rational herleiten ließen. Als entscheidende Zutat betrachtete er vielmehr das moralische Empfinden (englisch: sentiment). Daher auch der Name dieser Ethik der Gefühle: Sentmentalismus. Viele Laborstudien der letzten 20 Jahre belegen, dass unsere moralischen Urteile tatsächlich eng an Emotionen geknüpft sind.

Menschen mit einer Schädigung in Hirnbereichen, die emotionale Bewertungen steuern, haben meist auch große Probleme, Handlungen moralisch einzuordnen. Forscher wie der Bielefelder Neuropsychologe Hans Joachim Markowitsch vermuten solche Defekte auch bei Psychopathen.

Ein weiterer wichtiger Hinweis: Wissenschaftlern gelang es, moralische Urteile zu manipulieren, indem sie die Gefühle der betreffenden Probanden zuvor in bestimmte Bahnen lenkten. Wie zum Beispiel Arbeiten der Psychologin Simone Schnall von der University of Cambridge (England) ergaben, verurteilen Menschen moralische Vergehen wie Kannibalismus oder das Überfahren eines Hundes oft schärfer, wenn sie sich gleichzeitig ekeln – etwa weil ein übler Geruch in der Luft liegt. Eine ganze Reihe solcher Studienbefunde machten den Ekel zum heißesten Anwärter auf den Titel der »moralischen Emotion«.

Paul Rozin von der University of Pennsylvania in Philadelphia erforscht die Macht des Angewidertseins bereits seit den 1980er Jahren. Wie er und seine Kollegen zeigen konnten, löst Unmoral regelrecht körperliche Abscheu in uns aus. So bereitet es Probanden starkes Unbehagen, wenn sie etwa die (vermeintliche) Kleidung eines Serienmörders anziehen oder Leuten mit offenbar rassistischen Ansichten die Hand geben sollen. Aus dem gleichen Grund befreit simples Händewaschen häufig von Schuldgefühlen.

Ekel, erklärt Rozin, hat nicht nur eine biologische Schutzfunktion und bewahrte schon unsere Vorfahren davor, potenziell giftige Nahrung zu sich zu nehmen. Der »nützliche Widerwille« habe sich im Lauf der Evolution auf die Regeln der Gemeinschaft übertragen. Unrecht, Betrug, Mord ekeln uns seither an – und auf Grund der gemeinsamen neuronalen Ausstattung fühle sich das für alle Menschen wohl auch ähnlich an. Doch gibt es deshalb angeborene Werte?

Für den Neurophilosophen Jesse Prinz von der New York University zeugt die enge Verbindung von Ekel und Moral im Gegenteil davon, wie stark uns Erziehung und Kultur prägen. Denn was genau dem Einzelnen widerwärtig erscheint, sei nicht weniger flexibel als das soziale Gefüge selbst. Dass sich moralische Emotionen im Gehirn niederschlagen, beweise keineswegs, dass ihr jeweiliger Gegenstand irgendwie biologisch festgelegt sei.

Das Gehirn kann sogar auf verschiedenen Wegen zur gleichen moralischen Bewertung kommen. Das berichten etwa Forscher der kalifornischen Stanford University und der Seoul National University in Südkorea. Sie verglichen die Hirnaktivität von 16 amerikanischen und asiatischen Probanden, während diese moralische Dilemmata bewerteten.

Waren die vorgelegten Szenarios persönlicher Art (etwa bei der Frage, ob man einem Baby den Mund zudrücken würde, wenn dessen Geschrei feindliche Soldaten in einem Kriegsgebiet alarmieren könnte), machte sich ein wohl kulturell bedingter Unterschied bemerkbar: So zeigten Koreaner vermehrt neuronale Aktivität im Putamen, einem Teil der Basalganglien; es gehört zu einem Schaltkreis, der unter anderem zur Feinabstimmung von Bewegungen dient. Bei den US-Bürgern sprang dagegen der »Konfliktvermittler« im vorderen zingulären Kortex (ACC) an.

Erklärung der Forscher: Amerikaner ringen stärker mit Für und Wider, weshalb sie im Schnitt auch etwas länger für ihre Entscheidung brauchten, während Asiaten eher Handlungen durchspielen oder vergleichbare Erfahrungen heranziehen. Unterm Strich bewerteten beide Gruppen das skizzierte Verhalten aber ganz ähnlich.

Es gibt vor allem zwei relativ harte Indizien dafür, dass uns eine Eigenschaft oder ein Verhalten in die Wiege gelegt ist: wenn sich etwas Vergleichbares auch bei Tieren nachweisen lässt und wenn es über unterschiedliche Kulturen hinweg uniform auftritt. Zwar zeigen andere Säuger durchaus Ansätze von moralischer Entrüstung, die der beim Menschen ähnelt (siehe »Moralische Tiere?«). Doch sie bezieht sich allein auf solche Situationen, in denen sie selbst zu kurz kommen – von allgemein gültigen Leitfäden keine Spur.

Und im interkulturellen Vergleich fällt auf, dass so universell erscheinende Prinzipien wie das der Anteilnahme oder der Reziprozität eben sehr verschieden ausgeformt sind und gelebt werden. Man muss nur tief genug in eine soziale Gemeinschaft hinabsteigen, bis sich solche »Gesetze« in den Tumulten und Konventionen des Alltags aufzulösen scheinen.

Für Jesse Prinz hat die empirische Moralforschung zwar den Streit zwischen Ratio und Emotionen zu Gunsten Letzterer entschieden. Doch deshalb seien die Maßstäbe, die wir anlegen, noch lange nicht fix und unhinterfragbar. Warum müssten wir auch sonst so viele Worte darum machen und so viel Mühe auf ihre Beachtung verwenden, wenn nicht zu dem Zweck, sie uns und unseren Kindern beizubringen?

Die meisten ethischen Urteile, mahnt Prinz, sind wenig durchdacht, weshalb sie uns intuitiv oft so unabweisbar erscheinen. Solche Intuitionen, auch das zeigen Experimente, sind gleichwohl manipulierbar. In einer Studie von 2014 demonstrierten Forscher um Danique Jeurissen vom Niederländischen Institut für Neurowissenschaft in Amsterdam, dass Probanden moralische Fragen anders bewerten, wenn ihr dorsolateraler präfrontaler Kortex (DLPFC) kurzzeitig lahmgelegt wird.

Dies gelingt Forschern heute recht zielsicher, indem sie ein starkes Magnetfeld am Schädel über der betreffenden Hirnregion anlegen. Die so genannte transkranielle Magnetstimulation (TMS) unterbindet das koordinierte Feuern der Neurone. Wie Jeurissen aus ihren Daten schlussfolgert, kontrolliert der DLPFC jene emotionale Erregung, in die uns ethische Probleme versetzen können. Fällt die innere Handbremse aus, urteilen wir rascher und eher gemäß dem spontanen Bauchgefühl.

Machen Sie zum Schluss noch einen kleinen Selbsttest und entscheiden Sie, frei von der Leber weg, wie (un)moralisch Ihnen die folgenden Handlungen erscheinen. Fertig? Und los: Fremdgehen. Für Erdbebenopfer spenden. Ein Kind töten. Strom sparen. Waffen exportieren. Schwarzfahren. Vegetarier sein. Ein Geheimnis verraten. Einen Freund belügen.

Okay, das war einfach. Wie sieht es nun hiermit aus: Fleisch essen. Illegale Aktionen eines Geheimdienstes aufdecken. Ein ungeborenes, schwer behindertes Kind abtreiben. Waffen in den Irak liefern. Einen Freund belügen, um ihn vor sich selbst zu schützen.

Offenbar hängt das Urteil über ein Tun stark vom Drumherum ab, sei es die persönliche Situation (Lüge), die verfolgte Absicht (Verrat) oder der politische Kontext (Waffen). Schon diese wenigen Beispiele zeigen: Es gibt oft keine moralisch saubere Lösung. Wir müssen stets neu entscheiden, worauf es im jeweiligen Fall mehr ankommt – und die ethischen Kosten abwägen.

Wie bereits der antike Philosoph Aristoteles (384–322 v. Chr.) erklärte, bedeutet Moral nicht das Anwenden eines strikten Regelwerks, sondern das Gewichten verschiedener Ansprüche, die wir an unser Handeln und seine Konsequenzen stellen. Wer nach den biologischen Wurzeln der Ethik sucht, unterschätzt dabei leicht die Macht der Kultur. Dann ist es häufig nur noch ein kleiner Schritt, vermeintlich »Widernatürliches« wie Homosexualität oder Suizid kategorisch abzulehnen.

Andererseits birgt auch zu großer Relativismus Risiken für die Gemeinschaft, denn die lebt davon, dass Menschen miteinander und nicht bloß nebeneinanderher agieren. Wie viel Toleranz muss also sein? Eine Antwort darauf gilt es immer wieder auszuhandeln; auch die Neuroethik liefert keine bessere Lösung. Doch sie lehrt zumindest eins: Nicht Gut und Böse selbst sind im Gehirn angelegt, sondern unsere Fähigkeit, sie zu empfinden. Der Mensch ist zur Moral geboren – nur nicht zu einer bestimmten.

Steve Ayan ist Psychologe und GuG-Redakteur.

Moralische Tiere?

Laut der Neurophilosophin Patricia Churchland von der University of California in San Diego entstand Moral evolutionsgeschichtlich mit den Säugetieren. Diese biologische Klasse bringt derart hilflosen Nachwuchs zur Welt, dass er noch lange Zeit nach der Geburt gehegt und gepflegt werden muss. Das Sichkümmern – dem Reptilienhirn vollkommen fremd – habe sich daher rasch »neuronal implementiert«, so Churchland.

Aus der Sorge um das Wohl der Kinder erwuchsen schließlich Mitgefühl und Altruismus sowie unsere Gabe, die mentalen Zustände anderer zu lesen sowie voneinander zu lernen. »Wir haben die Moral, die wir haben, weil unsere Gehirne so sind, wie sie sind«, erklärt die Neurowissenschaftlerin.

Wie der niederländische Primatenforscher Frans de Waal nachwies, besitzen auch Kapuzineraffen einen Sinn für Gerechtigkeit – allerdings nur einseitig: Sie reagieren verärgert auf Benachteiligung, etwa wenn ein Artgenosse mit süßen Trauben belohnt wird, sie selbst aber nur Gurkenstücke bekommen. Kein Kapuzineraffe käme allerdings auf die Idee, mit einem Kollegen, der weniger hat, zu teilen. Kinder dagegen zeigen erstaunlich früh ein Gespür dafür, ob es für andere fair zugeht.

Grundbegriffe der Moralforschung – kurz erklärt

Neuroethik

Die Erforschung der hirnphysiologischen Grundlagen der Moral

Kategorischer Imperativ

Nach Kant der universell gültige Satz: »Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie allgemeines Gesetz werde.«

Reziprozität

Prinzip der Gegenseitigkeit, wonach alle Menschen gleichberechtigt sind; bildet eine Voraussetzung für die Grundsätze von Gleichheit und Menschenwürde

Relativismus

Moderne Sichtweise, die dem Individuum und der Kultur große Freiheit bei der Setzung moralischer Normen zugesteht

Dual Process Theory

Aus der Neuroethik abgeleitete Annahme, dass moralische Urteile im Gehirn auf zwei Wegen zu Stande kommen: kognitiv und emotional

Rationalismus

In der Ethik einst verbreitete Ansicht, wonach moralische Normen aus rationalen Erwägungen herleitbar seien

Sentimentalismus

Moralphilosophische Lehre, die dem Empfinden (englisch: sentiment) eine Hauptrolle bei der moralischen Urteilsbildung zuweist

Fünf Säulen des Miteinanders

Für den Psychologen Jonathan Haidt von der New York University umfasst unser moralisches Grundinventar fünf Dimensionen:

1. Anteilnahme, also der Drang, sich um andere zu kümmern und gemeinschaftliche Verpflichtungen einzugehen,

2. Reziprozität, das Prinzip der Gegenseitigkeit und des gleichen Rechts für alle,

3. Loyalität zur eigenen Gruppe,

4. Respekt gegenüber Autoritäten und

5. Reinheit – zum Beispiel von Sünde.

In Studien mit Teilnehmern verschiedener Kulturen zeigte Haidt, dass Traditionalisten die drei letztgenannten Prinzipien stärker gewichten, fortschrittlich und liberal Gesinnte dagegen die ersten beiden.

Literaturtipp

Hoerster, N.: Wie lässt sich Moral begründen? C.H.Beck, München 2014

Kompakte Einführung in die Moraltheorie

Webtipp

Hier können Sie Ihr persönliches Moralprofil erstellen (englischsprachig):

www.yourmorals.org

Quellen

Greene, J. D. et al.: An fMRI Investigation of Emotional Engagement in Moral Judgment. In: Science 293, S. 2105–2108, 2001

Jeurissen, D.: TMS Affects Moral Judgment, Showing the Role of DLPFC and TPJ in Cognitive and Emotional Processing. In: Frontiers in Neuroscience 8, 18, 2014

Prinz, J.J.: Beyond Human Nature. Norton, New York 2012

Weitere Quellen im Internet: www.spektrum.de/artikel/1308640

NEUROETHIK EXPERIMENTELLE PHILOSOPHIE

Zwischen Sein und Sollen

Wie bilden Menschen moralische Urteile – und welche Ethik ist die richtige? Eine Gruppe junger Philosophen hält die Trennung von empirischer Forschung und Moraltheorie für überholt.

VON MARKUS CHRISTEN

AUF EINEN BLICK

Die zwei Seiten der Moral

1

Jahrhundertelang unterschieden Philosophen strikt zwischen dem faktischen Urteil von Menschen in moralischen Fragen und der Herleitung »wahrer« ethischer Prinzipien.

2

Heute finden immer mehr Ergebnisse aus psychologischen und neurowissenschaftlichen Experimenten Eingang in die philosophische Debatte.

3

Für die »experimentelle Ethik« sind begriffliche Intuitionen und Gefühle untrennbar damit verbunden, was wir für moralisch richtig oder falsch halten.

»Bill lebt in einem Universum, in dem alle Ereignisse vorherbestimmt sind. Frage: Ist Bill für seine Handlungen moralisch verantwortlich?« Die meisten von uns würden das angesichts der genannten Prämisse wohl verneinen.

Stellen wir die Frage jedoch einmal etwas anders: »Bill massakriert kaltblütig seine Frau und Kinder – ist er für das angerichtete Blutbad moralisch verantwortlich?« Und schon ist der Fall nicht mehr ganz so klar. Die deutlich emotionale Note der zweiten Beschreibung lässt das nüchterne »Nicht schuldig!« vielmehr als Affront erscheinen.

Wie Gefühle und moralisches Urteilen miteinander zusammenhängen, war jahrhundertelang Gegenstand philosophischer Reflexion. Heute tragen auch Laborversuche von Psychologen und Neurowissenschaftlern einiges zu dieser Frage bei. Wer Szenarien wie die von Bill unter die Nase gerieben bekommt, der hat es womöglich mit einem neuen Forschertypus zu tun: dem »experimentellen Ethiker«.

Was sind das für Leute? Die einen sagen: eine Riege revolutionärer, junger Denker, die sich von der verstaubten Lehnstuhlphilosophie verabschieden und der realen Welt zuwenden. Andere halten dagegen, es handle sich vielleicht nur um »Philosophen, die schlechte Experimente machen«, wie es Jesse Prinz von der City University in New York süffisant formulierte.

Prinz gehört selbst zu jenen Theoretikern, die gegenüber der empirischen Moralforschung offen sind und ihre Ergebnisse in die eigenen Argumentationen und Modelle aufnehmen. So ist Prinz davon überzeugt, dass moralische Urteile ihrem Wesen nach auf mehr oder weniger intuitiven Gefühlsreaktionen beruhen. Was richtig und was falsch ist, beurteilen Menschen viel eher aus dem Bauch heraus als mit dem Kopf. Und das sei auch gut so, denn die Bedeutung moralischer Urteile für den Einzelnen fußt auf dieser emotionalen Basis – wie etwa das Beispiel vom mordenden Familienvater Bill zeigt.

Die Verknüpfung von Ethik und Experimenten mag im ersten Moment irritieren. Geht es bei Ersterer nicht darum, verlässliche Maßstäbe dafür zu finden, wann eine Handlung moralisch gut ist und wann nicht? Können rein beschreibende, psychologische oder neurowissenschaftliche Experimente etwas Wesentliches dazu beitragen, welche Ethik die richtige ist?

Dieser Zweifel rührt aus einer tief im abendländischen Denken wurzelnde Unterscheidung, die auch die Ethik lange Zeit dominierte, nämlich die Trennung von Sein und Sollen – also zwischen der deskriptiv zu beantwortenden Frage, wie der Mensch ist, und der normativen, wie er sein sollte. Die logische Mauer zwischen diesen beiden Welten verläuft bis heute quer durch die akademische Landschaft.

Die Moralphilosophie, einst als umfassende Beschäftigung mit der Welt entstanden, hatte sich Anfang des 20. Jahrhunderts vor allem unter dem Einfluss der sprachanalytischen Tradition ins Reich der Gründe zurückgezogen. Wenn die reale Welt mit ihren moralischen Problemen anklopft, sehen sich Philosophen seither in erster Linie in der Rolle der »Begriffserklärer«, deren Aufgabe es ist, Ordnung ins Wirrwarr der Argumente zu bringen.

Doch dieser Ansatz scheint überholt, seit sich immer mehr Moralforscher auf die empirische Untersuchung dessen verlegten, was die gesellschaftlich vorherrschenden Normen, Werte und Ideale ausmacht. Dies hat zweierlei zur Folge: Erstens nimmt die Zahl der empirischen Studien über Moralfragen im Verhältnis zu anderen Themenfeldern der Philosophie deutlich zu. Zweitens werden die Grenzen zwischen den Fachdisziplinen durchlässiger.

Viele Philosophen wandeln inzwischen auch auf dem ureigenen Terrain der Hirnforschung, um ihre Thesen mit Fakten zu untermauern; umgekehrt mischen sich Psychologen und Neurowissenschaftler in philosophische Grundsatzdebatten ein, etwa die zum Verhältnis von Körper und Geist.

Hinzu kommt ein weiterer Trend: Gesellschaftliche Probleme werden heute zunehmend ethisch gedeutet. Ist es etwa moralisch hinnehmbar, dass die Spekulanten auf den Finanzmärkten ganze Staaten und deren Bevölkerung zu drastischen Einschnitten zwingen können? Sollten religiöse Symbole wie Kruzifix oder Kopftuch aus Schulen und Behörden verbannt werden? Oder: Wie lässt sich der Konflikt zwischen Datenschutz und Strafverfolgung lösen?

Welche Haltung nun jemand zu diesen und anderen tagesaktuellen Fragen einnimmt, bestimmt inzwischen nicht mehr allein die politische Überzeugung; es bedarf vielmehr philosophischer Begründungen. Und hier kommen die verschiedenen Ansätze der Moralforschung ins Spiel.

Dabei lassen sich hauptsächlich vier Perspektiven unterscheiden: Da ist zum einen die Frage, auf welchem Weg so etwas wie Moral überhaupt entstand. Sie wird seit den Tagen von Charles Darwin (1809–1882) im Licht der Evolutionstheorie debattiert – sei es im Vergleich mit anderen Spezies (»Gibt es Vorformen von Moral bei Affen?«), sei es per sozialpsychologischen Szenarien (»Welche Funktion haben moralische Urteile für das Miteinander?«).

Zweitens kann man das Individuum, den »moralischen Agenten«, in den Fokus rücken: Wie beurteilen Kinder in verschiedenem Alter ethische Probleme? Welche hirnphysiologischen Prozesse gehen damit einher?