image

Dieses E-Book ist die digitale Umsetzung der Printausgabe, die unter demselben Titel bei KOSMOS erschienen ist. Da es bei E-Books aufgrund der variablen Leseeinstellungen keine Seitenzahlen gibt, können Seitenverweise der Printausgabe hier nicht verwendet werden. Statt dessen können Sie über die integrierte Volltextsuche alle Querverweise und inhaltlichen Bezüge schnell komfortabel herstellen.

Prolog

»Wir haben eine Entdeckung!«

© M. Brice (2008), CMS, CERN.

Kathedrale für das »Gottesteilchen«: Im CMS-Detektor am Large Hadron Collider sind bereits über eine halbe Million Higgs-Bosonen entstanden – und nach jeweils einer Trilliardstel Sekunde sofort wieder zerfallen.

Diese freudigen Worte von Rolf-Dieter Heuer, dem Generaldirektor des Forschungszentrums CERN bei Genf, bedeuten wohl den Schlussstein eines rund fünf Jahrzehnte dauernden Kapitels einer Erfolgsgeschichte ohne Beispiel: der Entwicklung, Ausarbeitung und Vervollständigung des Standardmodells der Elementarteilchenphysik. Es beschreibt alle bekannten Teilchen und Kräfte außer der Gravitation. Und es ist zusammen mit Albert Einsteins Allgemeiner Relativitätstheorie die am besten bestätigte wissenschaftliche Theorie aller Zeiten.

Nur ein Beispiel: Mit dem Standardmodell lässt sich, wenn auch mit erheblichem Aufwand, der normierte Wert des anomalen magnetischen Moments eines Elektrons sehr genau berechnen beziehungsweise voraussagen: 0,00115965218178(77) (wobei selbst die Gründe der Unsicherheiten in den letzten Ziffern bekannt sind). Und Experimentalphysiker konnten ihn äußerst präzise messen: 0,00115965218076(27) (mit einer Unsicherheit von plus/minus 0,00000000000027). Theorie und Beobachtung passen also auf zehn signifikante Stellen zueinander – und das bei einem nicht gerade selbstverständlichen Parameter eines Elementarteilchens, das kleiner als 10-19 Meter sein muss. Diese Übereinstimmung ist kein Zufall, sondern sie zeigt, dass Wissenschaftler hier ein sehr tiefes Verständnis von der Natur haben.

Am 4. Juli 2012 gaben Physiker am CERN die Entdeckung eines neuen Teilchens bekannt, die Heuer so freute. Es ist sehr wahrscheinlich das seit Jahrzehnten gesuchte Higgs-Boson – das Quant eines Felds, ohne das es keine Masse gäbe, keine Atome und kein Leben. Dieses Feld durchzieht alles, auch dieses Buch, und ist vielleicht der Schlüssel zu einer unbekannten Realität, zu verborgenen Dimensionen und einer »Weltformel«. Peter Higgs und François Englert, die die Existenz des neuartigen Felds vorausgesagt und so eine Großfahndung mit den gewaltigsten Maschinen aller Zeiten ausgelöst hatten, wurden im Dezember 2013 mit dem Nobelpreis geehrt.

Dieses Buch beschreibt die Entdeckung des Higgs-Teilchens, das Standardmodell der Materie sowie das, was Physiker heute jenseits davon vermuten, suchen, erhoffen und befürchten.

› Das erste Kapitel, Mikrokosmos, schlägt den weiten Bogen von den ersten Spekulationen griechischer Philosophen über Naturgesetze und Atome bis zum modernen Standardmodell der Elementarteilchenphysik. Obwohl sich die »reduktionistische« Erklärungsstrategie bis heute glänzend bewährt hat, wurden die Vorstellungen von der Materie und ihren Wechselwirkungen radikal umgewälzt. So richtig weiß niemand, was Materie eigentlich ist – und die Quantenfeldtheorien werfen auch diffizile philosophische Fragen auf. Ganz handfest geht das Kapitel aber weiter mit der Erfolgsgeschichte des Forschungszentrums CERN, dem globalen Zentrum der experimentellen Elementarteilchenphysik, und mit seiner grandiosen Weltmaschine, dem Large Hadron Collider (LHC) und dessen haushohen Messgeräten. Der LHC ist auch eine Art »Urknall-Maschine«, denn er erzeugt Bedingungen, wie sie weniger als eine Milliardstel Sekunde nach dem Anfang unseres Universums überall im Weltraum herrschten.

› Das zweite Kapitel, Gottesteilchen, beschreibt die abenteuerliche Suche nach dem Higgs-Boson. Seine Existenz wurde 1964 am Schreibtisch postuliert, was zunächst kaum Beachtung fand. Fast ein halbes Jahrhundert später haben es Teilchenphysiker am LHC vieltausendfach produziert und mit riesigem Aufwand akribisch nachgewiesen – ein grandioser Erfolg für die Wissenschaft! Damit ist das Standardmodell der Elementarteilchen komplett und ein echt »schweres« Rätsel gelöst.

› Das dritte Kapitel, Antimaterie, handelt von der eigenartigen Gegenwelt der Materie, die fast gleich und doch ungeheuer vernichtend erscheint – vor allem aber größtenteils abwesend. Doch am CERN werden nun erstmals in der Geschichte des bekannten Universums Antiatome erzeugt. Damit lassen sich die Naturgesetze auf eine ganz neue Weise ausloten.

› Das vierte Kapitel, Dunkle Materie, hat eine weitere »Parallelwelt« der Natur im Fokus: ein seltsames Schattenreich, das sich nur durch seinen Schwerkrafteinfluss bemerkbar macht. Der ist aber gewichtig. Die unsichtbare Dunkle Materie muss mindestens das Sechsfache der Gesamtmasse aller gewöhnlichen Elementarteilchen besitzen. Sie regiert die Galaxien, wie Astronomen inzwischen wissen. Nun sind die Teilchenphysiker gefordert, die ominösen Partikel einzufangen – oder am LHC direkt zu erschaffen.

› Das fünfte Kapitel, Symmetrien, spürt dem Geheimcode der Natur nach, der Einheit stiftet und Vielfalt schafft. Hier wird alles GUT, die scheue SUSY verzaubert und das Higgs-Boson kommt wieder zu Ehren.

› Das sechste Kapitel, Weltformel, schließlich handelt von den gleichermaßen exotischen wie faszinierenden Versuchen, eine umfassende Erklärung von Materie, Energie, Kräften sowie Raum und Zeit zu finden – die Entstehung des Universums eingeschlossen. Physiker arbeiten an einer Theorie der Quantengravitation … und verheddern sich dabei nicht selten in zusätzlichen Dimensionen, in bizarren Branen- und Hologramm-Welten, bis sie auf Abwege geraten in einer ungeheuren Landschaft, um sich zuletzt irgendwo zwischen Myriaden von Raumzeiten im Multiversum wiederzufinden. Das klingt vielleicht konfus oder abstrus – doch so verwegen das Szenario der Superstrings und ihre geheimnisvolle Erweiterung, die M-Theorie, auch anmuten: Ihre Erfolge sind beträchtlich. Sie avancierte zum führenden Kandidaten einer »Theorie von Allem«.

Willkommen in der Welt des Mikrokosmos, in physikalischen Gedankenschmieden und in fremden Universen!

Mikrokosmos

Die Bausteine des Universums

Das Standardmodell der Elementarteilchenphysik ist eine der besten, genauesten und erklärungsmächtigsten Theorien der Menschheit. Es beschreibt die gesamte Materie – oder zumindest alles, was davon bislang direkt nachgewiesen wurde.

© M. Brice (2007), CMS, CERN.

Scheibchenweise zur Erkenntnis: Der riesige CMS-Detektor wurde oberirdisch gebaut und in Einzelteilen zum Large Hadron Collider hinab gelassen.

»Ein Physiker ist die Weise, in der ein Atom die Atome kennt.«

George Wald (1906 – 1997), amerikanischer Physiologe

Botschaft an die Nachwelt

»Wenn in einer Naturkatastrophe alles wissenschaftliche Wissen zerstört würde und nur ein Satz an die nächste Generation von Lebewesen weitergegeben werden könnte, welche Aussage hätte dann den größten Informationsgehalt mit den wenigsten Worten?«

Diese Frage hat der Physik-Nobelpreisträger Richard Feynman in einer seiner berühmten Vorlesungen einmal seinen Studenten gestellt. Man kann leicht und lange darüber ins Philosophieren kommen. Nach so einer globalen Katastrophe hätten die Menschen zunächst wohl andere Sorgen als die Lösung wissenschaftlicher Probleme. Doch Feynman ging es in seinem Gedankenexperiment ja um etwas anderes. Und er schlug auch gleich eine Antwort vor: »Ich bin davon überzeugt, dass dies die Atom-Hypothese ist (oder die Atom-Tatsache oder wie immer man es auch nennen mag): dass alle Dinge aus Atomen aufgebaut sind – aus kleinen Teilchen, die sich permanent bewegen, die einander anziehen, wenn sie ein wenig voneinander entfernt sind, die sich aber gegenseitig abstoßen, wenn sie aneinander gepresst werden. In diesem einen Satz steckt eine enorme Menge an Informationen über die Welt, wenn man nur ein wenig Phantasie und Nachdenken darauf verwendet.«

Tatsächlich fasst dieser Satz eine der bedeutendsten Erkenntnisse der Naturwissenschaften zusammen. Dem können wohl nicht viele andere grundlegende Einsichten Konkurrenz machen. Vielleicht noch das biologische Faktum von der Evolution des Lebens und seinem genetischen Code. Und das astronomische Wissen von der Erde als einem Planeten unter Myriaden anderen, bei einem Stern unter Myriaden anderen, in einer Galaxie unter Myriaden anderen in einem sich seit dem Urknall fortwährend ausdehnenden Universum (vielleicht unter Myriaden anderen … was erstaunlicherweise zur Teilchenphysik zurückführt).

Diese Atom-Hypothese, die sich im Lauf der letzten Jahrzehnte – oder Jahrtausende – immer wieder gewandelt hat und inzwischen geradezu abenteuerliche Vorgänge im Reich des Allerkleinsten erschloss, ist in ihrer wissenschaftlichen Ausgestaltung zwar äußerst anspruchsvoll und hat sich vom Alltagsverstand inzwischen weit entfernt. Der Grundgedanke aber ist verblüffend einfach und von großer Erklärungskraft: Die ganze (sichtbare und unsichtbare) Welt besteht aus winzigen Bausteinen, von denen es nur wenige verschiedene Arten gibt, und deren vielfältige Anordnungen und Verbindungen die ganze Fülle der erfahrbaren Wirklichkeit konstituiert. So wie sich mit Sandkörnern die unterschiedlichsten Burgen bauen lassen und mit Bauklötzen ein ganzes Dorf, gelang es der Natur mit ihren bereits in den ersten Sekundenbruchteilen nach dem Urknall erzeugten Elementarteilchen, die Fülle der Erscheinungen hervorzubringen. Es ist die bloße, aber unübersehbar komplexe Kombinatorik, auf die sich alles Makroskopische gründet – vom kleinsten Staubkörnchen bis zum genialsten Gehirn des größten Wissenschaftlers, der diese mikroskopischen Turbulenzen zu verstehen versucht.

Dieser Gedanke, die Atom-Hypothese, ist so einfach und schwierig, so tiefgründig und abgehoben zugleich, dass er zwar leicht gedacht und gesagt, aber nur außerordentlich schwer erwiesen werden kann. Und er mag schwärmerischen Naturen wenig erbaulich vorkommen – obwohl er doch eigentlich nichts anderes als eine Hypothese von »Bauanleitungen« darstellt –, als schnöder Materialismus, weshalb er auch fast zwei Jahrtausende lang weitgehend ignoriert wurde. Dabei haben ihn bereits griechische Naturphilosophen gedacht.

Der Theoretische Physiker Herbert Pietschmann, bis zu seiner Emeritierung Professor an der Universität Wien, hatte sich schon in den 1960er-Jahren an einer »Geschichte der Elementarteilchen in Versen« versucht. Dabei verdichtete er die altgriechischen Anfänge folgendermaßen:

Unter jenen klugen Leuten,

Welche Höhen und auch Weiten

Geist‘gen Raumes schnell durcheilten,

Gab es manche, die verweilten.

Demokrit war so ein Mann,

Welcher nicht, im eitlen Wahn,

Auf Ideen sich beschränkte;

Nein, auf die Materie lenkte

Jener seine Geisteskraft.

Und er hat es auch geschafft! [...]

Den Beweis der uns erbrachte

Vom Atom, indem er dachte,

Wenn man einen Stein halbiert

Und dann weiter dividiert

Bis mit List und auch mit Tücke

Man erhält die kleinsten Stücke!

Wenn man dann nicht müde wird,

Sondern immer noch halbiert

(Bald im Geist geschieht‘s mit Eile,

Allzu klein schon sind die Teile),

Langt man Schluss und endlich ein

Beim Atom, beim Urbau-Stein.

Niemals soll es wem gelingen

Dieses kleinste von den Dingen

Weiterhin zu unterteilen!

Nicht mit Axt und nicht mit Keilen.

Und warum ist das so klar?

»Atomos« heißt »unteilbar«.

Vom antiken Atomismus zu den Elementarteilchen

Unter Elementarteilchen (von lateinisch »elementum«: Grundstoff, Urstoff) versteht man winzige, fundamentale und unteilbare kleinste Grundbausteine der Materie, die nicht selbst zusammengesetzt sind. Darüber wurde bereits im alten Indien sowie in der griechischen und römischen Antike spekuliert. Leukipp (5. vorchristliches Jahrhundert) und sein Schüler Demokrit (circa 460 – 380) sowie später Epikur (341 – 270) und Lukrez (97 – 55) argumentierten für die Existenz solcher einfachen, unwandelbaren »Atome« (von griechisch »atomos«: unteilbar, was nicht zerschnitten werden kann). Denn eine beliebige, unendliche Teilbarkeit der Dinge müsste ins Nichts führen, das heißt es existierte dann überhaupt keine Materie.

Der antiken atomistischen Kosmologie zufolge gibt es in fundamentaler Hinsicht nur das Leere und die Atome. Und zwar unendlich viele, wobei keine zwei am gleichen Ort sein können. Die Welten sind zufällige Ansammlungen dieser Atome im unbeschränkten, ewigen Raum; sie entstehen und vergehen und sind sehr unterschiedlich. Es herrscht Kausalität bei den atomaren Bewegungen und Verbindungen. Später, besonders bei Epikur, wurde allerdings auch ein atomarer Indeterminismus aufgrund von zufälligen Bahnabweichungen diskutiert.

Die Atome stellte sich Demokrit als unteilbar vor; sie kommen in diversen Varianten vor und besitzen eine bestimmte Größe, eine bestimmte Gestalt und ein bestimmtes Gewicht. Die Fülle der Erscheinungen erklärte Demokrit, und darin liegt seine vielleicht wichtigste Einsicht, rein kombinatorisch. Es sind drei Aspekte der Atome, die der Vielfalt der Dinge zugrunde liegen: Erstens ihre Gestalt, das heißt Form (»rhymos«, »schema«) – analog etwa zu den Buchstaben A und N; zweitens ihre Anordnung (»diathige«, »taxis«) – ähnlich, wie die Buchstaben A und N als AN und NA gruppiert werden können; und drittens ihre Position, das heißt Lage im Raum (»trope«, »thesis«) – so wie beispielsweise ein N »liegend« als Z erscheint. Demokrit – nach dem übrigens sogar ein Mondkrater benannt ist (Democritus) – postulierte auch gewisse Gesetzmäßigkeiten wie »Gleiches zu Gleichem« und eine »Kohärenz des Kombinierten«. Und war davon überzeugt, mit dem Atomismus den Aufbau und die Dynamik aller Dinge verständlich machen zu können. Alles entsteht und vergeht mit den atomaren Zusammenlagerungen und Trennungen.

In Anlehnung an die Philosophie von Epikur und letztlich Demokrit hat der römische Dichter und Philosoph Titus Lucretius Carus, genannt Lukrez, das atomistische Weltbild in daktylische Hexameter gekleidet. In seinem berühmten Lehrgedicht De rerum natura (Über die Natur der Dinge) aus dem ersten vorchristlichen Jahrhundert, das seiner Zeit weit voraus war, gibt er eine konzise Darstellung dessen, was heute als Selbstorganisation der Materie verstanden wird. In der Übersetzung des Altphilologen Hermann Diels liest sich das so:

... sicherlich haben nicht alle die Urelemente

Planvoll spürsamen Sinns an den passenden Ort sich begeben

Oder sich untereinander vereinbart ihre Bewegung.

Nein, seit undenklicher Zeit schon haben die vielen Atome

Auf gar mancherlei Weise, getrieben durch äußere Stöße

Und durch ihr eigen Gewicht, durcheinander zu schwirren begonnen,

Um sich auf allerlei Art zu vereinigen, alles versuchend,

Was sie nur immer vermöchten durch ihre Verbindung zu schaffen.

So kommt‘s, dass sie sich weit in den langen Äonen verbreitend

Jede nur mögliche Art der Bewegung und Bindung versuchen

Und so endlich die plötzlich geeinigten Teilchen verschmelzen,

Was dann oftmals wurde zum Anfang großer Gebilde,

Wie von der Erde, dem Meere, dem Himmel, den lebenden Wesen.

Die Atome galten als unveränderlich und ewig. Sie sollten eine Masse, Gestalt, Größe und Dichte haben, aber keine sogenannten sekundären Qualitäten wie Farbe, Geruch, Geschmack oder Wärme. Die Vorstellungen, dass sie lediglich durch Druck und Stoß miteinander wechselwirken und keinen zusätzlichen Kräften unterworfen sind, und dass sie eckig, konkav oder konvex seien und Haken haben können, über die sie sich verbinden, mögen aus heutiger Sicht reichlich naiv anmuten. Aber etwas abstrakter formuliert handelt es sich dabei um eine in der Quantenfeldtheorie nach wie vor favorisierte Nahwirkungstheorie zwischen Partikeln mit unterschiedlichen Eigenschaften und Interaktionen.

Der antike Atomismus ist also – zusammen mit den Vorstellungen von den Elementen sowie den anziehenden (»Liebe«) und abstoßenden (»Hass«) Kräften, die vor allem Empedokles (circa 495 – 435) ausgearbeitet hatte – der konzeptuelle Vorläufer der Elementarteilchenphysik. Er bot eine einheitliche Erklärung der Vielfalt der Erscheinungen: Atome sind das Bleibende im Wechsel der Welt; und dieser Wandel resultiert aus einer Veränderung der Zusammensetzung (Aggregation) der Dinge.

Zwar wurde dieser mechanistische Erklärungsanspruch nur qualitativ formuliert, nicht quantitativ, und noch ohne mathematische Naturgesetze; und er beruhte auf einigen willkürlichen, nicht empirisch begründbaren Setzungen. Doch er konnte durchaus einzelne Phänomene verständlich machen – etwa den Wind (kollektive Bewegungen vieler einzelner Atome) oder Unterschiede im spezifischen Gewicht und der Härte von Stoffen (dichtere oder lockerere Zusammensetzungen von verschieden großen Atomen). Demokrit erklärte sogar Sehen und Riechen durch die körperliche Reaktion auf Teilchen, die von Objekten ausgesendet und durch die Luft übertragen werden. Vor allem aber war diese atomistische Erklärungsstrategie rational, sparsam und reduktionistisch. Das macht sie bis heute attraktiv und sogar vorbildlich.

Exkurs

Die »alten Griechen« und das Multiversum

Von Leukipp ist kaum etwas überliefert, und er hatte wohl auch nicht viel geschrieben. Immerhin hat der Philosoph Diogenes Laertios im Buch IX seiner Schrift Leben und Lehren berühmter Philosophen aus dem dritten nachchristlichen Jahrhundert zwei wichtige Gedanken festgehalten: »Er sagt, das All sei unbeschränkt [...]; dessen eine Komponente sei voll, die andere leer; diese [Komponenten] nennt er auch Elemente. Daraus bestünden Welten, unbeschränkt viele, und sie lösten sich auch wieder in die Elemente auf.« Außerdem: »Und wie es Entstehungen einer Welt gebe, so gebe es auch Wachsen und Dahinschwinden und Untergänge [einer Welt], aufgrund einer Art Notwendigkeit, über deren Wesen er sich nicht klar ausspricht.« Man mag hier den Keim des Atomismus und sogar einer Art von Multiversum-Hypothese heraus- oder hineinlesen. Angesichts der vorherrschenden mythisch-spiritistisch-religiösen Vorurteile, Fantasien und Dogmen seiner Zeit war Leukipp sicherlich äußerst mutig, modern und fortschrittlich. Und von ihm stammt auch die älteste Formulierung dessen, was heute »Naturgesetz« genannt werden kann: »Kein Ding entsteht aufs Geratewohl, sondern alles entsteht aufgrund eines Verhältnisses [›logos‹; in begründeter Weise] und unter Einwirkung der Notwendigkeit [›ananke‹].«

Demokrit aus Abdera an der ostgriechischen Küste lernte von Leukipp diese Gedanken persönlich kennen. Er wird bisweilen als »der lachende Philosoph« bezeichnet und kann als philosophischer Fünfkämpfer gelten, da er Schriften zur Physik, Mathematik, Ethik, Pädagogik und den Künsten (Dichtung, Malerei) verfasste – aber auch zu Medizin, Zoologie, Ackerbau und Militärtechnik. »Der einzige antike Autor, dessen Schriftenverzeichnis sich nach Umfang und Breite vergleichen lässt, ist Aristoteles«, schreibt der Philosopiehistoriker Jaap Mansfeld. »Der Verlust dieser Schriften, deren Stil von Kennern wie Cicero und Plutarch gepriesen wird, ist unersetzlich.« Daher lässt sich die atomistische Vorstellung Demokrits aus den bei anderen Autoren überlieferten Fragmenten nur sehr grob rekonstruieren. Die Zensur, Ignoranz und Abwehr des späteren »christlichen Abendlands« und schon vorher der spiritistisch-idealistischen Philosophenschulen im Gefolge Platons hat das Totschweigen des als materialistisch verachteten Denkers ziemlich weit vorangetrieben – aber eben nicht ganz. In der Neuzeit bis hin zur modernen Naturphilosophie hat Demokrit doch noch die verdiente Wertschätzung erfahren. Der Quantenphysiker Scott Aaronson hat ihn jüngst sogar im Titel und Anfangskapitel seines Buchs Quantum Computing since Democritus (2013) gewürdigt.

»Alles sei Atome [Gestalten], und weiter [sei] nichts«, überlieferte Plutarch den Kerngedanken Demokrits. Zwei Prinzipien begründen seinen Atomismus: Das Volle und das Leere. Daraus ergibt sich die Bewegung. »Denn die Annahme der Bewegung sei unmöglich, wenn es kein Leeres gäbe; denn das Volle sei außerstande, etwas in sich aufzunehmen. Wenn es etwas aufnehmen und mithin zwei [Körper] an einem Ort sein sollten, wäre es möglich, dass auch beliebig viele Körper gleichzeitig [an einem Ort] seien«, referiert Aristoteles die Argumentation. Wirbel bringen Welten hervor. Ein »nus« als eigenes, aus sich selbst bestehendes, göttliches Denken gibt es nicht; Denken und Wahrnehmen sind körperliche Vorgänge.

Auch an Leukipps Naturgesetzlichkeit hält Demokrit fest: »Die Ursachen der heutigen Ereignisse hätten keinen Anfang, sondern alles Vergangene und Heutige und Künftige zusammen sei überhaupt seit unendlicher Zeit von vornherein durch die Notwendigkeit bestimmt.« Dieser ewige Kosmos wird mit einer Art Multiversum-Hypothese kombiniert – und insofern erscheint der Sprung von Demokrit etwa zur modernen Quanten- und Stringkosmologie gar nicht mehr so weit. »Es gebe unbeschränkt viele Welten, und zwar von unterschiedlicher Ausdehnung«, hat Hippolytos es überliefert. »In manchen gäbe es weder Sonne noch Mond, in manchen größere, in manchen mehr Sonnen und Monde als bei uns. Die Räume zwischen den Welten seien ungleich, und es gebe hier mehr, dort weniger, und die einen seien noch im Wachstum begriffen, andere seien in der Blüte ihres Lebens, wieder andere seien im Schwinden; an einer Stelle entstünden [welche], an anderer hörten sie auf zu sein. Wenn sie aufeinander stießen, würden sie vernichtet. Es gebe einige Welten, in denen keine Lebewesen vorkämen und überhaupt keine Feuchtigkeit.«

Imagination in der Zwangsjacke

Mit der Zeit ging die Anschaulichkeit des antiken Atomismus immer mehr verloren. Das bis in die 1920er-Jahre geläufige Modell von Atomen – oder atomaren Bestandteilen – als winzige harte Kügelchen oder eine Art Miniatur-Sonnensystem mit Zentralkern, um den sich Elektronen scharen, hat sich als vollkommen unzureichend herausgestellt, obwohl sich selbst viele Physiker die Mikrowelt noch immer so vorstellen. Wie sollte man sie sich auch sonst ausmalen? Denn eigentlich ist sie bildlich gar nicht zu fassen.

Diese Entwicklung in die Abstraktion begann spätestens im 19. Jahrhundert mit den Modellen von Kraftfeldern. Sie stehen in einer anderen geistesgeschichtlichen Tradition als der Atomismus, etwa der romantischen Naturphilosophie mit ihrem »Dynamismus« und der Kraft/Energie als primäre Naturgegebenheit, hatten mitunter spiritistische Anklänge, erzielten aber durch ihre Erklärungskraft alsbald große Erfolge. Das kulminierte in der Theorie des Elektromagnetismus, die James Clerk Maxwell mit seinen 1861 formulierten Gleichungen zu einer der größten intellektuellen Leistungen der Physikgeschichte machte. Diese Hauptsäule der klassischen Physik – zusammen mit der Mechanik und Gravitationstheorie von Isaac Newton und der Thermodynamik von Ludwig Boltzmann, um nur die herausragendsten Wissenschaftler zu nennen – ist bis heute grundlegend geblieben. Und sie lebt in der Quantenelektrodynamik beziehungsweise letztlich im Standardmodell der Elementarteilchenphysik weiter (sie ist als eine Art »klassischer Grenzfall« daraus ableitbar). Damit war eine neue Entität in der Physik etabliert: das Feld.

Seither gelten Felder als mindestens so fundamental wie Teilchen. (Auch die Allgemeine Relativitätstheorie – noch klassische, das heißt nicht quantisierte Physik zwar, aber bis heute die grundlegende Theorie der Gravitation und experimentell so gut bestätigt wie die Theorie der Elementarteilchen – ist in vielerlei Hinsicht eine Feldtheorie, kann aber auch rein geometrisch interpretiert werden.) Mehr noch: In den Quantenfeldtheorien sind Teilchen eigentlich sekundär – kurz- oder längerlebige Schwankungen beziehungsweise Verdichtungen in raumfüllenden Feldern. Metaphorisch könnte man Materie als geronnene Energie bezeichnen.

Das alles wirft einerseits schwierige philosophische Fragen auf. Es macht andererseits aber auch deutlich, wie weit sich die moderne Physik von den Alltagsvorstellungen entfernt hat. Dies ist nachteilig für ihr intuitives Verständnis und eine didaktische Vermittlung. Es hat aber den riesigen Vorteil, dass diese abstrakte, mathematisierte »Sprache« mit einer sehr viel größeren Präzision einhergeht. Darin besteht ihr enormer Erfolg – und vielleicht auch in der Tatsache, bestimmte Fragen, vor allem philosophische, schlicht auszublenden.

© C. Marcelloni (2012), ATLAS, CERN.

Maschinelle Erkenntnissuche: Zwei Techniker unter dem Kalorimeter des ATLAS-Detektors.

Es lässt sich also nicht verbergen und verhindern: Teilchenphysik ist kompliziert, verwirrend und schwierig. Und zwar sowohl für interessierte Laien als auch für die hochkarätigsten Wissenschaftler – allerdings auf unterschiedliche Weise. Aber Teilchenphysik ist außerdem faszinierend, überraschend und vor allem ganz grundlegend: Die Welt wäre ohne eine Kenntnis ihrer Bestandteile oder Bausteine kaum verständlich. Sie wäre, in menschlicher Hinsicht, auch eine völlig andere. Denn all die elektro- und informationstechnischen Anwendungen existierten nicht ohne die physikalischen Einsichten. Und damit gäbe es weder die moderne Zivilisation noch das gegenwärtige physikalische Weltbild, das sich empirisch auf Räume von weniger als 10-18 Meter bis zum kosmischen Beobachtungshorizont in rund 45 Milliarden Lichtjahren erstreckt sowie zeitlich bis in die erste Milliardstel Sekunde des Urknalls vor 13,8 Milliarden Jahren – und in der Theorie noch viel weiter.

Zu diesen technischen Anwendungen zählen nun wiederum aufwendige Apparaturen – tatsächlich sogar die größten und kompliziertesten Maschinen der Menschheitsgeschichte –, mit denen Forscher noch tiefer in die Geheimnisse der Materie eindringen. Sie erkunden die seltsamen Melodien des Mikrokosmos, entdeckten eigenartige Regelmäßigkeiten und sogar überraschende Verbindungen zum Makrokosmos als Ganzes. Das Kleinste ist mit dem Größten aufs Engste verbunden. Das klingt fast schon wie ein mystischer Gedanke. Der lässt sich im grellen Licht der Wissenschaft aber rigoros analysieren und wird nicht in geraunte wolkige Worte gekleidet, sondern mit mathematischen Gleichungen und Symmetrieprinzipien ausgedrückt. Sie reichen an die Grenzen nicht nur der Natur, sondern auch des menschlichen Verstandes. Sie bohren sich in abgründige Tiefen der Raumzeit, schrauben sich aber auch in schwindelerregende Höhen der Abstraktion empor. Sie verzetteln sich in tausend Irrungen und Wirrungen, führen jedoch immer wieder auch zu überraschenden Einsichten, sodass sich plötzlich das Chaos wild durcheinander liegender Puzzlesteine aus experimentellen Befunden, unverstandenen Messungen und widersprüchlichen Modellen zu einer passenden Ordnung gruppiert. Angesichts ihrer glasklaren Schönheit geraten mitunter selbst nüchterne Denker ins Schwärmen.

Dabei ist das mathematische Spiel mit den Gleichungen kein reiner Selbstzweck – davon abgesehen, dass Grundlagenforschung immer Selbstzweck sein soll, darf und muss, und ungeachtet der Tatsache, dass die Theoretische Physik der Mathematik nicht selten voraus eilte und, weil dringend benötigt, Werkzeuge schuf, die in Algebra und Geometrie erst später aufgegriffen wurden und ihren Feinschliff erhielten. Die Formeln der Physiker sind vielmehr Mittel zum Zweck – nämlich zu einem besseren Weltverständnis und dann auch zu dessen praktischen Umsetzungen. Die Theorien tasten sich an eine Realität heran, die sie zu repräsentieren – also zu beschreiben und sogar zu erklären – trachten, die ihnen aber nicht verfügbar ist.

»Anything goes«, mag eine methodologische Ermunterung sein, und tatsächlich können sich die verrücktesten Verfahren als nützlich erweisen. Doch in der naturwissenschaftlichen Theoriebildung geht eben nicht alles, sondern sogar nur sehr wenig, weil die Datenbasis keine Gnade kennt. »Die große Tragödie der Wissenschaft: das Erschlagen einer schönen Hypothese durch eine hässliche Tatsache«, wie es der britische Naturforscher Thomas Henry Huxley schon 1870 ausgedrückt hat. Beobachtungen und Experiment wirken wie ein Sieb, das alle inadäquaten Modelle, Hypothesen und Theorien unbarmherzig aussondert. »Wissenschaft ist Imagination in der Zwangsjacke«, hat es Richard Feynman einmal ausgedrückt. Fantasievolle Ideen und geniale Theorien sind wichtig, kommen aber nicht vorbei an den strengen Prüfungen durch die logisch-mathematischen Konsistenzanforderungen und vor allem durch die experimentelle Forschung. So führen Versuch und Irrtum, Vorschlag und Korrektur zwar in manche Sackgasse, aber letztlich doch voran auf dem steinigen und gewundenen Pfad zu neuen Erkenntnissen.

Von der Metaphysik zum Teilchenzoo

Nicht zuletzt aufgrund religiöser Dogmatismen führte der Atomismus bis ins 17. Jahrhundert ein Nischendasein. Dann vollzog sich allmählich seine Umwandlung von der Metaphysik zur Physik und Chemie (eine übrigens nicht ganz unproblematische Betrachtungsweise). Das war vor allem der Verdienst von Robert Boyle (1627 – 1692) und John Dalton (1766 – 1844). Boyle erklärte chemische Reaktionen atomistisch, Dalton verband dann die Lehre der chemischen Elemente von Antoine Lavoisier (1743 – 1794) mit dem antiken Atomismus. Auch im mechanistischen Weltbild der klassischen Physik wurde der Atomismus wichtig; so beschrieb Isaac Newton (1643 – 1727) die Materie, als sei sie aus Massenpunkten zusammengesetzt, und vertrat auch eine Korpuskulartheorie des Lichts.

Nach und nach wurde der atomistische Ansatz immer differenzierter und gewann eine zunehmende Erklärungskraft in der Chemie (chemische Reaktionen, Elektrolyse, Periodensystem der Elemente) und Physik (besonders in der statistischen Thermodynamik und Theorie der Gase). Im 20. Jahrhundert erfolgte ein geradezu revolutionärer wissenschaftlicher Durchbruch mit dem indirekten und schließlich mehr oder weniger direkten, teils sogar abbildenden Nachweis von Atomen und deren Bestandteilen, mit der Entdeckung der Radioaktivität, mit der Entwicklung immer besserer Atom- und Kernmodelle sowie mit der Quantentheorie und Hochenergie-Elementarteilchenphysik.

Dass Atome mehr sind als philosophische Konstrukte oder mathematische Fiktionen, etablierte sich erst ab 1905 mit einer Arbeit von Albert Einstein. Doch schon vorher wurde von Naturphilosophen, Physikern und Chemikern über noch kleinere Partikel nachgedacht.

Richard Laming spekulierte 1838 über einen unteilbaren Träger der elektrischen Ladung, um chemische Eigenschaften der Atome zu erklären. George Johnstone Stoney nannte sie 1891 Elektronen, und Joseph John Thomson wies sie im Jahr 1897 tatsächlich nach – sie sind die als Erstes entdeckten Elementarteilchen überhaupt und werden bis heute als solche angesehen. Robert A. Millikan definierte 1909 ihre Ladung als »Elementarladung«.

Auch positiv geladene Partikel wurden postuliert, nachdem 1886 Eugen Goldstein die Anoden-Strahlen fand: positiv geladene Ionen von Gasen mit unterschiedlicher Masse. Über leichteste, wasserstoffähnliche Teilchen als Bausteine anderer Atome hatte William Prout schon 1815 spekuliert; er nannte sie »Proyles« – die Vorläuferidee des Protons. Dieses wurde 1917 von Ernest Rutherford nachgewiesen (er berichtete darüber erst 1919).

Zuvor schon, 1909, hatte der Neuseeländer an der University of Manchester mit Hans Geiger und Ernest Marsden Alpha-Strahlen (Helium-Kerne, wie man erst später erkannte) auf dünne Metallfolien geschossen. Die meisten flogen glatt durch, aber einige wurden abgelenkt, teils stark. Daraus ließ sich schließen, dass Atome keine kompakte Masse sind – und die Elektronen nicht wie Rosinen in einem Teig stecken, was Thomson annahm –, sondern größtenteils aus »leerem« Raum bestehen.

Etwa 99,95 Prozent der Masse eines Atoms sind in seinem Kern konzentriert, der rund 10.000-mal kleiner ist als das Atom. Wie klein die Atome und Kerne sind, ist für den Alltagsverstand kaum vorstellbar. Man kann sich höchstens Vergleiche zur Veranschaulichung ausdenken: Wenn man ein Kohlenstoff- oder Eisen-Atomkern auf den Durchmesser einer Erbse vergrößern und auf den Mittelpunkt eines Fußballfelds legen würde, dann wäre die Elektronenhülle so groß wie das Spielfeld. Ein Proton hätte einen Durchmesser von rund einem Millimeter wie dieses o hier auf der Seite. (Und die Quarks, aus denen Protonen bestehen, wären noch einmal um mindestens das Tausendfache kleiner – also selbst im Schaubild des Fußballstadions unsichtbar.)

© Gunther Schulz/Rüdiger Vaas.

Der Abgrund der Materie: Wie Atome aufgebaut sind, lässt sich nicht durch reines Denken herausfinden, sondern nur experimentell. Dabei zeigte sich, dass Atome weder eine feste Masse sind – ein positiver »Kuchen« mit negativen Elektronen als »Rosinen« – noch ein lockeres Konglomerat, das Strahlung durchdringen kann (oben). Vielmehr ergab der Beschuss mit Alpha-Teilchen, dass Atome aus einem winzigen Kern bestehen, etwa ein Femtometer (10-15 Meter) klein, der von Elektronen umschwärmt wird (unten, nicht maßstabsgetreu).

Bis in die 1930er-Jahre galten Protonen und Elektronen als elementare Bausteine der Materie, aus denen die verschiedenen Atome oder chemischen Elemente zusammengesetzt sind, deren Verbindungen wiederum die Moleküle konstituieren. Die positiv geladenen Protonen bilden demnach die Atomkerne, die von den negativen Elektronen umgeben werden. Wobei die Planetensystem-Analogie der um den Kern kreisenden Elektronen in der Quantenphysik bald von abstrakteren Vorstellungen abgelöst wurde: von Elektronen als Ladungswolke mit unterschiedlicher Aufenthaltswahrscheinlichkeitsdichte, als stehenden Wellen oder als Feldkonfigurationen.

Mit der Entdeckung des Neutrons und der Ladungsunabhängigkeit atomarer Kräfte (ab 1936) veränderte sich die Vorstellung vom Atomkern erneut. Die Existenz des Neutrons hatte Rutherford schon 1918 postuliert; dessen Name prägte er auch, ebenso den des Protons. Dieses elektrisch neutrale Kernteilchen wurde 1932 von James Chadwick entdeckt. Es ist mit einer Masse von 939,6 Megaelektronenvolt etwas schwerer als das Proton und für sich allein instabil (nicht aber gebunden im Atomkern). Es zerfällt mit einer Halbwertszeit von zehn Minuten und elf Sekunden – die mit Abstand größte aller instabilen Teilchen – in ein Proton und ein Elektron; außerdem entsteht noch ein Elektron-Antineutrino, wie sich erst später herausstellte.

Exkurs

Elektronenvolt

Teilchenphysiker verwenden als Einheit der Energie – und oft auch der Ruhemasse – das Elektronenvolt und seine Vielfachen. Ein Elektronenvolt (eV) ist die Menge an kinetischer Energie, die ein Elektron gewinnt, wenn es eine Beschleunigungsspannung von einem Volt durchläuft. Ein Elektronenvolt entspricht 1,6 × 10-19 Joule. In der Teilchenphysik werden Partikelmassen als Energie angegeben, da Energie (E) und Masse (m) gemäß Albert Einsteins Formel E = mc² miteinander äquivalent sind. Die Lichtgeschwindigkeit (c) wird in den Masse-Angaben einer Bequemlichkeitskonvention zufolge auf 1 normiert, das heißt einfach weggelassen (1 eV/c² ≈ 1,783 × 10-36 Kilogramm). Die Vorsilben Mega, Giga- und Tera- bezeichnen eine Million, eine Milliarde und eine Billion. Ein Elektron hat beispielsweise die Ruhemasse von 0,51, ein Proton von 938,27 Megaelektronenvolt (strenggenommen MeV/c²).

Auch viele Atomkerne zerfallen, wobei Neutronen freigesetzt werden können. So wurde bald klar, dass Atome nur mechanisch oder chemisch »unzerschneidbar« sind, aber mit anderen Methoden sehr wohl in ihre Einzelteile »zerlegt« werden können. Die Entdeckung der Kernspaltung von Otto Hahn und Fritz Straßmann 1938 zeigte dies nicht nur eindeutig, sondern auch, welche Energien im Atomkern stecken – mit all den technischen Anwendungen sowie ihren moralischen, politischen und ökologischen Problemen, Gefahren und auch ein paar Chancen, wie bald darauf deutlich wurde.

In der Natur existieren 256 verschiedene Nuklide (oder Isotope) – also durch die Zahl ihrer Protonen und Neutronen unterschiedene Arten von Atomkernen –, die als »stabil« gelten (nur 90 sind es wirklich, die anderen haben aber sehr lange Halbwertszeiten). Hinzu kommen 80 natürliche Radionuklide. Außerdem wurden über 3000 weitere Radionuklide künstlich erzeugt. Von den radioaktiven Kernen haben 905 eine Halbwertszeit von über einer Stunde. Elemente mit mehr als 20 Protonen sind nur stabil, wenn die Kerne mehr Neutronen als Protonen erhalten.

Um bestimmte radioaktive Zerfälle zu erklären, hat Wolfgang Pauli 1930 ein neues Elementarteilchen postuliert, das Neutrino: Das geschah in einem mit »Liebe radioaktive Damen und Herren« überschriebenen Brief an die Teilnehmer einer Konferenz über Radioaktivität in Tübingen, weil Pauli wegen eines »in Zürich stattfindenden Balles unabkömmlich« sei. Seine Voraussage, die er einen »verzweifelten Ausweg« nannte, war nötig, um eine Verletzung des Energie-Erhaltungssatzes zu verhindern. Und sie war richtig, wie sich später zeigte: 1955 wurde mithilfe von Kernreaktoren dieses nur schwach wechselwirkende Elementarteilchen nachgewiesen. (Es interagiert wirklich schwach: Selbst bei einer hypothetischen fünf Lichtjahre dicken Mauer aus Blei würden noch mehr als die Hälfte der auf diese zufliegenden Neutrinos dahinter ankommen.) Der Name stammt von Enrico Fermi, weil Neutrinos wie Neutronen keine elektrische Ladung besitzen (Pauli hatte die Neutrinos ursprünglich Neutronen genannt, da zu jener Zeit die Kernbauteilchen noch nicht nachgewiesen waren).

Außerdem wurde die Existenz zusätzlicher Teilchen vorausgesagt, der Antimaterie. Das konnte ab 1932 bestätigt werden mit dem Nachweis von Positronen (Antielektronen) bei Untersuchungen der Kosmischen Strahlung. Dieser ständige Teilchenschauer aus dem Weltall sowie die Entwicklung von Teilchenbeschleunigern, mit denen sich Partikel aufeinander schießen und neue erzeugen lassen, führte zu einer Flut weiterer Entdeckungen.

Das erste dieser Partikel – ebenfalls ein Elementarteilchen nach heutigem Wissensstand – kam 1937 völlig unerwartet, also ohne jede theoretische Voraussage: das Myon. Es hat eine Masse von 106 Megaelektronenvolt, mehr als das 200-fache des Elektrons, dessen schwerer Bruder es gleichsam ist, und zerfällt in 2,2 Mikrosekunden (in ein Elektron, Myon-Neutrino und Elektron-Antineutrino, wie man erst später herausfand). »Wer hat das bestellt?«, fragte der Physik-Nobelpreisträger Isidor Rabi überrascht – und gab selbst die Antwort: niemand hat es bestellt; und keiner weiß, warum es existiert; Sterne, Planeten und Leben würde es auch so geben.

Myonen entstehen in der Erdatmosphäre aus dem Zerfall der erst später nachgewiesenen geladenen Pionen. (Das geschieht in rund 100 Kilometer Höhe, doch die kurzlebigen Myonen erreichen trotzdem den Erdboden – und durchschlagen auch diese Seite, während sie gelesen wird –, weil die von der Speziellen Relativitätstheorie beschriebene Zeitdilatation die Existenzdauer der fast lichtschnellen Teilchen relativ zu den langsamen irdischen Uhren verlängert … aber das ist eine andere Geschichte.)

1947 wurden in der oberen Erdatmosphäre die positiv oder negativ geladenen Pi-Mesonen (Pionen) nachgewiesen. Sie entstehen bei der Wechselwirkung der Kosmischen Strahlung mit Sauerstoff- und Stickstoff-Atomen. Sie haben etwa die 270-fache Masse des Elektrons, 139,6 Megaelektronenvolt. 1948 ließen sie sich im kalifornischen Berkeley mit einem Protonenbeschleuniger auch künstlich erzeugen. Das neutrale Pion, das eine kürzere Lebensdauer besitzt als seine geladenen Geschwister und keine Ionisationsspuren hinterlässt, wurde 1950 anhand des Zerfalls in zwei Photonen identifiziert.

Aber dabei blieb es nicht. Viele weitere Teilchen wurden entdeckt, darunter die Kaonen, Hyperonen, Delta-, Lambda- und Sigma-Teilchen. In den 1970er-Jahren wurde zuweilen fast wöchentlich ein neues Partikel gefunden – inzwischen zählt man rund 300. Die allermeisten davon sind äußerst kurzlebig mit Halbwertszeiten von weniger als einer Millionstel Sekunde. So ergab sich mit der Zeit eine äußerst verwirrende Situation. Falls diese Partikel alle elementar wären, dann würde die vom antiken Atomismus übernommene Idee der einfachen Bestandsaufnahme und Erklärbarkeit der Welt in der Vielfalt ertrinken. Physiker waren ratlos. Bald sprachen sie mit Unbehagen von einem Teilchenzoo. »Wenn ich die Namen aller dieser Teilchen behalten könnte, würde ich Botaniker werden«, sagte Enrico Fermi einmal vor lauter Missmut.

Alle diese Partikel mit ihren Eigenschaften bloß aufzulisten, wäre unbefriedigend. In der Botanik und Zoologie war die Taxonomie – die Ordnung in Arten, Gattungen, Familien und so weiter – auch erst dann mehr als eine Bestandsaufnahme, nachdem mit der Evolutionstheorie eine genetische Verwandtschaft erkannt und die Artenvielfalt durch die Mechanismen von Mutation und Selektion kausal erklärt worden war. Doch was hat den Teilchenzoo »eingerichtet«?

Dass alle Mitglieder dieses Sammelsuriums gleichermaßen elementar sind, erschien immer unplausibler. Allerdings wurde auch das Konzept der »nuklearen Demokratie« erwogen: Demzufolge sollte jedes Teilchen aus anderen Teilchen zusammengesetzt sein, ohne dass einzelne Partikel fundamentaler als andere wären – wobei aber bestimmte physikalische Erhaltungssätze erfüllt sein müssten. Hier wurde also bestritten, dass es ein paar wenige Elementarteilchen gibt, aus denen alle anderen Partikel aufgebaut sind. Vielmehr wären alle gleichberechtigt und bauen sich wechselseitig auf.

»Die Natur ist, wie sie ist, weil das die einzige mögliche Weise ist, mit sich selbst konsistent zu sein«, meinte Geoffrey Chew von der University of California in Berkeley. Die innere Widerspruchsfreiheit würde also die Wahl der Existenz treffen. Chew nannte dies das »Bootstrap-Prinzip« – nach der Redewendung »sich an den eigenen Schuhriemen herauszuholen« (»to lift oneself by one’s bootstraps«). Mit dieser Art von Selbstgenügsamkeit sollte sich die Frage nach den grundlegenden Bausteinen der Natur erübrigen: Diese ziehe sich wie Münchhausen gleichsam selbst aus dem Sumpf. Alle Bausteine würden dann sowohl als Konstituenten fungieren als auch Quanten der Kraftfelder sein, die die Konstituenten zusammenhalten. Eine detaillierte Anwendung und Voraussagekraft des Bootstrap-Prinzips blieb allerdings ungeklärt, auch wenn der dazugehörige mathematische Apparat der S-Matrix-Theorie manche Eigenschaften und Prozesse der Teilchenstreuung zu beschreiben vermochte. (Wissenschaftshistorisch ist übrigens interessant: Obwohl die S-Matrix als Theorie der Starken Wechselwirkung scheiterte, trug sie andere Früchte – aus ihr wurde die Stringtheorie entwickelt, und deren Pioniere John Schwarz und David Gross hatten auch bei Geoffrey Chew promoviert.)

Als Alternative zur nuklearen Demokratie setzte sich in den 1960er-Jahren ein fundamentalerer Ansatz durch, der in den 1970er-Jahren zum Standardmodell der Elementarteilchen avancierte. Dieses hat bis heute unangefochtene Gültigkeit. Dafür sprechen sowohl theoretische Gründe (größere Erklärungskraft) als auch experimentelle Ergebnisse; außerdem konnten seither zahlreiche Voraussagen in Experimenten bei immer höheren Energien bestätigt werden – und keine einzige wurde widerlegt.

Das Standardmodell der Elementarteilchen

... ist »ein grotesk bescheidener Name für eine der größten Leistungen der Menschheit«, sagt der Physik-Nobelpreisträger Frank Wilczek vom Massachusetts Institute of Technology. »Es fasst in einer bemerkenswert kompakten Form fast alles zusammen, was wir über die fundamentalen Gesetze der Physik wissen. Alle Phänomene der Kernphysik, Chemie, Materialwissenschaft und Elektrotechnik – hier steckt alles drin. Und anders als bei der verbalen Gymnastik der klassischen Philosophie geht es mit exakten Algorithmen einher, deren Symbole ein Modell der physikalischen Welt entfalten. Das erlaubt es, überraschende Vorhersagen zu machen und zum Beispiel exotische Laser, Kernreaktoren und ultraschnelle, kleine Computerspeicher mit großer Zuverlässigkeit herzustellen.« Wilczek kann seine Begeisterung kaum zügeln. »Die Regeln erscheinen zunächst etwas kompliziert, aber das ist nichts im Vergleich beispielsweise zu den Konjugationen einiger irregulärer Verben in Latein oder Französisch. Und diese Regeln sind nicht beliebig. Sie werden durch die experimentellen Tatsachen erzwungen.«

Hier zunächst eine kurze Zusammenfassung des Standardmodells – eine Art Crash-Kurs (ganz ohne Großes Latinum, obwohl ein paar lateinische und griechische Vokabeln dann doch nützlich sind …).

Die wichtigste Unterscheidung im Standardmodell der Elementarteilchen ist die zwischen Materie und Kräften. Beide werden als Quantenfelder aufgefasst, die den Raum durchziehen, wobei die Quanten dieser Felder als Teilchen erscheinen. Davon gibt es zwei Klassen: die Fermionen und die Bosonen. Die Fermionen bilden die Materie; benannt sind sie nach dem italienischen Physiker Enrico Fermi, der ihre Quantenstatistik zusammen mit Paul Dirac formuliert hatte. Dem gegenüber stehen die Bosonen; sie heißen nach dem indischen Physiker Satyendranath Bose, der mit Albert Einstein ihr Verhalten in einer anderen Quantenstatistik beschrieben hatte. Zu den Bosonen gehören die Eich- oder Vektorbosonen, die Überträger der Naturkräfte, aber auch das Higgs-Boson.

Die Naturkräfte werden gemäß der Quantenfeldtheorien nicht instantan übertragen – das wäre als überlichtschneller Effekt auch im Widerspruch zur Relativitätstheorie –, sondern mit (fast) Lichtgeschwindigkeit, und zwar über spezielle Vermittlerteilchen. Diese Vektorbosonen sind für jede Kraft spezifisch und werden zwischen den Fermionen ausgetauscht. Eine Analogie dafür: Angenommen, zwei Bootsfahrer haben ihre Ruder verloren und wollen nicht mit den Händen paddeln. Sie haben aber einige Apfelsinen an Bord. Diese können sie hin und her werfen. Der dabei übertragene Impuls führt dazu, dass sich die Boote voneinander entfernen und an die gegenüberliegenden Ufer treiben. In diesem Bild entsprechen die Boote den Fermionen und die Apfelsinen den Bosonen, die eine abstoßende Kraft vermitteln.

Der grundlegende Unterschied zwischen Fermionen und Bosonen ist der Spin (englisch für: Drall). Diese Eigenschaft der Elementarteilchen, aber auch zusammengesetzter Partikel, ist eine Art innerer Eigendrehimpuls. Entdeckt wurde er 1922 von Otto Stern und Walther Gerlach, als sie Silber-Atome (die nur ein Außenelektron haben) durch ein inhomogenes Magnetfeld leiteten und mit Erstaunen eine Aufspaltung des Strahls beobachteten. Wolfgang Pauli postulierte daraufhin den Spin als eine neue Quantenzahl, eine innere Quanteneigenschaft. (Die Einheit des Spins ist durch das Plancksche Wirkungsquantum h/2π definiert – mit den Werten 0, ½, 1, 32, 2 und so weiter –, und der Spin verschwindet für h = 0, er hat daher keine klassische Entsprechung.)

Fermionen besitzen einen halbzahligen Spin (in der Regel ½), Bosonen einen ganzzahligen (bei den Vektorbosonen hat er den Wert 1, beim Higgs-Teilchen 0). Das hat weitreichende Konsequenzen. So können Fermionen, etwa Elektronen, aufgrund von Abstoßungskräften nie denselben Zustand einnehmen. Deshalb gibt es überhaupt stabile Atome und Atomverbände, denn andernfalls würden sich Elektronen alle am selben Ort versammeln und die chemische Bindung zwischen den Atomen eines Moleküls wäre verschwunden. Bosonen dagegen gehorchen diesem sogenannten Paulischen Ausschließungsprinzip nicht. Daher können sie denselben Quantenzustand einnehmen. Das ist beispielsweise bei den Photonen im Laserstrahl der Fall.

Die Fermionen werden in Quarks und Leptonen unterteilt, die beide in drei Generationen mit zunehmender Masse angeordnet sind. Die sechs Quarks heißen up, down, strange, charm, bottom (oder beauty) und top (oder truth); sie haben elektrische Ladungen von +23 oder -13 in Einheiten der Elementarladung (Elektron: -1) sowie eine sogenannte Farbladung (genannt rot, blau oder grün). Zu den Leptonen gehören das Elektron und seine schwereren »Geschwister«, das Myon und Tauon, die alle negativ geladen sind, sowie ihre neutralen und fast – aber nicht ganz – masselosen »Vettern«, die Neutrinos. Zu jedem Quark und Lepton gibt es ein Antiteilchen mit gleicher Masse, aber umgekehrter Ladung. Die gewöhnliche und stabile Materie besteht nur aus Elektronen, Protonen (aus zwei up-Quarks und einem down-Quark) sowie Neutronen (aus einem up-Quark und zwei down-Quarks).