Mein

Was falschläuft in der Spitzen-Physik

In der Physik herrschen scheinbar große Zeiten. Raumsonden vermessen Kosmos und Galaxien, Forscher denken über Parallel-Universen nach und im Cern-Teilchenbeschleuniger in Genf geht man auf die Jagd nach den kleinsten der kleinsten Teilchen. Wie viel Erkenntnisgewinn ist aber zu erwarten? Wenig, meint der Physiker Alexander Unzicker und liest den Wissenschaftlern die Leviten. Sein neuestes Buch mischt die Fachwelt auf.

Atome sind die Grundbausteine der Materie. Sie haben eine Elektronenhülle und einen Kern aus Protonen und Neutronen. Die Teilchenphysik stößt voller Neugier in noch kleinere Dimensionen vor . . .
Atome sind die Grundbausteine der Materie. Sie haben eine Elektronenhülle und einen Kern aus Protonen und Neutronen. Die Teilchenphysik stößt voller Neugier in noch kleinere Dimensionen vor . . .

Treibt die Physik seltsame Blüten? Ja, meint der Münchner Physiker Alexander Unzicker. Das Vorgehen von Teilchenphysikern und Kosmologen habe mit Wissenschaft nicht mehr viel zu tun

Herr Unzicker, Sie vergleichen den Zustand der Physik mit der Krise der Finanzwelt und deren Spekulationsblasen. Warum ist die Physik nach Ihrer Meinung auf dem Holzweg?

Die Physik basiert ebenso wie die Finanzwelt auf Vertrauen, denn wir haben keine unmittelbare Kontrollmöglichkeit mehr. Auch die Physiker müssen sich gegenseitig vertrauen. Der Astronom, der sich mit Galaxien beschäftigt, kann nicht mehr die Experimente eines Neutrinophysikers überprüfen. Und ein Teilchenphysiker kann die Rohdaten zur Expansion des Universums nicht verstehen.

Führt die wachsende Spezialisierung also dazu, dass der Überblick in der Physik insgesamt verloren geht?

Ja, das ist ein wesentliches Element der jetzigen Krise. Vergleichbar ist das mit dem Bankensektor, in dem die Palette der Finanzprodukte nicht mehr durchschaubar ist. Unklar ist, welche Annahmen einfließen, was die Computermodelle genau tun – in der Physik ist das heute ähnlich.

Können Sie ein Beispiel geben?

Beim europäischen Kernforschungszentrum Cern in Genf beruht die Datenauswertung darauf, dass viele Prozesse mit Computern modelliert und herausgerechnet werden. Dabei macht man aber Annahmen über die Naturgesetze, etwa die Lichtabstrahlung, die man einfach nicht genau kennt. Deshalb sind die Ergebnisse nicht wirklich vertrauenswürdig. Niemand kann behaupten, dass er das alles überblickt.

Das heißt, die Arbeit des Cern ist Wissenschaft ohne Transparenz?

Leider ja. Natürlich sind die Experimente heutzutage wesentlich komplexer als früher. Der Weg aus der Vertrauenskrise kann aber nur darin bestehen, dass Daten transpartent aufbereitet und im Internet öffentlich gemacht werden. So könnten Auswertungsschritte auch unabhängig von außen nachvollzogen werden, ohne dass eine oder zwei Forschungsgruppen die Deutungshoheit über alle Daten beanspruchen können.

Aktuelles Beispiel: Die Suche nach dem Higgs-Teilchen, bei der in diesem Jahr der Durchbruch gemeldet wurde?

Wegen des Milliarden-Aufwands für den neuen Teilchenbeschleuniger stand das Cern natürlich unter hohem Erwartungsdruck. Das führte dazu, dass man ein mageres Ergebnis unter Fanfaren verkaufen muss. Bei der sogenannten Entdeckung des Higgs-Teilchens könnte es sich aber ebenso gut um ein Artefakt der Computermodellierung handeln. Eigentlich müsste das Teilchen 1000-mal langlebiger sein, als man mit dem Experiment nachweisen kann. Die Bedeutung, die der Datenanomalie – so müsste man das eigentlich nennen – beigemessen wird, ist völlig übertrieben und hat nichts mit fundamentaler Physik zu tun.

Die Erkenntnisse bauen doch aber aufeinander auf. Warum soll das plötzlich alles falsch sein?

Natürlich läuft nicht erst seit gestern etwas schief. Schon in der Nachkriegszeit begann man, mit immer höheren Energien immer mehr Teilchen zu produzieren. Das führte zu einem komplizierten System, in dem die Formeln mit immer mehr willkürlichen Parametern angereichert wurden. Teilchenphysik ist heute mehr ein technischer Hochleistungssport als Wissenschaft.

Endet der ungebremste Bevölkerungszuwachs im Teilchenzoo – mittlerweile ist von mehr als 1000 Elementarteilchen-Arten die Rede – in Spekulation?

Ein Teilchenphysiker würde jetzt antworten, dass etwa durch die „Quarks“ genannten Teilchen eine Vereinfachung erreicht wurde. Aber auch das angeblich stark vereinfachte Modell besteht immer noch aus Dutzenden von Teilchen mit unerklärbarem Zahlen-Beiwerk. Diese Modelle sind in ihrer Kompliziertheit einfach nicht mehr glaubwürdig. Forscher wie Albert Einstein oder Paul Dirac hätten das für lächerlich gehalten. Ihr Credo hieß: Die Natur muss einfach gebaut sein.

Was wollten denn Einstein und Dirac beispielsweise herausfinden?

Eine wichtige aber unbeantwortete Frage ist etwa: Warum ist ein Kernbaustein, das Proton, genau 1836 mal so schwer wie das Elektron? Das ist etwas Elementares, das uns die Natur mitteilt. Aber das Standardmodell klammert diese Frage aus und man sagt: es ist eben so. Aber die Aufgabe von Physikern ist es, die Natur zu erklären und dem Warum auf den Grund zu gehen.

Max Planck hat aber einmal gesagt, dass sich das physikalische Weltbild immer weiter von unserer Sinnenwelt entfernt und „rein formale mathematische Operationen“ zwingend bedeutsamer werden . . .

Es hat ja niemand etwas gegen schwierige Mathematik in der Physik, etwa Einsteins Allgemeine Relativitätstheorie. Das Problem sind willkürliche Parameter. Als Max Planck auf das später nach ihm benannte Plancksche Wirkungsquantum stieß, hat er mit sich gerungen, ob er eine neue, unerklärte Zahl postulieren muss und darf. Er würde sich wohl im Grab herumdrehen, wenn er sehen würde, wie heute neue Zahlen und Konstanten quasi am Fließband produziert werden – nur damit man die Modelle irgendwie noch am Leben erhalten kann.

Nun schauen Sie der Wissenschaft nicht nur beim Allerkleinsten kritisch über die Schulter, sondern Sie verfolgen auch die Blicke auf das Allergrößte – das Universum. Ist denn die neue Annahme von „Dunkler Materie“ und „Dunkler Energie“ durch die Kosmologen nicht genauso kühn wie die Tat des Kopernikus, die Sonne in den Mittelpunkt unseres Planetensystems zu setzten?

Ich würde es umgekehrt sehen: Die Dunkle Materie ist gar nicht so kühn, sondern eine naheliegende Idee (und auch schon fast 80 Jahre alt), vergleichbar mit der Ansicht vor Kopernikus, wonach alle Planetenbahnen Kreise um die Erde sind. Von Ellipsen wusste er noch nichts. Wenn man jetzt zusätzlich zur Dunklen Materie noch die Dunkle Energie einführt, dann erinnert das an die damalige Forderung, auf die Planetenkreisbahnen noch weitere kleine Kreise – die Epizyklen – zu montieren, um die Kreisbahn-Theorie aufrecht erhalten zu können. So wurde dieses System immer komplizierter und führte unverstandene neue Zahlen ein. Das ist die erschreckende Parallele zur modernen Astrophysik, die Unverstandenes mit zusätzlich Unverstandenem erklären will.

Reitet man sich so immer tiefer in die Rätselei hinein?

Ja, das Problem liegt in der Methodik. Vor 100 Jahren waren die Physiker noch verzweifelt, wenn sie neue Zahlen benötigten. Heute ist das zur Routine geworden. Aber jeder neue Parameter, wie etwa die Dunkle Energie, ist eine methodische Niederlage. Wir befinden uns da auf einem abschüssigen Hang. Wissenschaftshistoriker wie Thomas Kuhn haben beschrieben, dass die Praxis oft so abläuft. Aber die Summe der naheliegenden Schritte ist oft ein Weg in die falsche Richtung.

Trifft das auch auf Schwarze Löcher, die Masse-Monster im All, zu?

Wir haben heute tolle Möglichkeiten, schnell kreisende Sterne im Zentrum der Milchstraße zu beobachten. Man kann sich zwar vorstellen, dass dort ein Schwarzes Loch sitzt. Aber so ein Objekt ist noch nie auf Heller und Pfennig vermessen worden. Es gibt keine belastbare Zahl, woran man die Theorie überprüfen kann. Der Nachweis Schwarzer Löcher beruht auch auf dem Glauben an die Theorie.

Ist es nicht menschlich, wenn sich Forscher über fantastische Dinge im All begeistern und dann der Faszination erliegen, die heißt: Alles ist denkbar?

Ich sage auch: Wir leben in einer einzigartigen Ära von Beobachtungen. Man empfindet fast Demut, wenn man Strahlung aus dem frühen Universum sieht, die Milliarden Jahre zu uns unterwegs war. Und es ist bewundernswert, wenn man die Position von Sternen mit einer Winkelgenauigkeit vermessen kann, so als würden wir von hier aus die Dicke eines Haars in New York bestimmen. Gleichzeitig verführt das zu dem Glauben, wir hätten mit den Beobachtungen auch schon die Theorie verstanden. Das ist die Gefahr. Dann passiert es, dass wir die Theorien, die im Sonnensystem gut getestet sind, hochrechnen auf Galaxiengröße oder die Ausdehnung des Universums. Dabei wird vergessen, wie risikoreich das ist – und im Grunde auch naiv.

Die Kosmologie ist also auf großen Distanzen gar nicht so gut getestet?

Wenn ich Gesetze, die ich auf einer Fingernagelbreite überprüft habe, bis auf die Distanz zum Jupiter hochrechne, ist das sehr gewagt. Das gleiche tun wir aber in der Kosmologie, wir sind zu optimistisch. Auch vor 100 Jahren hielt man alle Rätsel der Physik für gelöst. Dann kam die Revolution mit Einsteins Relativitätstheorie und der Quantenmechanik. Ich vermisse das Bewusstsein der Forscher des frühen 20. Jahrhunderts, die in ihren Theorien sparsamer und bescheidener waren. Sie waren von der Einfachheit der Naturgesetze überzeugt und suchten nach grundlegenden Erklärungen.

. . . während Astrophysiker in die Tiefen des Weltalls blicken, hier auf die Spiralgalaxie NGC 3521.
. . . während Astrophysiker in die Tiefen des Weltalls blicken, hier auf die Spiralgalaxie NGC 3521. | Bild: valdis torms/Fotolia, dpa

Ihre Meinung ist uns wichtig
Hervorragende Weine vom Bodensee
Korrekturhinweis
Neu aus diesem Ressort
Leben und Wissen
Leben und Wissen
Leben und Wissen
Leben und Wissen
Leben und Wissen
Leben und Wissen
Die besten Themen
Kommentare (0)
    Jetzt kommentieren