Mittwoch, 28. September 2011

Realleistung statt Nennleistung - die mangelnde Transparenz von Windkraftfirmen




Um Prof. Harald Lesch - der dies in einem anderen Zusammenhang sagte - zu zitieren: "Ich hab 'nen dicken Hals!"

Warum ich das habe?

Ich bin kein Freund davon, wenn Menschen über wichtige Daten und Zusammenhänge falsch informiert werden. Vor allem dann nicht, wenn die Fehlinformation sich hinter einer richtigen Information verbirgt, die viele jedoch mangels Vorwissen nicht richtig zu deuten verstehen.

Worum es geht? Um Windparks.

Schauen wir uns den Webauftritt des deutschen Offshore-Parks Alpha Ventus an: Fact Sheet.

Auf Seite 3 lesen wir wörtlich: "Mit einer Nennleistung von jeweils 5 Megawatt und einer entsprechenden Gesamtleistung von 60 Megawatt wird ein jährlicher Energieertrag von ca. 220 Gigawattstunden erwartet."

5 Megawatt Nennleistung je Turbine, insgesamt 60 Megawatt (12 Turbinen). Das klingt doch nicht schlecht!

Der jährliche Energieertrag soll 220 GWh betragen. Eine Gigawattstunde sind 3.6 * 10^12 J, und Leistung ist gleich Energie pro Zeit. Wir können also den Energieertrag durch ein Jahr (3.16 * 10^7 s) teilen, und erhalten so die Leistung im Zeitdurchschnitt, die wir mit <P> bezeichnen wollen.

Wir erhalten:

<P> = 220 * 3.6 * 10^12 J / 3.16 * 10^7 s = 25.06 MW

Hey! Das ist ja nicht mal die Hälfte der Nennleistung von 60 MW.

Dem Techniker ist sofort klar, worauf diese Diskrepanz zurückzuführen ist. Die "Nennleistung" ist keinesfalls die Leistung, die ein Kraftwerk im Zeitdurchschnitt liefert. Sondern vielmehr die, die es unter optimalen Bedingungen freisetzt. Bei Windkraftanlagen bedeutet das, das der Wind mit optimaler Geschwindigkeit bläst - weder zu schnell, noch zu langsam (oberhalb eines gewissen Grenzwertes müssen die Rotoren nämlich abgeschaltet werden, um Strukturschäden zu vermeiden). Aber das tut er natürlich nicht andauernd. Mal herrscht Flaute, mal bläst der Wind stark, mal schwach - der Output einer WKA schwankt ständig. Nennleistung erreicht sie nur wenn die entsprechenden Bedingungen gegeben sind.

Aus diesem Grund ist die Nennleistung für die Energieversorgung völlig uninteressant. Worauf es ankommt, ist, welche Leistung im Zeitmittel ins Netz eingespeist wird: Die gesamte über einen längeren Zeitraum freigesetzte elektrische Energie dividiert durch diesen Zeitraum (z. Bsp. ein Jahr). Das ist die Information, die wirklich etwas über den Nutzen der Anlage aussagt. Ich kann eine wunderbare WKA mit hoher Nennleistung an einem fast windstillen Ort aufstellen, und habe fast nichts davon, da sie dauernd stillsteht oder zu langsam läuft, und die Durchschnittsleistung deshalb sehr klein ist.

Ingenieure benutzen auch den Begriff "Volllastbetriebsstunden", um die reale Leistung eines Kraftwerks zu quantifizieren. Dies ist die Anzahl Stunden, die es bei Nennleistung arbeiten müsste, um die pro Jahr tatsächlich erzeugte Energie freizusetzen. Sie errechnet sich aus der Formel:

VBh = Energie(Jahr) / Nennleistung.

Bei Alpha Ventus erhält man:

VBh = 220 * 3.6 * 10^12 J / (60 * 10^6 W * 3600 s/h) = 3667 h.

Ab 1500 h erhalten die Betreiber Zuschüsse laut Erneuerbare-Energien-Gesetz.

Aus diesem Grund stört es mich, wenn Windparkbetreiber in ihren Broschüren vollmundig die Nennleistung ihrer Anlage verkünden, und die wirklich wichtige Information - die Durchschnittsleistung - etwas versteckt in Form des jährlich freigesetzten Energiebetrages angeben. Für einen Physiker oder Ingenieur ist das völlig verständlich, aber ein Journalist, der nicht viel über Physik und Technik weiß, und die Broschüre zur Hand nimmt, liest nur "60 MW", denkt "wow!", und macht sich nicht klar, dass die eigentlich Leistungsfähigkeit der Anlage viel geringer ist.

Wie alle klassischen Erneuerbaren, ist Windenergie sehr diffus - sie braucht viel Platz. Deshalb kann es nützlich sein, die Flächenleistungsdichte (W/m^2) für sie zu berechnen. Das ist einfach, aber interessant:

WKA wandeln die kinetische Energie bewegter Luft in elektrische Energie um. Wir berechnen daher zuerst die Energiedichte Q der Windströmung - die Menge an kinetischer Energie, die pro Volumen in der Luft enthalten ist:

Q = 1/2 * rho * v^2

v ist die Windgeschwindigkeit, rho die Luftdichte. Sie liegt auf Meereshöhe bei 1.3 kg / m^3.

Multiplizieren wir Q nochmal mit der Windgeschwindigkeit, erhalten wir den Leistungsfluß F pro Fläche - die Menge an kinetischer Energie, die pro Sekunde durch einen Querschnitt von einem Quadratmeter hindurchtritt:

F = Q*v = 1/2 * rho * v^3

Der Rotor der Windturbine deckt eine Fläche von A = r^2 * PI ab, wenn r ihr Radius (die Blattlänge) ist. PI=3.14159... ist natürlich die bekannte Kreiszahl. Das Produkt von A und F ergibt dann die von der WKA maximal einsammelbare Leistung:

P_max = A * F = 1/2 * PI * rho * v^3 * r^2

Moderne WKA erreichen einen Wirkungsgrad von 50%. Die umgesetzte elektrische Energie berechnet sich daher zu:

P_el = 1/4 * PI * rho * v^3 * r^2.

Man sieht, dass die Leistung stark mit dem Rotordurchmesser wächst, und noch viel stärker mit der Windgeschwindigkeit.

Sollen nun viele WKA zusammen einen Windpark bilden, dann müssen sie in einem gewissen Abstand zueinander aufgebaut werden, da sie sich sonst gegenseitig "den Wind aus den Segeln nehmen". Als Faustregel sollte der Abstand zwischen den WKA das Zehnfache ihres Rotor-Radius' betragen. Jede WKA hat damit ein aerodynamisches "Hoheitsgebiet" von 100 r^2. Die effektive Flächenleistungsdichte eines Windparks beträgt:

D = P_el / (100 r^2) = 1/400 * PI * rho * v^3.

Der Rotorradius kürzt sich heraus! Es ist damit auf den ersten Blick egal, ob man einen Windpark aus großen oder kleinen WKA aufbaut. Große sind aber dennoch sinnvoller, da sie zum einen höher hinaufreichen und schnellere Windströmungen auffangen, zum anderen wird das Baumaterial für die Anlagen so effizienter verwertet. Eine ganz ungünstige Idee sind übrigens Mini-WKA auf Dächern, da der Wind über Siedlungen stark abgebremst wird. Man setzt Arbeit und Material viel nutzbringender ein, wenn man sie in große WKA an windreichen Stellen investiert - zum Beispiel offshore.

Um einen konkreten Zahlenwert zu berechnen, müssen wir nur die die typischen Windgeschwindigkeiten in Erfahrung bringen. Das Internet spuckt diese Information selbstverständlich aus: Windkarte.

Wir sehen, dass in der norddeutschen Tiefebene die mittlere Windgeschwindigkeit zwischen 4 und 5 Meter pro Sekunde liegt, direkt an der Küste bei über 6. Nehmen wir v_onshore = 5 m/s und v_offshore = 9 m/s, so erhalten wir:

D_onshore = 1.3 W / m^2

und

D_offshore = 7.4 W / m^2.

Wollte jeder Deutsche also seinen gesamten Primärenergieverbrauch von rund 6000 W allein aus Windenergie bestreiten, so müsste er rund 4600 m^2 auf dem Land (und zwar an den windigsten Stellen), oder 810 m^2 auf dem Meer abdecken. Alle 80 Millionen zusammen würden 64.8 * 10^9 Quadratmeter Meer benötigen, bzw. 64800 Quadratkilometer - z. Bsp. einen 65 km breiten und 1000 km langen Streifen. Zu dumm, dass wir Deutsche eine so kurze Küste haben... aber es gibt ja noch andere mögliche Aufstellorte für WKA!

Zeit für einen Reality-Check! Liefern unsere Formeln die richtigen Ergebnisse für reale Windparks? Laut Broschüre hat den Alpha Ventus eine Fläche von 4 km^2 = 4 * 10^6 m^2. Das ergibt:

D_alphaventus = 25 * 10^6 W / 4 * 10^6 m^2 = 6.25 W / m^2.

Das stimmt recht gut mit unserer obigen Abschätzung überein.

Googeln wir uns zum Spaß einen anderen Offshorepark (Liste). Nehmen wir den britischen Barrow Offshore Windpark. Der jährlich Output von 305 GWh = 1.1 * 10^15 J entspricht einer Durchschnittsleistung von <P> = 1.1 * 10^15 J / 3.16 * 10^7 s = 34.7 MW - etwas mehr als ein Drittel der auf der Homepage unschuldig und irreführend als "Total Ouput" bezeichneten 90 MW.

Der Park deckt laut Datenblatt 10 km^2 ab. Offensichtlich wurde er recht großzügig angelegt, da bei einem Rotordurchmesser von 90 m ein Platzbedarf pro Turbine von (5 * 90 m)^2 = 202 500 m^2, bzw. für 30 Turbinen insgesamt 30 * 202 500 m^2 ~ 6 km^2 entsteht.

Auf 10 km^2 verteilt entspricht die Flächenleistungsdichte:

D_bowind = 34.7 * 10^6 W / 10 * 10^6 m^2 = 3.47 W / m^2.

Würde man die WKA auf 6 km^2 zusammenpacken, ergäbe sich:

D_bowind_eng = 34.7 * 10^6 W / 6 * 10^6 m^2 = 5.8 W / m^2.

Alle Briten zusammen (61.8 Mio) würden bei einem Individualverbrauch von 6000 W damit 64000 Quadratkilometer "optimal gepackten" Offshore-Windpark benötigen - allerdings unter der Annahme, dass der Wind überall so stark ist wie bei Barrow Offshore, was insbesondere in Buchten sicher nicht der Fall ist. Da die britische Küste fast 3000 km lang ist, würde es genügen, die ganze Insel mit einem geschlossenen, 16 km breiten Windparkstreifen zu umgeben, was natürlich weder sinnvoll noch realistisch ist (Schiffe, Fischerei, Meeresvögel...). Auch die Briten werden wohl windreiche, nordwestafrikanische Küsten anzapfen müssen, wenn sie große Mengen Windenergie möchten.

Langer Rechnung kurzer Sinn: Die Datenangaben auf den Homepages von Windparkbetreibern dürften für sehr viele Bürger irreführend sein, da nur relativ wenige die Bedeutung von "Nennleistung" kennen und der Begriff "Total Output" komplett in die Irre führt. Meine Idee wäre daher, dass solche Firmen gleich auf die Begrüßungsseite ihres Webauftritts eine schöne große Anzeige stellen sollten, die die real erzeugte Leistung in Echtzeit angibt, sowie eine Meßkurve, die sie als Zeitfunktion über die letzten 12 Monate (oder länger) darstellt. Dann wüssten alle sofort Bescheid und könnten sich ein realistisches Bild machen. Und anstatt den sperrigen Begriff Durchschnittsleistung zu verwenden, könnte man von "Realleistung" sprechen. Das klingt einprägsam und vermittelt die richtige Idee!


Weblinks

Physik der Windkraftanlage bei "Without hot Air"

Montag, 26. September 2011

Neutrinos - mit Warpspeed durch die Alpen?!

Dass eine wissenschaftliche Entdeckung einen waschechten Medienrummel auslöst, ist selten. Wenn dies geschieht, handelt es sich meist um Resultate, die die Phantasie der Menschen berühren, und Fragen ansprechen, die das gemeinsame kulturelle Unterbewußtsein schon seit langer Zeit beschäftigen. Als 1995 Mayor und Queloz den ersten Exoplaneten um einen Hauptreihenstern entdeckten, dürfte dies der Fall gewesen sein, denn die Frage nach der Existenz von Planeten außerhalb der Sonnensystems hat die Menschheit seit Beginn der modernen Astronomie fasziniert, und war Gegenstand von Spekulation und Science-Fiction-Geschichten. Vergangenen Freitag machte eine Meldung die Runde, die in die gleiche Kerbe schlug: Ein gemeinsames Experiment des Kernforschungszentrums CERN und der Laboratori Nazionali del Gran Sasso in Italien deutet darauf hin, dass Neutrinos, geisterhafte Teilchen die kaum mit üblicher Materie wechselwirken, in der Lage sind, sich überlichtschnell auszubreiten.

Kaum war die Meldung heraus, begann es im Internet zu brummen wie in einem Bienenkorb. Neutrinowitze überfluteten Twitter. Google Trends zeigt die höchste Suchanfragenrate zum Thema "Neutrino" seit 2004. Kaum eine Zeitung ließ die Meldung aus, dass das angeblich Unmögliche entdeckt worden war: Überlichtschnelle Signale!

Die Faszination ist verständlich. Schließlich ist in der Science Fiction blitzschnelle Kommunikation über interstellare Distanzen, manchmal sogar, wie in Star Wars, in Echtzeit, so selbstverständlich wie heutzutage ein Anruf mit dem Handy. Auch materielle Objekte, z. Bsp. Raumschiffe, übertreffen in fast allen Space Operas die Lichtgeschwindigkeit um ein Vielfaches. In wie hohem Maße ist von Story zu Story allerdings sehr unterschiedlich - während in Star Trek ein Schiff rund 70 Jahre benötigt, um die ganze Milchstrasse zu durchqueren, ist das in Star Wars innerhalb einiger Tage möglich. Allen diesen Geschichten gemeinsam ist aber, dass Überlichtflug und -kommunikation etablierte, bewährte Technologien sind, in den Alltag integriert und daher beinahe banal.

Aller Begeisterung der Scifi-Fans zum Trotz waren Physiker der ganzen Idee gegenüber größtenteils extrem skeptisch. Überlichtflug, argumentierten sie, ermögliche Reisen in die Vergangenheit, was wegen der Wahrung der Kausalität unmöglich sei. Dann und wann gab es in den spekulativeren Bereichen der theoretischen Physik geringfügige Schützenhilfe für die Scifi-Gemeinde. Schon Einstein erläuterte, dass sich überlichtschnelle Teilchen, sog. Tachyonen, durchaus in die Spezielle Relativitätstheorie einfügen ließen. Ihre Masse müsse eine imaginäre Zahl sein. Bei Energiezufuhr würden diese Teilchen langsamer, bis sie asymptotisch "von oben her" der Lichtgeschwindigkeit nahe kämen. Die Lichtbarriere lasse sich jedoch weder von unten noch von oben überwinden, sie stelle eine absolute Grenze dar.

Später spekulierten verschiedene Gravitationstheoretiker über die Möglichkeit, Überlichtantriebe für Raumschiffe zu konstruieren. Miguel Alcubierre schlug vor, dass es mithilfe noch nicht entdeckter, exotischer Materie möglich seien könnte, den Warpantrieb aus Star Trek zu realisieren, der den Raum hinter dem Schiff expandiert und vor ihm komprimiert. Andere Forscher stellten Überlegungen zu Wurmlöchern an - Raumzeitbrücken, die weit entfernte Punkte des Kosmos verbinden und dadurch einen raschen Pendelverkehr zwischen den Sternen ermöglichen könnten, ohne das es überhaupt nötig sei, die Lichtgeschwindigkeit zu übertreffen.

All diese Überlegungen waren jedoch völlig spekulativ, und wurden von anderen Wissenschaftlern oft als Hirngespinste abgetan.

Nun scheint sich aber Ende vergangener Woche etwas getan zu haben...

Ursprünglich hatte das Gemeinschaftsprojekt OPERA vom schweizer Forschungszentrum CERN und dem italienischen Gran-Sasso-Labor etwas ganz anderes untersuchen sollen. Bei CERN erzeugte Neutrinos sollten von einem Detektor in den Abruzzen aufgefangen werden, um Neutrinooszillationen nachzuweisen - die Fähigkeit der drei Neutrinosorten, sich ineinander umzuwandeln. Die große Überraschung war jedoch, dass die Neutrinos um einen kleinen Sekundenbruchteil zu früh in Italien ankamen! Sie mußten, den Meßergebnissen zufolge, schneller als das Licht quer durch die Alpen gelaufen sein!

Aber was sind Neutrinos überhaupt...?

Als man in der ersten Hälfte des 20. Jahrhunderts Kernreaktionen untersuchte, fiel auf, dass bei einer bestimmten Zerfallsart, dem Betazerfall, scheinbar Energie, Impuls, und Drehimpuls verlorengingen. Das schien sehr seltsam, weil diese drei Größen in der gesamten bekannten makroskopischen Physik stets erhalten bleiben. Nach dem sog. Noether-Theorem sind sie sogar mit wichtigen Symmetrieeigenschaften des Universums verknüpft: Energieerhaltung mit der Zeitsymmetrie (Naturgesetze ändern sich nicht im Lauf der Zeit), Impulserhaltung mit der Raumsymmetrie (sie sind überall gleich) und Drehimpulserhaltung mit der Rotationssymmetrie (sie hängen nicht davon ab, wie ein Bezugssystem relativ zum Beobachter orientiert ist). Sollten diese Sätze in der submikroskopischen Physik nicht mehr gelten? Das schien absurd. Schließlich ändert ein Atomkern sein Verhalten nicht in Abhängigkeit davon, ob man ihn von links oder rechts betrachtet. Wolfgang Pauli schloß daher 1930, dass beim Betazerfall ein neues Teilchen im Spiel sein müsse, das überschüssige Energie, Impuls und Drehimpuls davontrüge. Da es nich nicht beobachtet worden war, müsse es sich um ein sehr schwach wechselwirkendes Teilchen handeln, das überdies elektrisch neutral sein müsse, da die Ladungsbilanz beim Betazerfall bisher aufging:

p -> n + e+ + ?

Bei dieser Zerfallsart wandelt sich ein Proton in ein Neutron, ein Positron (das positive Antimaterie-Gegenstück zum Elektron) und... etwas ("?") um. Die andere Zerfallsart bewirkt:

n -> p + e- + ??

Ein Neutron zerfällt also zum Proton, einem Elektron und einem weiteren Teilchen ("??"). 1933 gab Enrico Fermi den hypothetischen neuen Teilchen die Namen "Neutrino" (ital. für "kleines neutrales") und "Antineutrino". "?" wurde Neutrino genannt und "??" Antineutrino - das war keine x-beliebige Vereinbarung sondern beruhte darauf, dass bei Kernreaktionen die Leptonenzahl immer erhalten bleibt. Leptonen - leichte Teilchen - sind Elektronen, Neutrinos und etwas schwerere Geschwister des Elektrons, das Myon und Tau, sowie die jeweiligen Antiteilchen. Die Teilchen haben positive, die Aniteilchen negative Leptonenzahlen. Da auf der linken Seite der Reaktionen kein Lepton vorhanden ist, muss sich die Leptonenzahl nach der Reaktion wieder zu Null addieren. Zum Positron (Leptonenzahl -1) kommt also ein Neutrino (Leptonenzahl +1) und zum Elektron (Leptonenzahl +1) ein Antineutrino (Leptonenzahl -1).

Die Vorhersage der Neutrinos erschien sehr vernünftig, um den Erhaltungssätze Genüge zu tun. Sie experimentell nachzuweisen war jedoch etwas ganz anderes! Schließlich sind sie so reaktionsscheu, dass eine 100 Lichtjahre dicke Bleiwand sie nur mit 50-prozentiger Wahrscheinlichkeit aufzuhalten vermag. Man musste sich etwas pfiffiges einfallen lassen...

1956 hatten Clyde Cowan und Frederick Reines die zündende Idee. Sie stellten einen großen Wassertank unterirdisch auf, um ihn vor kosmisches Strahlung zu schützen. Als Antineutrinoquelle diente ein Kernreaktor. Zusätzlich wurde etwas Cadmiumchlorid im Wasser gelöst. Dadurch ließen sich die Antineutrinos indirekt beobachten. Traf nämlich ein Antineutrino auf ein Proton im Wasser, so lief mit sehr geringer Wahrscheinlichkeit folgende Reaktion ab:

Antineutrino + p -> n + e+

Es handelt sich dabei um einen "umgekehrten" Betazerfall: Das Proton fängt das Antineutrino ein, und zerfällt dadurch zu einem Neutron und einem Positron. Das Positron zerstrahlt zu zwei Gammaphotonen, sobald es auf ein Elektron trifft (Materie/Antimaterie-Anihilation). Das Neutron reagiert weiter mit den Cadmiumkernen des Cadmiumchlorids:

n + 108Cd -> 109Cd* -> 109Cd + Gamma

Es entsteht zuerst ein angeregter Kern 109Cd*, der sich unter Gammastrahlungsaussendung zu "normalem" 109Cd abregt. Wenn nun zuerst zwei Gammastrahlen, und wenig später (5 Mikrosekunden) ein zweiter gemessen werden würden, würde dies auf Antineutrinos hindeuten. Genau dies kam aber bei dem Versuch heraus.

Um zusätzliche Sicherheit zu erlangen, schalteten Cowan und Reines den Reaktor ab - und schon blieben die Meßergebnisse aus. Sie hatten also wirklich künstlich erzeugte Antineutrinos gemessen.



Der Neutrinodetektor von Cowan und Reines


Auf den Nobelpreis mußte Reines allerdings fast 40 Jahre warten. Cowan starb schon 1974 und erhielt ihn nicht mehr, Reines wurde 1995 von den Schweden geehrt.

Ebenso wie das Elektron zwei (kurzlebige) massereichere Geschwister hat, das Myon und das Tau, wurden drei verschiedene Neutrinoarten entdeckt: Zu den beim Betazerfall entstehenden Elektronneutrinos kamen später noch das Myon-Neutrino und das Tau-Neutrino hinzu.

Besonders viele Neutrinos entstehen bei den Fusionsreaktionen im Inneren der Sonne. Jede Sekunde prasseln davon mehrere zehn Milliarden auf jeden Quadratzentimeter unserer Haut! Wegen des geringen Wirkungsquerschnitts merken wir davon jedoch nichts. Ende der 1960er bauten die Astrophysiker Raymond Davis und John Bahcall in der Homestake-Goldmine in South Dakota das erste Experiment zur Messung der Sonnenneutrinos auf. In einer Tiefe 1478 Metern (notwendig, um andere störende Strahlungsarten abzuschirmen) füllten sie einen Tank mit 380 Kubikmetern Perchloroethylen (ein Reinigungsmittel). Reagiert ein Chlorkern mit einem Neutrino, verwandelt er sich in Argon. Dieses Edelgas konnte mit Helium ausgespült und gemessen werden. Dabei machten Davis und Bahcall jedoch eine seltsame Entdeckung: Nur ein Drittel der erwarteten Neutrinos aus dem Sonnenkern kam an. Was stimmte hier nicht? War etwa das Sonnenmodell falsch? Das schien sehr unwahrscheinlich. Die Theorie der solaren Kernfusion hatte sich bewährt. Sie erklärte nicht nur viele Beobachtungsgrößen der Sonne, sondern auch die Entwicklung aller anderen Sterne im Kosmos und sagte deren Größen, Temperaturen und Leuchtstärken richtig vorher. Außerdem erlaubte die Helioseismologie (Messung von Schwingungen in der Sonne) Druck und Temperatur im Sonnenkern recht genau zu bestimmen, und diese stimmten mit den theoretischen Vorhersagen überein. Nach Occams Rasiermesser mußte man also annehmen, dass das Problem nicht bei der Sonne, sondern bei den Neutrinos lag (diese Hypothese erforderte die wenigsten Zusatzannahmen). 1968 schlug Bruno Pontecorvo vor, dass die Neutrinos nicht, wie bis dahin angenommen, masselos seien, sondern eine sehr geringe Ruhemasse hätten, und die verschiedenen Typen (Elektron-, Myon- und Tau-Neutrinos) sich daher ineinander umwandeln könnten. Da das Homestake-Experiment nur auf Elektronneutrinos ansprach, wurden die, die sich auf dem Weg von der Sonne zur Erde in andere Formen umgewandelt hatten, einfach nicht gemessen. Es sollte sich herausstellen, dass dies zutraf.

1998 fand das Super-Kamiokande-Experiment in Japan erste Hinweise auf Neutrinooszillationen (Umwandlungen von einem Typ in einen anderen). Der Versuchsaufbau besteht aus einem riesigen unterirdischen Tank, der 50000 Tonnen hochreines Wasser enthält. Trifft ein Neutrino auf ein Elektron in einem Wassermolekül, wird dieses fortgestoßen, und zwar mit einer Geschwindigkeit, die über der Geschwindigkeit des Lichts im Medium Wasser liegt. Dabei erzeugt das Elektron eine Art elektromagnetischen Überschallknall - die Cerenkov-Strahlung, die mit Photomultipliern in der Tankwand gemessen werden kann. Dadurch lassen sich, im Gegensatz zu früheren Neutrinoexperimenten, auch Energie und Einfallsrichtung des Neutrinos feststellen. Der Super-Kamiokande kann so Elektron- und Myon-Neutrinos feststellen, aber keine Tau-Neutrinos.


Das Innere des Super-Kamiokande.
Man erkennt Tausende von Photomultipliern an den Wänden.
Zwei Techniker sind mit einem Boot auf der Wasseroberfläche unterwegs.


Bei Messungen von Myon-Neutrinos, die durch kosmische Strahlung in der Erdatmosphäre entstanden waren, maß man nun mehr Neutrinos, die von oben einfielen als von unten. Das deutete darauf hin, daß die Myon-Neutrinos beim Weg durch die Erde (deren Anwesenheit sie mangels Reaktionsfreudigkeit kaum wahrnehmen), sich in Tau-Neutrinos umgewandelt hatten!

2001 lieferte das Sudbury Neutrino Observatory in Kanada weitere Belege für Neutrinooszillationen. Der Versuchsaufbau besteht aus einem Gefäß, das 1000 Tonnen hochreines schweres Wasser (mit Deuterium statt Wasserstoff) enthält. Hiermit lassen sich alle drei Neutrinoarten detektieren, da außer den Neutrino-Elektron-Stößen hier noch zwei weitere Effekte am Werk sind: Zum einen können Elektron-Neutrinos ein Neutron in einem Deuteriumkern in ein Proton umwandeln und dabei ein Elektron freisetzen, das sich durch die Cerenkov-Strahlung bemerkbar macht. Zum anderen können alle drei Neutrinoarten einen Deuteriumkern in ein Proton und ein Neutron spalten. Das Neutron reagiert mit anderen Kernen und setzt dabei Gammastrahlung frei, die messbar ist.


Das Sudbury Neutrino Observatory.
Das schwere Wasser ist in einer großen Kugel untergebracht.


Das Sudbury Observatory stellte nun fest, das von der Sonne insgesamt soviele Neutrinos kamen, wie von der Fusionstheorie vorhergesagt. Von diesen waren 35% Elektron-Neutrinos, die anderen Myon- und Tau-Neutrinos.

Dass Neutrinos eine geringe Masse haben (im Bereich weniger eV oder darunter) ist auch für die Kosmologie bedeutsam, da sie dies zu einem Kandidaten für die seit langem gesuchte Dunkle Materie werden lässt, die Galaxien und Galaxienhaufen durchdringt und sich nur durch die Gravitation bemerkbar macht.

Um das Oszillationsphänomen weiter zu untersuchen, wurde 2008 der OPERA (Oscillation Project with Emulsion-tRacking Apparatus)-Detektor am Laboratori Nazionali del Gran Sasso fertiggestellt. Dieser sollte mithilfe von Stapeln aus fotografischen Filmen und Bleiplatten die Tau-Teilchen feststellen, die durch Wechselwirkungen von Tau-Neutrinos entstehen, die im 734 km entfernten Forschungszentrum CERN erzeugt werden.

Die Sensationsmeldung vom vergangenen Freitag hatte jedoch nichts mit Oszillationen der Neutrinos zu tun. Was die Gemüter erregte, war die Nachricht, dass die Neutrinos um einen Faktor von ca. 2.5 * 10^-5 früher eintrafen als ein Photon es getan hätte, sie sich also anscheinend überlichtschnell ausbreiten.

Nicht gerade überraschenderweise sind viele Physiker extrem skeptisch. Insbesondere hätte ein solcher Geschwindigkeitsunterschied bei der Messung der Neutrinos, die von der Supernova 1987A in der Großen Magellanschen Wolke ausgingen, auffallen müssen: Sie hätten vor dem elektromagnetischen Aufflammen der Explosion eintreffen müssen. Dies wurde jedoch nicht beobachtet.

Manche vermuten nun, dass die Neutrinos eine gewisse Schwellenenergie brauchen, um überlichtschnell zu werden. Die Neutrinos aus CERN sind energiereicher als die Supernovaneutrinos. Möglicherweise ermöglicht die höhere Energie den Teilchen, durch zusätzliche Dimensionen zu schlüpfen und so das Licht zu überholen.

Weshalb sind die Forscher eigentlich so skeptisch? Hat nicht schon Einstein über die Existenz überlichtschneller Tachyonen nachgedacht? Der Knackpunkt ist, dass Überlicht-Reisen es ermöglichen würden, Zeitreisen in die Vergangenheit durchzuführen, was der Kausalität widersprechen und Paradoxa hervorrufen würde.

Eine einfache relativistische Rechnung zeigt, was das Problem ist:

Jemand sende ein Signal aus, das die Strecke x in der Zeit t zurücklegt. Die Signalgeschwindigkeit ist dann:

v_Signal = x/t

Nun bewege sich ein Beobachter mit der Geschwindigkeit v_B relativ zu Sender und Empfänger. Die Laufzeit t' in seinem Bezugssystem berechnet sich nach der relativistischen Lorentz-Transformation zu:

t' = (t - x*v_B/c^2) / SQRT(1 - v_B^2/c^2).

Hier ist c die Lichtgeschwindigkeit und SQRT steht für die Quadratwurzel. Man sieht übrigens, dass für kleine v_B gilt t'=t, so dass bei geringen Geschindigkeit keine Zeitveränderung stattfindet, die Relativitätstheorie also nicht berücksichtigt werden muß, wie wir es aus alltäglichen Situationen kennen.

Man kann nun zeigen, dass für v_Signal>c der Wert von t' negativ werden kann, die Wirkung aus Sicht des Beobachters also vor der Ursache liegt! Dazu muss nämlich gelten:

t' < 0

bzw.

t < x*v_B / c^2

woraus folgt:

t / x = 1 / v_Signal < v_B / c^2

oder umgeformt:

v_B > c * (c/v_Signal).

Da nach Annahme v_Signal>c ist, erhält man auf der rechten Seite einen Geschwindigkeitswert < c. Hat der Beobachter eine Geschwindigkeit, die zwischen diesem Wert und c liegt, dann ist die Ungleichung erfüllt, und t' wird negativ. Er würde das Eintreffen des Signals vor dem Aussenden wahrnehmen! Die Kausalität wäre auf den Kopf gestellt. Daher erscheint den meisten Physikern die Existenz überlichtschneller Teilchen extrem unwahrscheinlich.

Wie es weitergehen wird?

Natürlich müssen weiterführende Experimente angestellt werden, die dem Phänomen auf den Grund gehen. Beim Fermilab in den USA sind solche bereits angedacht. Und dann gibt es zwei - beziehungsweise drei Möglichkeiten:


1.) Der "Fall Pioneer"

Ähnlich wie die Pioneer-Anomalie erweist sich das Resultat als klassischer Effekt. Jahrelang rätselten Physiker, wieso die Pioneer-Raumsonde scheinbar von der Sonne etwas stärker angezogen wird, als die Gravitationstheorien von Newton und Einstein es vorhersagen. Man witterte neue Physik. Doch dann stellte sich heraus, dass der Effekt von ungleichmäßiger Wärmeabstrahlung von der Oberfläche der Sonde herrührt. Auf die Neutrinos übertragen würde das bedeuten, dass sie nicht überlichtschnell sind, sondern bloß ein bekannter physikalischer Effekt nicht richtig berücksichtigt wurde, was das Ergebnis vortäuschte.


2.) Der "Fall Kalte Fusion"

Ein simpler Messfehler. Im Jahr 1989 kündigten die Chemiker Pons und Fleischmann an, es sei ihnen gelungen, Kernfusionsreaktionen auszulösen, ohne dass hohe Temperaturen involviert seien. Heute ist man sich beinahe komplett sicher, dass es sich um einen Meßfehler handelte. Vielleicht ergeht es den Überlicht-Neutrinos ähnlich.


3.) Der "Fall Eureka"

Das Ergebnis ist authentisch! Neutrinos sind wirklich unter bestimmten Bedingungen überlichtschnell. Die Physik wird auf den Kopf gestellt, und viele neue Theorien und Experimente sind nötig: Sind Zeitreisen eine reale Möglichkeit? Kann in unserem Universum die Kausalität verletzt werden? Existieren die von einigen Theorien vorhergesagten höheren Dimensionen? Usw...


Es bleibt also spannend. Man wird abwarten müssen...


Weblinks

Das Originalpaper zum Experiment

Homepage des Gran-Sasso-Labors

Tachyonen in David Darlings Enzyklopädie

Reaktionen verschiedener Physiker auf das Ergebnis bei Scientific American

Donnerstag, 1. September 2011

Ein Diamant, trilliardenmal so groß wie das Ritz!

So schön sie anzusehen sind - Diamanten sind nichts als vulgärer Kohlenstoff. Allerdings sind die Kohlenstoffatome in ihnen auf besondere Art angeordnet! Im Gegensatz zu Graphit, in dem die Atome zu flächigen Strukturen verbunden sind, bilden sie in Diamant eine dreidimensionale Kristallstruktur. Jedes Atom ist mit vier weiteren kovalent verbunden, so dass diese ein Tetraeder bilden - eine regelmäßige, vierflächige Pyramide mit gleichseitigen Dreiecken als Seitenflächen. Einen solchen Kristall kann man sich als Kombination zweier kubisch-flächenzentrierter Gitter (Würfelstruktur mit Atomen an den Ecken und in der Mitte jeder Seitenfläche) denken, die gegeneinander versetzt sind. Es existieren auch seltenere, meist nur künstlich erzeugbare Kohlenstoffformen, wie der amorphe Kohlenstoff, in dem die Atome unregelmäßig angeordnet sind, das Fulleren, in dem sie fußballartige Polyeder bilden, oder die Kohlenstoff-Nanoröhren.

Gewöhnliche Kohle oder Ruß besteht aus vielen kleinen, zufällig zusammengelagerten Graphitpartikeln.




Die Kristallstruktur des Diamanten.
Obwohl es sich um identische Kohlenstoffatome handelt,
sind einige grün gefärbt, damit man besser sehen kann,
wie sie mit den Nachbaratomen tetraedrisch verbunden sind.


Diamanten entstehen aus normalem Kohlenstoff, wenn hohe Drücke auf diesen einwirken, zum Beispiel im Erdmantel bei einer Tiefe von ca. 150 km, oder bei Meteoriteneinschlägen. Dabei bilden sich aus Kohlenstoffvorkommen in Gesteinen kleinere Diamanten, die durch vulkanische Prozesse an die Erdoberfläche gebracht werden. Kohlenstoff ist nur ein Spurenelement im Erdmantel, der vorwiegend aus Silizium und Metallen besteht. Es existieren aber Himmelskörper, die fast ausschließlich aus Kohlenstoff zusammengesetzt sind.

Wie wir in einem früheren Artikel besprochen haben, erzeugen Sterne ihre Energie, indem sie Atomkerne bei hohen Drücken und Temperaturen in ihrem Inneren miteinander verschmelzen. Zunächst, während der längsten Zeit ihres Lebens, verbrennen sie Wasserstoff zu Helium. Irgendwann hat sich im Sternenkern jedoch soviel Helium angereichert, dass die Fusion nicht mehr effizient ablaufen kann und erlischt. Der Kern schrumpft dann, bis er so stark zusammengepresst ist, wie es nach den Gesetzen der Quantenmechanik maximal geht: Man sagt, er ist "entartet". Dichte und Temperatur wachsen so lange, bis außen um den Kern herum die Wasserstofffusion in einer Schalenbrennzone zündet. Diese bläht durch die freigesetzte Energie den Rest des Sterns zu einem kühlen, roten Riesen auf. Sein Radius vertausendfacht sich dabei. Diese Phase währt jedoch nicht lange. Aus der Schalenbrennzone regnet Helium auf den entarteten Kern herab, bis dieser heiß und dicht genug geworden ist, dass die nächste Brennphase beginnen kann: Die Fusion von Helium zu Kohlenstoff. Eine Zeitlang verbrennt der Stern nun Helium im Kern und Wasserstoff in einer Schale außen herum. Er schrumpft dabei wieder leicht und wird heißer. Schließlich kommt auch das Heliumbrennen im Kern zum erliegen. Er besteht nun vorwiegend aus Kohlenstoff (und etwas Sauerstoff) und zieht sich wieder zu entarteter Materie zusammen, und um ihn herum zünden zwei Brennschalen übereinander: Innen eine Helium-Brennschale, außen eine Wasserstoff-Brennschale. Diese setzen soviel Energie frei, dass der Stern sich noch stärker aufbläht als während der Rote-Riesen-Phase. Die Sonne wird gegen Ende ihrer Existenz beinahe die Erdbahn berühren! Kleine und mittelschwere Sterne wie unsere Sonne beginnen nun ihre äußeren Schichten langsam abzuwerfen. Ein schöner planetarischer Nebel entsteht. Da durch Konvektion auch Kohlenstoff aus dem Kern heraufgeholt wurde, wird eine gewaltige Menge feiner Rußpartikel freigesetzt. Das hört sich nicht sehr gesund an, ist jedoch ein unabdingbarer Prozess für die Entstehung von Leben wie wir es kennen, da das biologische Grundelement Kohlenstoff dadurch zurück ins All gelangt.

Im Zentrum bleibt der kleine entartete Kohlenstoffkern übrig, den man Weißer Zwerg nennt. Dieser ist zwar aufgrund seiner gespeicherten Wärme noch sehr heiß, er produziert jedoch keine Energie mehr nach, da die Fusion in ihm endgültig erloschen ist. Er kühlt ganz langsam, im Laufe von Jahrmilliarden, aus, bis er zuguterletzt zum unsichtbaren Schwarzen Zwerg geworden ist. Da der Abkühlungsprozess extrem langsam verläuft, haben sich bisher im Universum noch keine Schwarzen Zwerge gebildet.

Obwohl Weiße Zwerge Massen ähnlich der der Sonne haben, sind sie, aufgrund ihrer extremen Dichte, die mehrere Tonnen pro Kubikzentimeter erreichen kann, nicht größer als die Erde. Massereichere Weiße Zwerge sind überraschenderweise kleiner als massearme, da der Schweredruck sie stärker zusammenpresst.

Sternen mit größerer Masse ist ein dramatischeres Schicksal vorbehalten. In ihnen bilden sich noch weitere Brennschalen aus, die sukzessive immer schwerere Elemente erbrüten, bis hin zum Eisen. Dort angekommen, kann keine weitere Fusion unter Energiegewinn mehr ablaufen. Der Stern wird von einer Supernova zerrissen, bei der explosionsartig auch schwerere Elemente über das Eisen hinaus entstehen und ins All fortgeschleudert werden. Der Kern stürzt unter seiner eigenen Gravitation in sich zusammen, wobei er sich in ein sehr merkwürdiges Objekt verwandelt: Entweder in einen Neutronenstern - eine rund 30 km große Kugel aus Neutronen - oder, bei noch massiveren Sternen, in ein Schwarzes Loch.

Je größer die Sternmasse ist, desto kurzlebiger ist der Stern: Bei sonnenähnlichen Sternen dauert die Entwicklung bis zum Weißen Zwerg rund zehn Milliarden Jahre, bei massereichen verstreichen nur einige zehn Millionen bis zur Supernovaexplosion. Sehr kleine Sterne mit nur ca. 0.1 Sonnenmasse verbrennen einige Billionen Jahre lang ganz allmählich den Wasserstoff in ihren Kernen, bis sie unspektakulär verlöschen.



Lebenslauf eines durchschnittlichen und eines massereichen Sterns (vereinfacht).


Ein weißer Zwerg besteht nun vorwiegend aus Kohlenstoff - und wegen seiner hohen Dichte lastet auf diesem ein enormer Schweredruck. Was passiert wenn Kohlenstoff enormen Drücken ausgesetzt ist? Genau, er kristallisiert in eine diamantartige Form! In den 1960ern wurde zum ersten Mal vermutet, dass Weiße Zwerge riesige Diamanten sein könnten. Doch wie ließe sich das nachprüfen? Sterne vibrieren innerlich, was sich durch Helligkeitsänderungen und Verschiebungen der Linien in ihren Spektren bemerkbar macht. Untersuchung der Schwingungen lässt indirekte Schlüsse auf die physikalischen Bedingungen in ihrem Inneren zu, ähnlich wie Seismologen aus tektonischen Erschütterungen auf die Struktur des Erdinneren schließen können. Daher nennt man die Untersuchung von Sternschwingungen auch Astroseismologie.

Im Jahr 2004 schlossen Antonio Kanaan und sein Team aus astroseismologischen Daten, dass der 50 Lichtjahre entfernte Weiße Zwerg BPM 37093 im Sternbild Zentaur zu rund 90% innerlich kristallisiert ist - ein Diamant von 1.1 Sonnenmassen! Das lässt den wertvollsten Diamanten auf der Erde, den Cullinan-Diamanten (3106.75 Karat ~ 621.35 g), im Vergleich äußerst mickrig erscheinen.


Kleinkram...


Kristallisierte Weiße Zwerge weisen allerdings nicht die kubisch-flächenzentrierte Kristallstruktur von irdischen Diamanten auf, sondern eine kubisch-raumzentrierte: Je ein Atomkern sitzt im Zentrum eines gedachten Würfels, dessen Ecken von je einem weiteren Kern gebildet werden. Zwischen den Kernen befindet sich eine Flüssigkeit aus entarteten Elektronen, deren Eigenschaften denen von Leitungselektronen in Metallen ähneln.


Kubisch-raumzentrierter Kristall


Ein noch merkwürdigeres Objekt ist PSR J1719-1438 b, das erst kürzlich, am 25.8.2011 entdeckt wurde. Es befindet sich in rund 4000 Lichtjahren Entfernung im Sternbild Schlange. Es handelt sich um eine Art Hybrid-Himmelskörper - ursprünglich Weißer Zwerg, inzwischen jedoch umgewandelt in einen Planeten! Wie das Kürzel "PSR" (Pulsating Source of Radio) sagt, umkreist er einen Neutronenstern: Diese wirken nämlich wie Radio-Leuchttürme. Von begrenzten Regionen auf ihrer Oberfläche senden sie intensive Radiostrahlenbündel aus, die durch die schnelle Rotation des Neutronensterns (das Zusammenschrumpfen auf winzige Größe beschleunigt die Rotation der ehemaligen Sternenkerne, ähnlich wie eine Eiskunstläuferin, die die Arme anzieht) rundum durch den Raum schwenken. Überstreicht das Radiobündel dabei die Erde, lassen sich periodische Signale empfangen. Neutronensterne, die sich so beobachten lassen, nennt man daher auch Pulsare.



Skizze eines Pulsars.
Die Radiowellen werden von den Magnetpolen ausgesandt.
Durch die Eigenrotation des Pulsars entsteht der Leuchtturmeffekt.


Manche Pulsare rotieren sogar besonders schnell: nach ihrer typischen Rotationsperiode bezeichnet man sie als Millisekundenpulsare. Zu diesen gehört auch PSR J1719-1438. Die rasche Rotation deutet darauf hin, dass der Pulsar nach der Supernova des Ursprungssterns noch durch äußere Einflüsse beschleunigt wurde. Was könnte das sein? Eine zweite Beobachtung liefert die Antwort. PSR J1719-1438 zeigt leichte Frequenzvariationen in seinen Radiopulsen. Das kann nur daran liegen, dass ein kleinerer Begleiter um ihn herumläuft und ihn periodisch um den gemeinsamen Schwerpunkt herumschleudert. Der Dopplereffekt erzeugt die Frequenzänderungen - zieht der Begleiter den Pulsar von uns weg, sinkt die Frequenz, zieht er ihn auf uns zu, steigt sie.

Der Begleiter muß also den Pulsar früher einmal "angestoßen" haben, um ihn auf die hohe Eigenrotationsfrequenz zu beschleunigen. Es muß Masse von ihm zum Pulsar geströmt sein. Bei dem Begleiter handelte es sich früher um einen normalen Stern, der jedoch masseärmer war als der Vorläuferstern des Pulsars, so dass es dessen explosives Ende überlebte. Irgendwann blähte sich der masseärmere Stern zum Roten Riesen auf. Die Gase von Roten Riesen sind aber nicht sehr stark gravitativ gebunden, zum einen aufgrund des großen Radius' des Sterns - je weiter Materie vom Schwerpunkt entfernt ist, desto schwächer ist die auf sie wirkende Schwerkraft - zum anderen durch den starken Strahlungsdruck. Die Gezeitenkräfte des Pulsars zogen den Roten Riesen auseinander, bis sich Gas von ihm löste und in einer Akkretionsscheibe auf den kleinen Neutronenstern herabstürzte. Das aufprallende Gas beschleunigte den Pulsar, bis er sich mit enormer Geschwindigkeit um sich selbst drehte.


Ein Roter Riese wird von den Gezeitenkräften eines Pulsars
zunächst in die Länge gedehnt. Dann beginnt Material hinüber-
zuströmen. Es bildet eine flache Akkretionsscheibe, in der es dem
Pulsar strudelartig immer näher kommt, bis es auf ihn stürzt.


Fast die gesamte Masse des Sterns wurde vom Pulsar fortgerissen, nur ein vergleichsweise winziger Rest aus Kohlenstoff blieb übrig, der mangels Masse und Fusionsreaktionen nicht mehr als Stern sondern als Planet eingestuft wird. Er hat etwa die Größe des Jupiter, ist aber rund 20 mal dichter. Er dürfte also aus kristallisiertem Kohlenstoff - diamantartigem Material - bestehen. Seine Umlaufbahn verläuft ganz nahe am Pulsar: Ihr Radius ist geringer als der unserer Sonne, und er durchläuft sie in nur 2.17 Stunden!



Eine Zeichnung von PSR J1719-1438.
Der zum Planeten gewordene Weiße Zwerg (die "b"-Komponente)
würde ihn, wenn man die Maßstäbe unseres Sonnensystems anlegt,
innerhalb der Sonne (gelb angedeutet) umlaufen.
Die weißblaue Schlangenlinie stellt die Radioemission des Pulsars dar.


Es gibt Hinweise darauf, dass es auch "normale" Planeten gibt, die ungewöhnlich kohlenstoffreich sind. Der Gasriese WASP-12b weist einen ungewöhnlich hohen Kohlenstoffgehalt in seiner Atmosphäre auf. Falls es in diesem System auch kleinere, erdartige Planeten gibt, so könnten diese aus Kohlenstofffels bestehen: Graphit oder Diamant. Ohne Zweifel würde es dort sehr schöne, aber auch fremdartige Landschaften geben.



Ein fiktiver Diamantplanet aus der TV-Serie "Dr. Who".


Trotz alledem braucht die De Beer-Group nicht zu fürchten, dass der Diamantpreis demnächst ins Bodenlose fällt. Die riesigen kosmischen Diamanten sind weit draußen im All fürs erste sicherer untergebracht als in jedem Tresor...


Weblink:

Das Originalpaper zu PSR J1719-1438b von Bailes et al. (pdf-Format)