Freitag, 4. November 2011

Was du schon immer über Kernenergie wissen wolltest und nie zu fragen wagtest - Teil 2

Olga Kardaschowa - Design by Thekla Löhr

"Es ist ziemlich laut hier drinnen", sagst du. "Lass uns ein wenig an die frische Luft gehen."

Das macht ihr. Der Nachtwind kühlt eure vom Lärm und Gedränge der h-Bar erhitzten Gesichter. Es ist kurz nach 5 Uhr morgens. Ein schmaler, abnehmender Mond ist über der gegenüberliegenden Häuserzeile aufgegangen.

"Sieht so aus, als ob er uns bittet, zurückzukommen. Als ob er Sehnsucht nach den Menschen hat", sagt Olga.

"Damit die Menschheit gemeinsam ins All aufbrechen kann, werden starke Energieflüsse nötig sein. Gut, dass die meisten Länder nicht so hysterisch auf die Vorsilbe 'Kern-' reagieren wie die Deutschen."

"Bei der Kernenergetik handelt es sich um eine komplexe, faszinierende Hochtechnologie, die es uns ermöglicht, die Tiefenstruktur der Materie jenseits der Nanowelt nutzbar zu machen. Das menschliche Gehirn ist unglaublich leistungsfähig, und hat die Fähigkeit hervorgebracht, kleinste Teilchen und höchste Energiedichten zu beherrschen. Unsere Kernkraftwerke der zweiten und dritten Generation sind schon sehr sicher, aber wie man in Fukushima gesehen hat, können sehr schwere äußere Einwirkungen auch bei ihnen zum Schmelzen des Reaktorkerns führen. Aber Wissenschaftler haben dieses Problem bereits in Angriff genommen. Auf den Zeichenbrettern, in Computersimulationen und teilweise schon als Versuchsanlagen entsteht die nächste Generationen von Kernreaktoren (III+ und IV), die prinzipiell nicht kernschmelzefähig sind - weil die dahintersteckende Physik das ausschließt."

Du. Wie sehen diese neuartigen Reaktoren aus?

Olga. Da gibt es viele unterschiedliche Entwürfe. Zu den bekannteren gehört der Hochtemperaturreaktor (HTR), der unter anderem in Deutschland in Form des Kugelhaufenreaktors getestet wurde. Anders als in den meisten Kernreaktoren liegt der Brennstoff hier nicht in Form von stabförmigen Elementen, sondern, wie der Name sagt, in Form kleiner Kugeln (etwa so groß wie Tennisbälle) vor. Sie bestehen aus Uranpartikeln und Graphit als Moderator. Bei dem Versuchsreaktor in Deutschland kam eine größere Menge Thorium 232 hinzu, die durch Neutroneneinfang ins spaltbares U233 transmutiert wurde. Außen herum um den Reaktor befindet sich zusätzlich ein Reflektor aus Graphit, der entweichende Neutronen zurückwirft und dadurch auch bei geringer Spaltstoffdichte Kritikalität erlaubt. Das Besondere ist, dass die Kugeln dauernd durch den Reaktor wandern: Oben werden sie laufend eingeworfen und unten wieder entnommen, jede wandert mehrere Male hindurch. Die Steuerung erfolgt wie bei herkömmlichen Reaktoren teils mit Steuerstäben, die von oben und seitlich eingeschoben werden, teils mit abbrennenden Neutronengiften in Absorberkugeln, die unter die Brennstoffkugeln gemischt werden.

Du. Warum ist der Hochtemperaturreaktor so sicher?

Olga. Das liegt letztlich an seiner vergleichsweise geringen Energiedichte. Weil der Spaltstoff über ein größeres Volumen verteilt ist, reagiert der Reaktor besonders träge auf irgendwelche Änderungen der Betriebsbedingungen. Außerdem kann das Kühlmittel - es handelt sich um Helium - keinen weiteren Phasenübergang durchlaufen, da es ja bereits gasförmig ist. Man hat auch inzwischen Geometrien des Reaktors gefunden - eine ring- bzw. hohlzylinderförmige Anordnung - die auch beim kompletten Kühlsystemausfall keine Überhitzung des Kerns zulässt, weil bereits genug Wärme durch Wärmeleitung und -konvektion fortgetragen wird.

Du. Wie heiß ist eigentlich "Hochtemperatur"?

Olga. Beim Thorium-HTR ging das Helium mit 250 Grad Celsius in den Reaktor hinein und kam mit 750 Grad wieder heraus. Es wird aber durchaus über Betriebstemperaturen bis 900 oder 1000 Grad nachgedacht. Dies hätte den Vorteil, dass der Reaktor noch allerlei mehr kann außer Strom erzeugen: Zum Beispiel Meerwasser entsalzen, oder Wasserstoff herstellen, vielleicht als Treibstoff für zukünftige Flugzeuge. Übrigens kann man den HTR in Form kleinere Module mit geringerer Leistung von nur 100-200 MW konstruieren - das erlaubt einen dezentralen Energieversorgungsaufbau.

Du. Die Stromerzeugung funktioniert dann sicher wie bei anderen Reaktoren auch - Helium erhitzt Wasser, Wasser verdampft, Dampf treibt Turbine...?

Olga. Ja. Es gibt aber auch Pläne für Kraftwerke, in denen das heiße Helium direkt eine Turbine antreibt, was höhere Wirkungsgrade bis zu 40% erlaubt.

Du. Wird es demnächst viele HTR geben?

Olga. Das ist noch offen. Viele Länder zeigen zumindest Interesse daran. Japan und China haben Versuchsanlagen. Südafrika und Großbritannien konkrete Pläne, die Schweiz denkt gerade darüber nach.

Du. Und Deutschland bläst dreckigen Kohlequalm in den Himmel...

Olga. Lass uns nicht darüber nachdenken, wir wollen uns nicht die Laune verderben. Bleiben wir lieber bei sauberen Energiequellen.

Du. Naja, manche sagen ja, dass die Kernenergie nicht so sauber sei, da sie radioaktive Reststoffe produziert, die x Jahrtausende eingesperrt werden müssen.

Olga. Wie schon erwähnt muss das nicht so sein. Die Actinoide im Kernmüll, die die langfristige Radioaktivität verursachen, lassen sich durch Transmutation zerstören. Dies könnten moderne Brüter erledigen, zum Beispiel Flüssigsalzreaktoren.

Du. Flüssigsalz - das habe ich schon mal im Zusammenhang mit Sonnenwärmekraftwerken gehört, als Energiespeicher für die Nacht.

Olga. Ja, Flüssigsalze haben eine hohe Wärmekapazität. In Sonnenwärmekraftwerken dienen sie als Speicher, im Flüssigsalzreaktor aber gleichzeitig auch als Energiequelle. Hier wirkt der Brennstoff nämlich zugleich als Kühlmittel. Er strömt als Salzschmelze konstant durch den Reaktorkern, durchläuft dort die Kettenreaktion und verlässt den Kern wieder, um in einem Wärmetauscher Wasser zu erhitzen. Ein Forschungszentrum der Regierungsorganisation CNRS in Gernoble in Südfrankreich hat einen Schnellspektrum-Flüssigsalzreaktor entworfen, der als Thoriumbrüter arbeitet: Außen um das Reaktionsgefäß herum ist eine Brutdecke aus Thorium angeordnet, die durch Neutroneneinfang das fissile U233 bildet. Außer U233 kann der Reaktor aber auch Transurane aus verbrauchten Leichtwasserreaktor-Brennelementen als Spaltstoff nutzen. Sie werden dabei in kurzlebige Spaltprodukte umgewandelt, die nach wenigen Jahrhunderten gefahrlos handhabbar sind. Dabei entsteht dann in der Brutzone aus Thorium U233, das später als Brennstoff zum Einsatz kommen soll.

Du. Aha - also wird quasi in einem ersten Durchlauf der Kernmüll transmutiert, und als "Nebeneffekt" stellt man den Spaltstoff für den späteren Betrieb her, wenn die Transurane verbraucht sind?

Olga. Genau.

Du. Und wenn der Reaktor stoppen soll, genügt es, den U233-Flüssigsalz-Zustrom zur Reaktionskammer zu unterbrechen, wie bei einem Verbrennungsmotor?

Olga. Ja, ohne Spaltstoffzustrom steht die Anlage sofort. Ein Stromausfall legt den ganzen Prozess einfach still.

Du. Welche Ideen für moderne Kernkraftwerke gibt es noch?

Olga. Naja, man könnte sich einen Reaktor wünschen, der möglichst selbsttätig arbeitet, und kaum gewartet werden muss. Traditionelle Brüterentwürfe erfordern es, dass der erzeugte Spaltstoff aus dem Reaktor entnommen, aufbereitet und der Kettenreaktion wieder zugeführt wird.

Du. Es wäre praktischer, wenn er gleich im Reaktor bleiben könnte.

Olga. Das ist beim Laufwellenreaktor der Fall. Er arbeitet ein wenig wie eine abbrennende Zündschnur: Die Reaktion wandert, wie der Name sagt, wellenartig vom einen Ende eines Zylinders aus Brutstoff zum anderen. Dazu braucht sie mehrere Jahrzehnte, ohne das jemand steuernd eingreifen muss. Am einen Ende befindet sich ein Spaltstoffgemisch als "Zünder", ansonsten besteht der Zylinder aus fertilem Material - U238 oder auch aus einem Uran/Thorium-Gemisch. Die Neutronendiffusionsgleichung hat hier eine wellenartig wandernde Lösung: Die Kettenreaktion setzt im Zündbereich ein, die Neutronen beginnen das fertile, dahinter liegende Material in Spaltstoff umzuwandeln, dieser wird wiederum kritisch, erzeugt neue Neutronen die weiteren Spaltstoff erbrüten - so wandert die Reaktion ganz langsam durch den Reaktor. Gebaut hat so ein System noch niemand, aber viele Berechnungen deuten darauf hin, dass die Reaktion ohne menschliches Eingreifen jahrzehntelang selbsttätig stabil ablaufen kann. Die Firma TerraPower, in die u. a. Bill Gates investiert, möchte so einen Reaktor bis 2020 ans Netz bringen.

Du. Das hört sich alles sehr vielversprechend an. Viele, die ich kenne, würden es aber vorziehen, auf den Fusionsreaktor zu warten: Da es sehr schwierig ist, die Kernfusion überhaupt in Gang zu bekommen, geht ein Tokamak oder Stellarator sofort aus, wenn die Stromzufuhr zur Anlage unterbrochen wird. Die Reaktion muss durch Erzeugung des Einschlussfeldes von außen hervorgerufen werden und bricht bei Änderung der physikalischen Bedingungen augenblicklich zusammen. Dass ein Stromausfall die Reaktion automatisch anhält, trifft, wie du erzählt hast, zwar auch beim Flüssigsalzreaktor zu (kein Brennstoffzustrom - keine Kettenreaktion!) aber sehr viele fänden es sicher noch beruhigender, wenn die Reaktion ohne äußere Unterstützung gar nicht erst zustande käme, wie beim Fusionskraftwerk.

Olga. Die Fusion könnte in der Tat zur wichtigsten Energiequelle der Zukunft werden - es gibt jedoch Entwürfe für Spaltungsreaktoren, die genau die von dir beschriebene Eigenschaft auch haben: Ohne externe Unterstützung keine Reaktion! Und die könnten realisiert werden noch bevor die Fusionskraftwerke einsatzbereit sind.

Du. Wie kann ich mir das vorstellen? Ich dachte die Spaltung ist eine selbstunterstützende Kettenreaktion...?

Olga. Überleg mal, wie würdest du es anstellen, einen Spaltungsprozess zu designen, der ohne äußere Unterstützung zusammenbricht?

Du. Mal sehen... wir hatten den Neutronenvermehrungsfaktor k_eff... Er gibt an, um wieviel sich die Neutronenpopulation pro Generation ändert. Wenn er kleiner als 1 ist, bricht die Reaktion zusammen. Es sei denn... man stützt sie irgendwie von außen!

Olga. Guter Gedanke. Und wie würdest du sie extern unterstützen?

Du. Man muss Neutronen von außen hereinbringen... vielleicht indem man sie aus Kernen herausschlägt... indem man wiederum andere Teilchen darauf schießt?

Olga. Das ist auch was dem Nobelpreisträger Carlo Rubbia vorschwebt! Ein Beschleuniger schießt Protonen auf ein Schwermetalltarget, wodurch durch Spallation Neutronen entstehen. Diese treffen auf den subkritischen Reaktorkern, in dem aus Thorium 232 Uran 233 erbrütet wird, welches als Brennstoff dient.

Du. Alles klar! Und sobald der Beschleuniger ausgeht, kommt die Reaktion zum Erliegen, da der Reaktor ja unterkritisch ist... aber was ist mit der Nachzerfallswärme - die, die nach Ende der Reaktion durch die verbleibende Radioaktivität erzeugt wird?

Olga. Die kann unabhängig von der Stromzufuhr ganz selbständig abgeführt werden, durch reine Konvektion in einem Bleibad, in dem der Reaktor steht - so sieht zumindest der Entwurf von Rubbia aus! Übrigens entsteht bei dem ganzen Prozess kaum langlebiger Kernmüll.

Du. Und da, soweit ich weiß, Thorium viel häufiger ist als Uran hätte man Energie für... Jahrtausende?

Olga. Vermutlich sogar Jahrzehntausende. Höchstwahrscheinlich ist noch viel mehr Thorium in der Erdkruste als bisher bekannt, man hat mangels Interesse ja bislang kaum danach gesucht.

Du. Dann sollte man sofort mit den Forschungsarbeiten beginnen.

Olga. Das will ich meinen. Warum gehen wir nicht zu mir nachhause und nehmen bei einer Tasse Kaffee die Entwicklung des Energy Amplifiers in Angriff?

Du. Das klingt nach einem exzellenten Plan!


PS. Der Artikel ist übrigens ein "Work in Progress". Ich werde weitere Informationen und Details hinzufügen, sobald ich noch mehr über das Thema gelesen habe.

Mittwoch, 2. November 2011

Was du schon immer über Kernenergie wissen wolltest und nie zu fragen wagtest - Teil 1

Olga Kardaschowa
Zeichnung von Thekla Löhr

Du hast Olga Kardaschowa in der h-Bar getroffen, und nach einigen Drinks unterhaltet ihr euch bestens über die Kernenergie.

Ihr führt folgendes Gespräch:

Du. Wie kann man sich die Energiegewinnung durch Kernspaltung am einfachsten vorstellen?

Olga. Stell dir vor, eine Anzahl Leute ist in einer Turnhalle beisammen. Jeder hat zwei oder drei kleine Bälle bei sich. Die Spielregel gilt, dass, sobald jemand einen Ball abbekommt, er seine eigenen Bälle blindlings von sich wirft, sich dann hinsetzt und nichts mehr weiter tut.

Du. Okay. Was geschieht dann?

Olga. Naja, was würde geschehen sobald du einen einzigen Ball in die Turnhalle wirfst?

Du. Mal sehen... wenn der Ball jemanden trifft und die Leute dicht genug beisammen stehen, dann kommt eine Balllawine zustande: Der zuerst Getroffene wirft seine Bälle, die treffen einige Leute, die werfen ihrerseits mit ihren Bällen, treffen wieder neue, die wiederum werfen... und immer so weiter!

Olga. Ganz richtig. So und nicht anders arbeitet auch der Kernreaktor. Du brauchst dir nur noch vorzustellen - okay, das wäre real schwierig - dass jeder, der seine Bälle geworfen hat, in einige kleinere Personen zerplatzt. Wenn du dir dann anstatt Personen Uran- oder Plutoniumkerne denkst und statt Bällen Neutronen, dann hast du einen Kernreaktor.

Du. Das muß ich mal mit meinem Freundeskreis ausprobieren. Nun gut, wie du sagtest, das mit dem Zerplatzen hätte seine Schwierigkeiten, aber es ist eine hübsche Veranschaulichung. Aber wie genau bringt man in einem Reaktor die Kerne dazu, sich gegenseitig mit Neutronen zu bewerfen? Warum wird dabei Energie frei? Und wie steuert man das Ganze?

Olga. Du weißt ja sicher schon, dass mittelschwere Kerne, zum Beispiel Eisen, besonders stark gebunden sind, leichte und schwere dagegen weniger stark. Deshalb kann man leichte zu schwereren verschmelzen, um Energie freizusetzen, oder schwere in leichtere spalten, wodurch auch Energie frei wird. Den ersten Prozess möchte man in Fusionsreaktoren zur Energieerzeugung nutzen, das hat man jedoch noch nicht ausreichend perfektioniert, um die aufgewandte Energie überkompensieren zu können. Den zweiten Prozess, die Spaltung, den beherrscht man jedoch schon seit den 1940ern recht gut zur Energieerzeugung. Daher existiert jetzt schon die dritte Generation von Reaktoren, und es wird bald eine vierte geben. Aber lass uns zunächst mal die Spaltung im Detail anschauen. Manche Kerne haben die Eigenschaft, sich nach dem Einfangen eines Neutrons mit einer gewissen Wahrscheinlichkeit in mehrere (meistens zwei oder drei) kleinere Kerne zu spalten, und dabei einige neue Neutronen auszusenden - das sind die fissilen Kerne. Andere fangen das Neutron nur ein und wandeln sich dadurch erst in einen fissilen Kern um - solche Kerne nennt man fertil.

Du. Welche Kerne sind das?

Olga. Der am häufigsten genutzte fissile ist das Uran 235 (mit 143 Neutronen und 92 Protonen, also insgesamt 235 Kernteilchen). Es macht gerade mal 0.7 Prozent des natürlich vorkommenden Urans aus.

Du. Das ist ja keine sehr effiziente Nutzung des Rohstoffs...

Olga. Wie man's nimmt. Aufgrund der im Vergleich mit chemischen Brennstoffen Millionen mal höheren Energiedichte fällt die nötige Uranmenge recht zahm aus, obwohl nur 0.7 Prozent des Ausgangsstoffs nutzbar sind. Natürlich steigt die Effizienz noch um fast zwei Größenordnungen, wenn man das fertile Uran 238 (mit 146 Neutronen und 92 Protonen) nutzt indem man es durch Neutroneneinfang in das fissile Plutonium 239 umwandelt. Dies geschieht in den sogenannten Brutreaktoren, die jedoch noch nicht sehr verbreitet sind.

Du. Okay, bleiben wir vielleicht zuerst bei den üblichen. Wie bringt man die Kerne des U235 dazu, sich gegenseitig zu spalten?

Olga. Das machen sie prinzipiell ganz von alleine, daher ist es auch viel einfacher, Kernspaltung als Kernfusion durchzuführen - letztere braucht nämlich hohe Temperaturen und/oder Drücke um zu zünden. Die U235-Kerne müssen aber in einer gewissen Konzentration vorhanden sein, damit die Wahrscheinlichkeit hoch genug ist, dass sie sich gegenseitig mit ihren bei der Spaltung erzeugten Neutronen treffen. Auch dürfen nicht zuviele neutronenabsorbierende Materialien dazwischen sein. Das nutzt man aus, um die Reaktion mit Steuerstäben aus Absorbermaterial zu kontrollieren. Um die Wahrscheinlichkeit dafür, dass ein Neutron einen Kern spalten kann, zu erhöhen, sollte es auch so stark abgebremst werden, dass seine Energie mit der der umgebenden Kerne vergleichbar wird - man nennt es dann "thermisches Neutron". Dafür sorgt der sogenannte Moderator - häufig handelt es sich dabei um Wasser, dass dann auch zur Kühlung und zum Energieabtransport dient.

Du. Alles klar: Kern wird gespalten, sendet einige Neutronen aus - diese werden vom Moderator abgebremst, treffen dann neue Kerne, die sich ihrerseits spalten, wiederum Neutronen aussenden - und immer so weiter. Aber Moment, wo kommt das erste Neutron eigentlich her? Irgendwie muss die Kettenreaktion ja angestoßen werden...

Olga. Externe Neutronenquellen sind immer vorhanden - schließlich enthalten alle Materialien eine gewisse Menge an instabilen Kernen, und auch die kosmische Strahlung kann Kerne zum Aussenden von Neutronen anregen. Reaktoren enthalten aber meist eine eigene Initialquelle: Meistens benutzt man eine Kombination aus Sb 124 (Antimon) und Beryllium: Das radioaktive Antimon erzeugt ein Gammaphoton, das ein Neutron aus einem Berylliumkern herausschlägt. Dieses zündet die Kettenreaktion.

Du. Wie sorgt man dafür, dass die Kettenreaktion stabil bleibt? Also weder erlischt noch zu intensiv wird?

Olga. Das macht man sich am besten mit der 4-Faktoren-Formel klar. Sie gibt an,  wie stark die Neutronenpopulation pro Generation anwächst, oder, anders gesagt, wieviele Tochterneutronen auf ein Elternneutron kommen.

Du. Die Vermehrungsrate, sozusagen.

Olga. Genau.

Du. Wie berchnet man die?

Olga. Überleg mal, wie würdest du sie berechnen? Was kann einem Neutron während seines Lebens alles zustoßen? Denk daran, nachdem es emittiert wird, muss es heruntergebremst werden, bevor es wieder eine Spaltung auslösen kann (in thermischen Reaktoren).

Du. Es könnte verloren gehen - aus dem Reaktor entweichen, oder von einem Kern absorbiert werden der es gar nicht absorbieren soll, zum Beispiel im Moderator, oder im Strukturmaterial.

Olga. Genau. Die ganze Bilanz kann man durch die 4-Faktoren-Formel ausdrücken. Sie vernachlässigt zunächst das Entweichen der Neutronen aus dem Reaktor, bezieht sich also auf einen hypothetischen, unendlich großen Reaktor.

[Schreibt auf eine Serviette:]
k_inf = eta * epsilon * p * f

k_inf ist die Vermehrungsrate der Neutronen. f drückt aus, was du gerade sagtest: Das Verhältnis von im Spaltstoff absorbierten thermischen Neutronen zu den insgesamt im Reaktor absorbierten. Man nennt es Ausnutzungsfaktor. Auf dem Weg von der Freisetzung als schnelle Neutronen zur Absorption als langsame thermische müssen die Neutronen durch eine Art Gefahrengebiet: Den Resonanzbereich. Dieser wird durch das in nichtbrütenden Reaktoren nur zur Brennstoffverdünnung dienende Uran 238 hervorgerufen. Aus quantenmechanischen Gründen gibt es einen Bereich mittlerer Energie, durch den die Neutronen bei der Moderation hindurch müssen, in dem U238 besonders gut Neutronen einfängt. Dies drückt der Resonanzdurchlassfaktor p aus - die Wahrscheinlichkeit, dass ein Neutron nicht eingefangen wird, bzw. das Verhältnis von Neutronen, die den Resonanzbereich erfolgreich durchqueren zu denen, die weggefangen werden. epsilon ist der Schnellspaltfaktor: Die frisch erzeugten schnellen Neutronen können, wenn sie U238-Kerne treffen, zuweilen ohne Moderation Spaltungen auslösen und so weitere Neutronen nachproduzieren. epsilon gibt daher das Verhältnis aus der Gesamtzahl der schnellen Neutronen zur Zahl der schnellen Neutronen aus thermischen Spaltungen an. Schliesslich ist eta das Verhältnis von der Zahl der neu erzeugten Spaltneutronen zu der Zahl der Neutronen, die im Brennstoff absorbiert werden - der Regenerationsfaktor.

Du. Aber in der Realität ist die Größe des Reaktors ja endlich, weswegen Neutronen aus ihm entkommen.

Olga. Genau. Deshalb schreibt man für die reale Vermehrungsrate:

k_eff = k_inf * P_s * P_th,

wobei P_s und P_th jeweils die Wahrscheinlichkeit angibt, dass ein schnelles bzw. ein thermisches Neutron nicht aus dem Reaktor entkommt, bzw. einfach den jeweiligen Anteil derer, die nicht aus ihm entweichen.

Du. Interessant. Wenn der Reaktor stabil laufen soll, muss k_eff doch sicher gleich 1 sein? Damit die Neutronenzahl und auch die Spaltungsrate in ihm konstant bleibt?

Olga. Ja. Man drückt das auch durch die sogenannte Reaktivität aus:

R = (k_eff - 1) / k_eff = 1 - 1/k_eff.

k_eff = 1 ist dann gleichbedeutend mit R = 0. R > 0 bedeutet, dass die Spaltrate, und damit die erzeugte thermische Leistung, zunimmt, R < 0 dass sie abnimmt.

Du. Wie sorgt man dafür, dass R = 0 oder k_eff = 1 bleibt?

Olga. Zunächst einmal durch eine geeignete Auslegung des Reaktors. Größe, Form und Zusammensetzung des Kerns müssen so gewählt werden, dass der Reaktor kritisch werden, d.h. k_eff = 1 gemacht werden kann. Eine vereinfachte Vorstellung von diesem Designprozess erhält man mithilfe der Neutronendiffusionsgleichung für Gleichgewichtszustände (d.h. der Reaktor arbeitet stabil, Neutronenpopulation und Spaltrate bleiben konstant):

-D * #F(r) + X_a * F(r) = v * X_f * F(r)

# ist hier das Symbol für den Laplaceoperator: Die Summe der zweiten Raumableitungen = d^2/dx^2 + d^2/dy^2 + d^2/dz^2.

F(r) ist die Neutronenflussdichte. Sie beschreibt, wieviele Neutronen pro Zeiteinheit durch ein Volumenelement hindurchlaufen.

D ist der Diffusionskoeffizient. Er misst die Beweglichkeit der Neutronen. Je größer er ist, desto schneller breiten sie sich im Material aus.

X_a und X_f sind die makroskopischen Wirkungsquerschnitte für die gesamte Absorption (Einfang mit und ohne Spaltung) und die Fission (Einfang mit dadurch ausgelöster Spaltung). Makroskopische Wirkungsquerschnitte sind das Produkt aus der Raumdichte der Kerne und dem mikroskopischen Wirkungsquerschnitt des Kerns für die jeweilige Reaktion. Der mikroskopische Wirkungsquerschnitt gibt die gedachte Fläche um einen Kern herum an, durch die ein Neutron hindurchtreten muss, um die Reaktion auszulösen - quasi die Fläche die das Neutron "sieht", wenn es sich einem Kern nähert. Die makroskopischen Querschnitte misst man daher in Fläche * 1/Volumen = 1 / Länge. Der Wirkungsquerschnitt X_f für die Spaltung bezieht sich im Wesentlichen nur auf den Spaltstoff (U235), der für die gesamte Absorption X_a muss über alle vorhandenen Kerne gemittelt werden.

v ist zuletzt die durschnittliche Zahl freigsetzter Neutronen pro Spaltungsreaktion. Sie liegt zwischen 2 und 3.

Die Differentialgleichung kann man in Worten so formulieren:

Veränderung der Flussdichte der Neutronen + Absorption der Neutronen = Nachproduktion durch Spaltung

Man kann sie auch noch etwas übersichtlicher schreiben:

#F(r) + B^2 * F(x) = 0

wobei B^2 = (k_inf - 1) / L^2 ist. Die Vermehrungsrate k_inf steht in Beziehung zu den Wirkungsquerschnitten:

k_inf = v * X_f / X_a,

denn je wahrscheinlicher eine Spaltung im Vergleich mit der Gesamtabsorption, desto stärker ist die Vermehrung der Neutronen. L ist die sogenannte Diffusionslänge:

L^2 = D / X_a.

Sie gibt an, wie weit ein Neutron durchschnittlich vorankommt, bis es eingefangen wird.
In einfachen Fällen, zum Beispiel einem quaderförmigen Reaktor, lässt sich die Diffusionsgleichung sogar leicht analytisch lösen. Man erhält in diesem Fall:

F(x,y,z) = F_0 * cos(B_x x) * cos(B_y y) * cos(B_z z)

wobei B^2 = B_x^2 + B_y^2 + B_z^2 und B_x,y,z = PI / a,b,c wobei a, b und c die Kantenlängen sind (PI ist natürlich die Kreiszahl 3.14159...). Die Konstante F_0 ist die Flussdichte im Reaktorzentrum.

Man nennt B die Flusswölbung, da sie die Krümmung des Neutronenflusses F angibt, wenn man diesen als Kurve über einer der Raumachsen aufträgt. In diesem Fall hängt B nur von der Geometrie des Reaktors ab - man nennt es daher auch geometrische Flusswölbung B_g.

Du. Das ist eigenartig. Es muss doch auch eine Abhängigkeit von der physikalischen Struktur vorhanden sein.

Olga. Das ist auch so! Denk daran wie wir B ursprünglich definiert hatten: B^2 = k_inf - 1 / L^2. Diese Größe hängt ausschließlich von Materialeigenschaften ab! Man nennt sie daher auch materielle Flusswölbung B_m. Jetzt wird dir sicher klar, worin ein wichtiger Schritt des Reaktordesignprozesses besteht...

Du. Mal sehen. Wir können B einerseits aus Größe und Form des Reaktors bestimmen, indem wir die Diffusionsgleichung lösen. Andererseits berechnet es sich aus Materialeigenschaften. Das bedeutet, wir müssen Geometrie und physikalische Struktur des Reaktors so einrichten, dass beide Größen übereinstimmen. Und da die Diffusionsgleichung in unserer Form hier für statische Systeme gilt, bedeutet das, dass dann k_eff = 1 gilt!

Olga. Du bist klug.

Du. Du bist hü... äh, auch klug.

Olga. Danke. Du hättest auch das erste sagen können, aber man sagt ja, Lob der inneren Qualitäten wiegt mehr.

Du. Zusammen einen Kernreaktor designen ist eine aufregende Erfahrung.

Olga. Aber noch lange nicht so aufregend, wie ihn gemeinsam zu steuern.

Du. Wie funktioniert das?

Olga. Die Kettenreaktion muss über den Neutronenfluss gesteuert werden. Dazu nutzt man Materialien, die geeignet sind, Neutronen einzufangen: Bor, Silber, Cadmium, Hafnium oder Gadolinium. Für kurrzeitige Steuerung nutzt man Steuerstäbe, die in den Reaktor eingefahren werden. Langfristig wird der Reaktor geregelt, indem Neutronengifte (Materialien mit hohem Absorptionsquerschnitt) dem Kühlmittel oder Spaltstoff begemischt werden. Dies ist nötig, da ein frisch mit Spaltstoff beladener Reaktor natürlich eine höhere Reaktivität aufweist als einer, in dem schon viele Kerne gespalten wurden und der Brennstoff mit Spaltprodukten angereichert ist. Um dies auszugleichen, gibt man dem frisch beladenen Reaktor Absorber bei, die entweder mit der Zeit entfernt werden (z. Bsp. Bor im Primärkreislauf von Druckwasserreaktoren) oder aber von selbst durch Neutroneneinfang "abbrennen" (z. Bsp. Gadolinium im Brennstoff von Siedewasserreaktoren).

Interessant ist übrigens, dass Kernreaktoren nur steuerbar sind, weil ein Teil der Spaltneutronen nicht direkt bei der Spaltung, sondern einige Sekunden später, von den Spaltprodukten emittiert wird. Obwohl diese verzögerten Neutronen nur wenige Prozent der gesamten Neutronenanzahl ausmachen, wird durch sie das System so träge, dass sich typische Reaktionszeiten von einigen Minuten einstellen, die bequem mechanisch nachregelbar sind. Moderne Reaktorentwürfe, z. Bsp. der Hochtemperaturreaktor, sind noch "zahmer", d.h. sie reagieren noch wesentlich langsamer auf Änderungen der Betriebsbedingungen.

Du. Wie wird die Energie denn nun aus dem System abtransportiert? Ich erinnere mich, mal etwas von Kühlkreisläufen gehört zu haben...

Olga. Genau. Die meisten heutigen Kernkraftwerke benutzen ganz normales Wasser sowohl als Kühlmittel wie auch als Moderator. Die Wasserstoffatome im Wasser sind zum Abbremsen von Neutronen besonders gut geeignet, weil die Stoßprozesse umso mehr kinetische Energie im Mittel übertragen, je leichter der Stoßpartner des Neutrons ist. Man unterscheidet Druck- und Siedewasserreaktoren. Druckwasserreaktoren haben zwei Kreisläufe: Einen Primärkreislauf, der die Energie aus dem Reaktor entfernt, und einen Sekundärkreislauf, der die Wärme aus dem Primärkreislauf aufnimmt, dadurch verdampft und die Turbine (und dadurch den Generator) treibt. Damit der Primärkreislauf nicht selbst siedet, steht er unter erhöhtem Druck. Bei Siedewasserreaktoren verdampft das Wasser dagegen im Reaktor selbst, es existiert nur ein einziger Kreislauf. Die Energie lässt sich so mit geringeren Verlusten übertragen, das System hat jedoch den Nachteil, dass die Turbine radioaktiv wird.

Manche Reaktoren arbeiten auch mit schwerem Wasser - mit Deuterium (Kern: ein Proton, ein Neutron) statt Wasserstoff. Schweres Wasser absorbiert viel weniger Neutronen als gewöhnliches, so dass man solche Reaktoren sogar mit Natururan, in dem das fissile U235 nur 0.7% ausmacht, betreiben kann. Ein Beispiel ist das CANDU (CANadian Deuterium Uranium)-System. In gewöhnlichen Leichtwasserreaktoren dagegen muss das U235 auf einige Prozent angereichert werden, damit eine Kettenreaktion überhaupt möglich ist.

Da die Dichte des Wasser sinkt, wenn die Temperatur steigt, sinkt dann auch die Moderation und damit die Reaktionsrate. Man sagt, der Reaktor hat einen negativen Dampfblasen- oder VOID-Koeffizienten, er reguliert sich selbst. Reaktoren mit dieser Eigenschaft (die sie in Deutschland haben müssen um zulassungsfähig zu sein) sind daher schon sehr sicher. Systeme der nächsten Generation dürften jedoch noch sicherer sein.

Auch mit Gasen kann man Reaktoren kühlen. In Großbritannien werden kohlendioxidgekühlte Systeme eingesetzt, Hochtemperaturreaktoren nutzen Helium. In diesen Fällen dient Graphit als Moderator.

Schnelle Brüter dagegen benötigen Kühlmittel mit möglichst großer Kernmasse, damit die Neutronen, die hier ja nicht moderiert werden sollen, bei den Stoßprozessen möglichst wenig Energie verlieren. Daher nutzt man Natrium zum Kühlen, oder auch flüssiges Blei. Brüter wurden allerdings noch nicht sehr häufig gebaut.

Du. Diese Brüter hast du schon einige Male erwähnt. Das sind die, die auch das in normalen Reaktoren wertlose U238 nutzen, ja?

Olga. Oder Thorium 232! Die Idee ist, dass während der Kettenreaktion durch Neutroneneinfang aus fertilem Material neues fissiles nachproduziert wird. Man kann entweder U233 als Spalt- und Th232 als Brutstoff nutzen, oder aber Plutonium 239 als Spalt- und U238 als Brutstoff. Da das jeweils eingefangene Neutron ja dann für die Kettenreaktion fehlt, ist eine besonders hohe Neutronenausbeute nötig damit der Reaktor kritisch werden kann. Während das im Fall von U233/Th232 bereits im thermischen Bereich funktioniert, ist für Pu239/U238 die Neutronenausbeute nur im schnellen Spektrum hoch genug. Daher darf hier nicht moderiert werden.

Du. Und bei den üblichen Reaktoren wird das eigentlich wertvolle U238 einfach weggeworfen... Schade dass bisher kaum Brüter genutzt werden.

Olga. Nunja, technisch sind Brüter schon bedeutend anspruchsvoller als thermische Reaktoren, vor allem wegen der starken Neutronenflüsse. Es existieren aber viele realistische Entwürfe für zukünftige Kernreaktoren die die Bruttechnologie nutzen und dadurch auch vorhandenen Kernmüll wegspalten können.

Du. Der Kernmüll wird ja von vielen als großes Problem angesehen... woraus besteht er eigentlich?

Olga. Bei den üblichen thermischen Reaktoren natürlich vorwiegend aus ungenutztem U238. Dazu kommen Spaltprodukte - viele verschiedene Sorten leichterer Kerne in die das U235 zerplatzt ist - sowie Plutonium und Transurane, die durch Neutroneneinfang entstehen. Die Spaltprodukte sind anfangs stark radioaktiv, zerfallen aber auch recht rasch. Die Transurane sind für die langfristige Radioaktivität verantwortlich, die Jahrtausende anhält. Aber Reaktoren der nächsten Generation könnten diese Transurane schon bald in viele nützliche Terawattstunden verwandeln...

Dazu im zweiten Teil mehr! Stay tuned!

Mittwoch, 28. September 2011

Realleistung statt Nennleistung - die mangelnde Transparenz von Windkraftfirmen




Um Prof. Harald Lesch - der dies in einem anderen Zusammenhang sagte - zu zitieren: "Ich hab 'nen dicken Hals!"

Warum ich das habe?

Ich bin kein Freund davon, wenn Menschen über wichtige Daten und Zusammenhänge falsch informiert werden. Vor allem dann nicht, wenn die Fehlinformation sich hinter einer richtigen Information verbirgt, die viele jedoch mangels Vorwissen nicht richtig zu deuten verstehen.

Worum es geht? Um Windparks.

Schauen wir uns den Webauftritt des deutschen Offshore-Parks Alpha Ventus an: Fact Sheet.

Auf Seite 3 lesen wir wörtlich: "Mit einer Nennleistung von jeweils 5 Megawatt und einer entsprechenden Gesamtleistung von 60 Megawatt wird ein jährlicher Energieertrag von ca. 220 Gigawattstunden erwartet."

5 Megawatt Nennleistung je Turbine, insgesamt 60 Megawatt (12 Turbinen). Das klingt doch nicht schlecht!

Der jährliche Energieertrag soll 220 GWh betragen. Eine Gigawattstunde sind 3.6 * 10^12 J, und Leistung ist gleich Energie pro Zeit. Wir können also den Energieertrag durch ein Jahr (3.16 * 10^7 s) teilen, und erhalten so die Leistung im Zeitdurchschnitt, die wir mit <P> bezeichnen wollen.

Wir erhalten:

<P> = 220 * 3.6 * 10^12 J / 3.16 * 10^7 s = 25.06 MW

Hey! Das ist ja nicht mal die Hälfte der Nennleistung von 60 MW.

Dem Techniker ist sofort klar, worauf diese Diskrepanz zurückzuführen ist. Die "Nennleistung" ist keinesfalls die Leistung, die ein Kraftwerk im Zeitdurchschnitt liefert. Sondern vielmehr die, die es unter optimalen Bedingungen freisetzt. Bei Windkraftanlagen bedeutet das, das der Wind mit optimaler Geschwindigkeit bläst - weder zu schnell, noch zu langsam (oberhalb eines gewissen Grenzwertes müssen die Rotoren nämlich abgeschaltet werden, um Strukturschäden zu vermeiden). Aber das tut er natürlich nicht andauernd. Mal herrscht Flaute, mal bläst der Wind stark, mal schwach - der Output einer WKA schwankt ständig. Nennleistung erreicht sie nur wenn die entsprechenden Bedingungen gegeben sind.

Aus diesem Grund ist die Nennleistung für die Energieversorgung völlig uninteressant. Worauf es ankommt, ist, welche Leistung im Zeitmittel ins Netz eingespeist wird: Die gesamte über einen längeren Zeitraum freigesetzte elektrische Energie dividiert durch diesen Zeitraum (z. Bsp. ein Jahr). Das ist die Information, die wirklich etwas über den Nutzen der Anlage aussagt. Ich kann eine wunderbare WKA mit hoher Nennleistung an einem fast windstillen Ort aufstellen, und habe fast nichts davon, da sie dauernd stillsteht oder zu langsam läuft, und die Durchschnittsleistung deshalb sehr klein ist.

Ingenieure benutzen auch den Begriff "Volllastbetriebsstunden", um die reale Leistung eines Kraftwerks zu quantifizieren. Dies ist die Anzahl Stunden, die es bei Nennleistung arbeiten müsste, um die pro Jahr tatsächlich erzeugte Energie freizusetzen. Sie errechnet sich aus der Formel:

VBh = Energie(Jahr) / Nennleistung.

Bei Alpha Ventus erhält man:

VBh = 220 * 3.6 * 10^12 J / (60 * 10^6 W * 3600 s/h) = 3667 h.

Ab 1500 h erhalten die Betreiber Zuschüsse laut Erneuerbare-Energien-Gesetz.

Aus diesem Grund stört es mich, wenn Windparkbetreiber in ihren Broschüren vollmundig die Nennleistung ihrer Anlage verkünden, und die wirklich wichtige Information - die Durchschnittsleistung - etwas versteckt in Form des jährlich freigesetzten Energiebetrages angeben. Für einen Physiker oder Ingenieur ist das völlig verständlich, aber ein Journalist, der nicht viel über Physik und Technik weiß, und die Broschüre zur Hand nimmt, liest nur "60 MW", denkt "wow!", und macht sich nicht klar, dass die eigentlich Leistungsfähigkeit der Anlage viel geringer ist.

Wie alle klassischen Erneuerbaren, ist Windenergie sehr diffus - sie braucht viel Platz. Deshalb kann es nützlich sein, die Flächenleistungsdichte (W/m^2) für sie zu berechnen. Das ist einfach, aber interessant:

WKA wandeln die kinetische Energie bewegter Luft in elektrische Energie um. Wir berechnen daher zuerst die Energiedichte Q der Windströmung - die Menge an kinetischer Energie, die pro Volumen in der Luft enthalten ist:

Q = 1/2 * rho * v^2

v ist die Windgeschwindigkeit, rho die Luftdichte. Sie liegt auf Meereshöhe bei 1.3 kg / m^3.

Multiplizieren wir Q nochmal mit der Windgeschwindigkeit, erhalten wir den Leistungsfluß F pro Fläche - die Menge an kinetischer Energie, die pro Sekunde durch einen Querschnitt von einem Quadratmeter hindurchtritt:

F = Q*v = 1/2 * rho * v^3

Der Rotor der Windturbine deckt eine Fläche von A = r^2 * PI ab, wenn r ihr Radius (die Blattlänge) ist. PI=3.14159... ist natürlich die bekannte Kreiszahl. Das Produkt von A und F ergibt dann die von der WKA maximal einsammelbare Leistung:

P_max = A * F = 1/2 * PI * rho * v^3 * r^2

Moderne WKA erreichen einen Wirkungsgrad von 50%. Die umgesetzte elektrische Energie berechnet sich daher zu:

P_el = 1/4 * PI * rho * v^3 * r^2.

Man sieht, dass die Leistung stark mit dem Rotordurchmesser wächst, und noch viel stärker mit der Windgeschwindigkeit.

Sollen nun viele WKA zusammen einen Windpark bilden, dann müssen sie in einem gewissen Abstand zueinander aufgebaut werden, da sie sich sonst gegenseitig "den Wind aus den Segeln nehmen". Als Faustregel sollte der Abstand zwischen den WKA das Zehnfache ihres Rotor-Radius' betragen. Jede WKA hat damit ein aerodynamisches "Hoheitsgebiet" von 100 r^2. Die effektive Flächenleistungsdichte eines Windparks beträgt:

D = P_el / (100 r^2) = 1/400 * PI * rho * v^3.

Der Rotorradius kürzt sich heraus! Es ist damit auf den ersten Blick egal, ob man einen Windpark aus großen oder kleinen WKA aufbaut. Große sind aber dennoch sinnvoller, da sie zum einen höher hinaufreichen und schnellere Windströmungen auffangen, zum anderen wird das Baumaterial für die Anlagen so effizienter verwertet. Eine ganz ungünstige Idee sind übrigens Mini-WKA auf Dächern, da der Wind über Siedlungen stark abgebremst wird. Man setzt Arbeit und Material viel nutzbringender ein, wenn man sie in große WKA an windreichen Stellen investiert - zum Beispiel offshore.

Um einen konkreten Zahlenwert zu berechnen, müssen wir nur die die typischen Windgeschwindigkeiten in Erfahrung bringen. Das Internet spuckt diese Information selbstverständlich aus: Windkarte.

Wir sehen, dass in der norddeutschen Tiefebene die mittlere Windgeschwindigkeit zwischen 4 und 5 Meter pro Sekunde liegt, direkt an der Küste bei über 6. Nehmen wir v_onshore = 5 m/s und v_offshore = 9 m/s, so erhalten wir:

D_onshore = 1.3 W / m^2

und

D_offshore = 7.4 W / m^2.

Wollte jeder Deutsche also seinen gesamten Primärenergieverbrauch von rund 6000 W allein aus Windenergie bestreiten, so müsste er rund 4600 m^2 auf dem Land (und zwar an den windigsten Stellen), oder 810 m^2 auf dem Meer abdecken. Alle 80 Millionen zusammen würden 64.8 * 10^9 Quadratmeter Meer benötigen, bzw. 64800 Quadratkilometer - z. Bsp. einen 65 km breiten und 1000 km langen Streifen. Zu dumm, dass wir Deutsche eine so kurze Küste haben... aber es gibt ja noch andere mögliche Aufstellorte für WKA!

Zeit für einen Reality-Check! Liefern unsere Formeln die richtigen Ergebnisse für reale Windparks? Laut Broschüre hat den Alpha Ventus eine Fläche von 4 km^2 = 4 * 10^6 m^2. Das ergibt:

D_alphaventus = 25 * 10^6 W / 4 * 10^6 m^2 = 6.25 W / m^2.

Das stimmt recht gut mit unserer obigen Abschätzung überein.

Googeln wir uns zum Spaß einen anderen Offshorepark (Liste). Nehmen wir den britischen Barrow Offshore Windpark. Der jährlich Output von 305 GWh = 1.1 * 10^15 J entspricht einer Durchschnittsleistung von <P> = 1.1 * 10^15 J / 3.16 * 10^7 s = 34.7 MW - etwas mehr als ein Drittel der auf der Homepage unschuldig und irreführend als "Total Ouput" bezeichneten 90 MW.

Der Park deckt laut Datenblatt 10 km^2 ab. Offensichtlich wurde er recht großzügig angelegt, da bei einem Rotordurchmesser von 90 m ein Platzbedarf pro Turbine von (5 * 90 m)^2 = 202 500 m^2, bzw. für 30 Turbinen insgesamt 30 * 202 500 m^2 ~ 6 km^2 entsteht.

Auf 10 km^2 verteilt entspricht die Flächenleistungsdichte:

D_bowind = 34.7 * 10^6 W / 10 * 10^6 m^2 = 3.47 W / m^2.

Würde man die WKA auf 6 km^2 zusammenpacken, ergäbe sich:

D_bowind_eng = 34.7 * 10^6 W / 6 * 10^6 m^2 = 5.8 W / m^2.

Alle Briten zusammen (61.8 Mio) würden bei einem Individualverbrauch von 6000 W damit 64000 Quadratkilometer "optimal gepackten" Offshore-Windpark benötigen - allerdings unter der Annahme, dass der Wind überall so stark ist wie bei Barrow Offshore, was insbesondere in Buchten sicher nicht der Fall ist. Da die britische Küste fast 3000 km lang ist, würde es genügen, die ganze Insel mit einem geschlossenen, 16 km breiten Windparkstreifen zu umgeben, was natürlich weder sinnvoll noch realistisch ist (Schiffe, Fischerei, Meeresvögel...). Auch die Briten werden wohl windreiche, nordwestafrikanische Küsten anzapfen müssen, wenn sie große Mengen Windenergie möchten.

Langer Rechnung kurzer Sinn: Die Datenangaben auf den Homepages von Windparkbetreibern dürften für sehr viele Bürger irreführend sein, da nur relativ wenige die Bedeutung von "Nennleistung" kennen und der Begriff "Total Output" komplett in die Irre führt. Meine Idee wäre daher, dass solche Firmen gleich auf die Begrüßungsseite ihres Webauftritts eine schöne große Anzeige stellen sollten, die die real erzeugte Leistung in Echtzeit angibt, sowie eine Meßkurve, die sie als Zeitfunktion über die letzten 12 Monate (oder länger) darstellt. Dann wüssten alle sofort Bescheid und könnten sich ein realistisches Bild machen. Und anstatt den sperrigen Begriff Durchschnittsleistung zu verwenden, könnte man von "Realleistung" sprechen. Das klingt einprägsam und vermittelt die richtige Idee!


Weblinks

Physik der Windkraftanlage bei "Without hot Air"

Montag, 26. September 2011

Neutrinos - mit Warpspeed durch die Alpen?!

Dass eine wissenschaftliche Entdeckung einen waschechten Medienrummel auslöst, ist selten. Wenn dies geschieht, handelt es sich meist um Resultate, die die Phantasie der Menschen berühren, und Fragen ansprechen, die das gemeinsame kulturelle Unterbewußtsein schon seit langer Zeit beschäftigen. Als 1995 Mayor und Queloz den ersten Exoplaneten um einen Hauptreihenstern entdeckten, dürfte dies der Fall gewesen sein, denn die Frage nach der Existenz von Planeten außerhalb der Sonnensystems hat die Menschheit seit Beginn der modernen Astronomie fasziniert, und war Gegenstand von Spekulation und Science-Fiction-Geschichten. Vergangenen Freitag machte eine Meldung die Runde, die in die gleiche Kerbe schlug: Ein gemeinsames Experiment des Kernforschungszentrums CERN und der Laboratori Nazionali del Gran Sasso in Italien deutet darauf hin, dass Neutrinos, geisterhafte Teilchen die kaum mit üblicher Materie wechselwirken, in der Lage sind, sich überlichtschnell auszubreiten.

Kaum war die Meldung heraus, begann es im Internet zu brummen wie in einem Bienenkorb. Neutrinowitze überfluteten Twitter. Google Trends zeigt die höchste Suchanfragenrate zum Thema "Neutrino" seit 2004. Kaum eine Zeitung ließ die Meldung aus, dass das angeblich Unmögliche entdeckt worden war: Überlichtschnelle Signale!

Die Faszination ist verständlich. Schließlich ist in der Science Fiction blitzschnelle Kommunikation über interstellare Distanzen, manchmal sogar, wie in Star Wars, in Echtzeit, so selbstverständlich wie heutzutage ein Anruf mit dem Handy. Auch materielle Objekte, z. Bsp. Raumschiffe, übertreffen in fast allen Space Operas die Lichtgeschwindigkeit um ein Vielfaches. In wie hohem Maße ist von Story zu Story allerdings sehr unterschiedlich - während in Star Trek ein Schiff rund 70 Jahre benötigt, um die ganze Milchstrasse zu durchqueren, ist das in Star Wars innerhalb einiger Tage möglich. Allen diesen Geschichten gemeinsam ist aber, dass Überlichtflug und -kommunikation etablierte, bewährte Technologien sind, in den Alltag integriert und daher beinahe banal.

Aller Begeisterung der Scifi-Fans zum Trotz waren Physiker der ganzen Idee gegenüber größtenteils extrem skeptisch. Überlichtflug, argumentierten sie, ermögliche Reisen in die Vergangenheit, was wegen der Wahrung der Kausalität unmöglich sei. Dann und wann gab es in den spekulativeren Bereichen der theoretischen Physik geringfügige Schützenhilfe für die Scifi-Gemeinde. Schon Einstein erläuterte, dass sich überlichtschnelle Teilchen, sog. Tachyonen, durchaus in die Spezielle Relativitätstheorie einfügen ließen. Ihre Masse müsse eine imaginäre Zahl sein. Bei Energiezufuhr würden diese Teilchen langsamer, bis sie asymptotisch "von oben her" der Lichtgeschwindigkeit nahe kämen. Die Lichtbarriere lasse sich jedoch weder von unten noch von oben überwinden, sie stelle eine absolute Grenze dar.

Später spekulierten verschiedene Gravitationstheoretiker über die Möglichkeit, Überlichtantriebe für Raumschiffe zu konstruieren. Miguel Alcubierre schlug vor, dass es mithilfe noch nicht entdeckter, exotischer Materie möglich seien könnte, den Warpantrieb aus Star Trek zu realisieren, der den Raum hinter dem Schiff expandiert und vor ihm komprimiert. Andere Forscher stellten Überlegungen zu Wurmlöchern an - Raumzeitbrücken, die weit entfernte Punkte des Kosmos verbinden und dadurch einen raschen Pendelverkehr zwischen den Sternen ermöglichen könnten, ohne das es überhaupt nötig sei, die Lichtgeschwindigkeit zu übertreffen.

All diese Überlegungen waren jedoch völlig spekulativ, und wurden von anderen Wissenschaftlern oft als Hirngespinste abgetan.

Nun scheint sich aber Ende vergangener Woche etwas getan zu haben...

Ursprünglich hatte das Gemeinschaftsprojekt OPERA vom schweizer Forschungszentrum CERN und dem italienischen Gran-Sasso-Labor etwas ganz anderes untersuchen sollen. Bei CERN erzeugte Neutrinos sollten von einem Detektor in den Abruzzen aufgefangen werden, um Neutrinooszillationen nachzuweisen - die Fähigkeit der drei Neutrinosorten, sich ineinander umzuwandeln. Die große Überraschung war jedoch, dass die Neutrinos um einen kleinen Sekundenbruchteil zu früh in Italien ankamen! Sie mußten, den Meßergebnissen zufolge, schneller als das Licht quer durch die Alpen gelaufen sein!

Aber was sind Neutrinos überhaupt...?

Als man in der ersten Hälfte des 20. Jahrhunderts Kernreaktionen untersuchte, fiel auf, dass bei einer bestimmten Zerfallsart, dem Betazerfall, scheinbar Energie, Impuls, und Drehimpuls verlorengingen. Das schien sehr seltsam, weil diese drei Größen in der gesamten bekannten makroskopischen Physik stets erhalten bleiben. Nach dem sog. Noether-Theorem sind sie sogar mit wichtigen Symmetrieeigenschaften des Universums verknüpft: Energieerhaltung mit der Zeitsymmetrie (Naturgesetze ändern sich nicht im Lauf der Zeit), Impulserhaltung mit der Raumsymmetrie (sie sind überall gleich) und Drehimpulserhaltung mit der Rotationssymmetrie (sie hängen nicht davon ab, wie ein Bezugssystem relativ zum Beobachter orientiert ist). Sollten diese Sätze in der submikroskopischen Physik nicht mehr gelten? Das schien absurd. Schließlich ändert ein Atomkern sein Verhalten nicht in Abhängigkeit davon, ob man ihn von links oder rechts betrachtet. Wolfgang Pauli schloß daher 1930, dass beim Betazerfall ein neues Teilchen im Spiel sein müsse, das überschüssige Energie, Impuls und Drehimpuls davontrüge. Da es nich nicht beobachtet worden war, müsse es sich um ein sehr schwach wechselwirkendes Teilchen handeln, das überdies elektrisch neutral sein müsse, da die Ladungsbilanz beim Betazerfall bisher aufging:

p -> n + e+ + ?

Bei dieser Zerfallsart wandelt sich ein Proton in ein Neutron, ein Positron (das positive Antimaterie-Gegenstück zum Elektron) und... etwas ("?") um. Die andere Zerfallsart bewirkt:

n -> p + e- + ??

Ein Neutron zerfällt also zum Proton, einem Elektron und einem weiteren Teilchen ("??"). 1933 gab Enrico Fermi den hypothetischen neuen Teilchen die Namen "Neutrino" (ital. für "kleines neutrales") und "Antineutrino". "?" wurde Neutrino genannt und "??" Antineutrino - das war keine x-beliebige Vereinbarung sondern beruhte darauf, dass bei Kernreaktionen die Leptonenzahl immer erhalten bleibt. Leptonen - leichte Teilchen - sind Elektronen, Neutrinos und etwas schwerere Geschwister des Elektrons, das Myon und Tau, sowie die jeweiligen Antiteilchen. Die Teilchen haben positive, die Aniteilchen negative Leptonenzahlen. Da auf der linken Seite der Reaktionen kein Lepton vorhanden ist, muss sich die Leptonenzahl nach der Reaktion wieder zu Null addieren. Zum Positron (Leptonenzahl -1) kommt also ein Neutrino (Leptonenzahl +1) und zum Elektron (Leptonenzahl +1) ein Antineutrino (Leptonenzahl -1).

Die Vorhersage der Neutrinos erschien sehr vernünftig, um den Erhaltungssätze Genüge zu tun. Sie experimentell nachzuweisen war jedoch etwas ganz anderes! Schließlich sind sie so reaktionsscheu, dass eine 100 Lichtjahre dicke Bleiwand sie nur mit 50-prozentiger Wahrscheinlichkeit aufzuhalten vermag. Man musste sich etwas pfiffiges einfallen lassen...

1956 hatten Clyde Cowan und Frederick Reines die zündende Idee. Sie stellten einen großen Wassertank unterirdisch auf, um ihn vor kosmisches Strahlung zu schützen. Als Antineutrinoquelle diente ein Kernreaktor. Zusätzlich wurde etwas Cadmiumchlorid im Wasser gelöst. Dadurch ließen sich die Antineutrinos indirekt beobachten. Traf nämlich ein Antineutrino auf ein Proton im Wasser, so lief mit sehr geringer Wahrscheinlichkeit folgende Reaktion ab:

Antineutrino + p -> n + e+

Es handelt sich dabei um einen "umgekehrten" Betazerfall: Das Proton fängt das Antineutrino ein, und zerfällt dadurch zu einem Neutron und einem Positron. Das Positron zerstrahlt zu zwei Gammaphotonen, sobald es auf ein Elektron trifft (Materie/Antimaterie-Anihilation). Das Neutron reagiert weiter mit den Cadmiumkernen des Cadmiumchlorids:

n + 108Cd -> 109Cd* -> 109Cd + Gamma

Es entsteht zuerst ein angeregter Kern 109Cd*, der sich unter Gammastrahlungsaussendung zu "normalem" 109Cd abregt. Wenn nun zuerst zwei Gammastrahlen, und wenig später (5 Mikrosekunden) ein zweiter gemessen werden würden, würde dies auf Antineutrinos hindeuten. Genau dies kam aber bei dem Versuch heraus.

Um zusätzliche Sicherheit zu erlangen, schalteten Cowan und Reines den Reaktor ab - und schon blieben die Meßergebnisse aus. Sie hatten also wirklich künstlich erzeugte Antineutrinos gemessen.



Der Neutrinodetektor von Cowan und Reines


Auf den Nobelpreis mußte Reines allerdings fast 40 Jahre warten. Cowan starb schon 1974 und erhielt ihn nicht mehr, Reines wurde 1995 von den Schweden geehrt.

Ebenso wie das Elektron zwei (kurzlebige) massereichere Geschwister hat, das Myon und das Tau, wurden drei verschiedene Neutrinoarten entdeckt: Zu den beim Betazerfall entstehenden Elektronneutrinos kamen später noch das Myon-Neutrino und das Tau-Neutrino hinzu.

Besonders viele Neutrinos entstehen bei den Fusionsreaktionen im Inneren der Sonne. Jede Sekunde prasseln davon mehrere zehn Milliarden auf jeden Quadratzentimeter unserer Haut! Wegen des geringen Wirkungsquerschnitts merken wir davon jedoch nichts. Ende der 1960er bauten die Astrophysiker Raymond Davis und John Bahcall in der Homestake-Goldmine in South Dakota das erste Experiment zur Messung der Sonnenneutrinos auf. In einer Tiefe 1478 Metern (notwendig, um andere störende Strahlungsarten abzuschirmen) füllten sie einen Tank mit 380 Kubikmetern Perchloroethylen (ein Reinigungsmittel). Reagiert ein Chlorkern mit einem Neutrino, verwandelt er sich in Argon. Dieses Edelgas konnte mit Helium ausgespült und gemessen werden. Dabei machten Davis und Bahcall jedoch eine seltsame Entdeckung: Nur ein Drittel der erwarteten Neutrinos aus dem Sonnenkern kam an. Was stimmte hier nicht? War etwa das Sonnenmodell falsch? Das schien sehr unwahrscheinlich. Die Theorie der solaren Kernfusion hatte sich bewährt. Sie erklärte nicht nur viele Beobachtungsgrößen der Sonne, sondern auch die Entwicklung aller anderen Sterne im Kosmos und sagte deren Größen, Temperaturen und Leuchtstärken richtig vorher. Außerdem erlaubte die Helioseismologie (Messung von Schwingungen in der Sonne) Druck und Temperatur im Sonnenkern recht genau zu bestimmen, und diese stimmten mit den theoretischen Vorhersagen überein. Nach Occams Rasiermesser mußte man also annehmen, dass das Problem nicht bei der Sonne, sondern bei den Neutrinos lag (diese Hypothese erforderte die wenigsten Zusatzannahmen). 1968 schlug Bruno Pontecorvo vor, dass die Neutrinos nicht, wie bis dahin angenommen, masselos seien, sondern eine sehr geringe Ruhemasse hätten, und die verschiedenen Typen (Elektron-, Myon- und Tau-Neutrinos) sich daher ineinander umwandeln könnten. Da das Homestake-Experiment nur auf Elektronneutrinos ansprach, wurden die, die sich auf dem Weg von der Sonne zur Erde in andere Formen umgewandelt hatten, einfach nicht gemessen. Es sollte sich herausstellen, dass dies zutraf.

1998 fand das Super-Kamiokande-Experiment in Japan erste Hinweise auf Neutrinooszillationen (Umwandlungen von einem Typ in einen anderen). Der Versuchsaufbau besteht aus einem riesigen unterirdischen Tank, der 50000 Tonnen hochreines Wasser enthält. Trifft ein Neutrino auf ein Elektron in einem Wassermolekül, wird dieses fortgestoßen, und zwar mit einer Geschwindigkeit, die über der Geschwindigkeit des Lichts im Medium Wasser liegt. Dabei erzeugt das Elektron eine Art elektromagnetischen Überschallknall - die Cerenkov-Strahlung, die mit Photomultipliern in der Tankwand gemessen werden kann. Dadurch lassen sich, im Gegensatz zu früheren Neutrinoexperimenten, auch Energie und Einfallsrichtung des Neutrinos feststellen. Der Super-Kamiokande kann so Elektron- und Myon-Neutrinos feststellen, aber keine Tau-Neutrinos.


Das Innere des Super-Kamiokande.
Man erkennt Tausende von Photomultipliern an den Wänden.
Zwei Techniker sind mit einem Boot auf der Wasseroberfläche unterwegs.


Bei Messungen von Myon-Neutrinos, die durch kosmische Strahlung in der Erdatmosphäre entstanden waren, maß man nun mehr Neutrinos, die von oben einfielen als von unten. Das deutete darauf hin, daß die Myon-Neutrinos beim Weg durch die Erde (deren Anwesenheit sie mangels Reaktionsfreudigkeit kaum wahrnehmen), sich in Tau-Neutrinos umgewandelt hatten!

2001 lieferte das Sudbury Neutrino Observatory in Kanada weitere Belege für Neutrinooszillationen. Der Versuchsaufbau besteht aus einem Gefäß, das 1000 Tonnen hochreines schweres Wasser (mit Deuterium statt Wasserstoff) enthält. Hiermit lassen sich alle drei Neutrinoarten detektieren, da außer den Neutrino-Elektron-Stößen hier noch zwei weitere Effekte am Werk sind: Zum einen können Elektron-Neutrinos ein Neutron in einem Deuteriumkern in ein Proton umwandeln und dabei ein Elektron freisetzen, das sich durch die Cerenkov-Strahlung bemerkbar macht. Zum anderen können alle drei Neutrinoarten einen Deuteriumkern in ein Proton und ein Neutron spalten. Das Neutron reagiert mit anderen Kernen und setzt dabei Gammastrahlung frei, die messbar ist.


Das Sudbury Neutrino Observatory.
Das schwere Wasser ist in einer großen Kugel untergebracht.


Das Sudbury Observatory stellte nun fest, das von der Sonne insgesamt soviele Neutrinos kamen, wie von der Fusionstheorie vorhergesagt. Von diesen waren 35% Elektron-Neutrinos, die anderen Myon- und Tau-Neutrinos.

Dass Neutrinos eine geringe Masse haben (im Bereich weniger eV oder darunter) ist auch für die Kosmologie bedeutsam, da sie dies zu einem Kandidaten für die seit langem gesuchte Dunkle Materie werden lässt, die Galaxien und Galaxienhaufen durchdringt und sich nur durch die Gravitation bemerkbar macht.

Um das Oszillationsphänomen weiter zu untersuchen, wurde 2008 der OPERA (Oscillation Project with Emulsion-tRacking Apparatus)-Detektor am Laboratori Nazionali del Gran Sasso fertiggestellt. Dieser sollte mithilfe von Stapeln aus fotografischen Filmen und Bleiplatten die Tau-Teilchen feststellen, die durch Wechselwirkungen von Tau-Neutrinos entstehen, die im 734 km entfernten Forschungszentrum CERN erzeugt werden.

Die Sensationsmeldung vom vergangenen Freitag hatte jedoch nichts mit Oszillationen der Neutrinos zu tun. Was die Gemüter erregte, war die Nachricht, dass die Neutrinos um einen Faktor von ca. 2.5 * 10^-5 früher eintrafen als ein Photon es getan hätte, sie sich also anscheinend überlichtschnell ausbreiten.

Nicht gerade überraschenderweise sind viele Physiker extrem skeptisch. Insbesondere hätte ein solcher Geschwindigkeitsunterschied bei der Messung der Neutrinos, die von der Supernova 1987A in der Großen Magellanschen Wolke ausgingen, auffallen müssen: Sie hätten vor dem elektromagnetischen Aufflammen der Explosion eintreffen müssen. Dies wurde jedoch nicht beobachtet.

Manche vermuten nun, dass die Neutrinos eine gewisse Schwellenenergie brauchen, um überlichtschnell zu werden. Die Neutrinos aus CERN sind energiereicher als die Supernovaneutrinos. Möglicherweise ermöglicht die höhere Energie den Teilchen, durch zusätzliche Dimensionen zu schlüpfen und so das Licht zu überholen.

Weshalb sind die Forscher eigentlich so skeptisch? Hat nicht schon Einstein über die Existenz überlichtschneller Tachyonen nachgedacht? Der Knackpunkt ist, dass Überlicht-Reisen es ermöglichen würden, Zeitreisen in die Vergangenheit durchzuführen, was der Kausalität widersprechen und Paradoxa hervorrufen würde.

Eine einfache relativistische Rechnung zeigt, was das Problem ist:

Jemand sende ein Signal aus, das die Strecke x in der Zeit t zurücklegt. Die Signalgeschwindigkeit ist dann:

v_Signal = x/t

Nun bewege sich ein Beobachter mit der Geschwindigkeit v_B relativ zu Sender und Empfänger. Die Laufzeit t' in seinem Bezugssystem berechnet sich nach der relativistischen Lorentz-Transformation zu:

t' = (t - x*v_B/c^2) / SQRT(1 - v_B^2/c^2).

Hier ist c die Lichtgeschwindigkeit und SQRT steht für die Quadratwurzel. Man sieht übrigens, dass für kleine v_B gilt t'=t, so dass bei geringen Geschindigkeit keine Zeitveränderung stattfindet, die Relativitätstheorie also nicht berücksichtigt werden muß, wie wir es aus alltäglichen Situationen kennen.

Man kann nun zeigen, dass für v_Signal>c der Wert von t' negativ werden kann, die Wirkung aus Sicht des Beobachters also vor der Ursache liegt! Dazu muss nämlich gelten:

t' < 0

bzw.

t < x*v_B / c^2

woraus folgt:

t / x = 1 / v_Signal < v_B / c^2

oder umgeformt:

v_B > c * (c/v_Signal).

Da nach Annahme v_Signal>c ist, erhält man auf der rechten Seite einen Geschwindigkeitswert < c. Hat der Beobachter eine Geschwindigkeit, die zwischen diesem Wert und c liegt, dann ist die Ungleichung erfüllt, und t' wird negativ. Er würde das Eintreffen des Signals vor dem Aussenden wahrnehmen! Die Kausalität wäre auf den Kopf gestellt. Daher erscheint den meisten Physikern die Existenz überlichtschneller Teilchen extrem unwahrscheinlich.

Wie es weitergehen wird?

Natürlich müssen weiterführende Experimente angestellt werden, die dem Phänomen auf den Grund gehen. Beim Fermilab in den USA sind solche bereits angedacht. Und dann gibt es zwei - beziehungsweise drei Möglichkeiten:


1.) Der "Fall Pioneer"

Ähnlich wie die Pioneer-Anomalie erweist sich das Resultat als klassischer Effekt. Jahrelang rätselten Physiker, wieso die Pioneer-Raumsonde scheinbar von der Sonne etwas stärker angezogen wird, als die Gravitationstheorien von Newton und Einstein es vorhersagen. Man witterte neue Physik. Doch dann stellte sich heraus, dass der Effekt von ungleichmäßiger Wärmeabstrahlung von der Oberfläche der Sonde herrührt. Auf die Neutrinos übertragen würde das bedeuten, dass sie nicht überlichtschnell sind, sondern bloß ein bekannter physikalischer Effekt nicht richtig berücksichtigt wurde, was das Ergebnis vortäuschte.


2.) Der "Fall Kalte Fusion"

Ein simpler Messfehler. Im Jahr 1989 kündigten die Chemiker Pons und Fleischmann an, es sei ihnen gelungen, Kernfusionsreaktionen auszulösen, ohne dass hohe Temperaturen involviert seien. Heute ist man sich beinahe komplett sicher, dass es sich um einen Meßfehler handelte. Vielleicht ergeht es den Überlicht-Neutrinos ähnlich.


3.) Der "Fall Eureka"

Das Ergebnis ist authentisch! Neutrinos sind wirklich unter bestimmten Bedingungen überlichtschnell. Die Physik wird auf den Kopf gestellt, und viele neue Theorien und Experimente sind nötig: Sind Zeitreisen eine reale Möglichkeit? Kann in unserem Universum die Kausalität verletzt werden? Existieren die von einigen Theorien vorhergesagten höheren Dimensionen? Usw...


Es bleibt also spannend. Man wird abwarten müssen...


Weblinks

Das Originalpaper zum Experiment

Homepage des Gran-Sasso-Labors

Tachyonen in David Darlings Enzyklopädie

Reaktionen verschiedener Physiker auf das Ergebnis bei Scientific American

Donnerstag, 1. September 2011

Ein Diamant, trilliardenmal so groß wie das Ritz!

So schön sie anzusehen sind - Diamanten sind nichts als vulgärer Kohlenstoff. Allerdings sind die Kohlenstoffatome in ihnen auf besondere Art angeordnet! Im Gegensatz zu Graphit, in dem die Atome zu flächigen Strukturen verbunden sind, bilden sie in Diamant eine dreidimensionale Kristallstruktur. Jedes Atom ist mit vier weiteren kovalent verbunden, so dass diese ein Tetraeder bilden - eine regelmäßige, vierflächige Pyramide mit gleichseitigen Dreiecken als Seitenflächen. Einen solchen Kristall kann man sich als Kombination zweier kubisch-flächenzentrierter Gitter (Würfelstruktur mit Atomen an den Ecken und in der Mitte jeder Seitenfläche) denken, die gegeneinander versetzt sind. Es existieren auch seltenere, meist nur künstlich erzeugbare Kohlenstoffformen, wie der amorphe Kohlenstoff, in dem die Atome unregelmäßig angeordnet sind, das Fulleren, in dem sie fußballartige Polyeder bilden, oder die Kohlenstoff-Nanoröhren.

Gewöhnliche Kohle oder Ruß besteht aus vielen kleinen, zufällig zusammengelagerten Graphitpartikeln.




Die Kristallstruktur des Diamanten.
Obwohl es sich um identische Kohlenstoffatome handelt,
sind einige grün gefärbt, damit man besser sehen kann,
wie sie mit den Nachbaratomen tetraedrisch verbunden sind.


Diamanten entstehen aus normalem Kohlenstoff, wenn hohe Drücke auf diesen einwirken, zum Beispiel im Erdmantel bei einer Tiefe von ca. 150 km, oder bei Meteoriteneinschlägen. Dabei bilden sich aus Kohlenstoffvorkommen in Gesteinen kleinere Diamanten, die durch vulkanische Prozesse an die Erdoberfläche gebracht werden. Kohlenstoff ist nur ein Spurenelement im Erdmantel, der vorwiegend aus Silizium und Metallen besteht. Es existieren aber Himmelskörper, die fast ausschließlich aus Kohlenstoff zusammengesetzt sind.

Wie wir in einem früheren Artikel besprochen haben, erzeugen Sterne ihre Energie, indem sie Atomkerne bei hohen Drücken und Temperaturen in ihrem Inneren miteinander verschmelzen. Zunächst, während der längsten Zeit ihres Lebens, verbrennen sie Wasserstoff zu Helium. Irgendwann hat sich im Sternenkern jedoch soviel Helium angereichert, dass die Fusion nicht mehr effizient ablaufen kann und erlischt. Der Kern schrumpft dann, bis er so stark zusammengepresst ist, wie es nach den Gesetzen der Quantenmechanik maximal geht: Man sagt, er ist "entartet". Dichte und Temperatur wachsen so lange, bis außen um den Kern herum die Wasserstofffusion in einer Schalenbrennzone zündet. Diese bläht durch die freigesetzte Energie den Rest des Sterns zu einem kühlen, roten Riesen auf. Sein Radius vertausendfacht sich dabei. Diese Phase währt jedoch nicht lange. Aus der Schalenbrennzone regnet Helium auf den entarteten Kern herab, bis dieser heiß und dicht genug geworden ist, dass die nächste Brennphase beginnen kann: Die Fusion von Helium zu Kohlenstoff. Eine Zeitlang verbrennt der Stern nun Helium im Kern und Wasserstoff in einer Schale außen herum. Er schrumpft dabei wieder leicht und wird heißer. Schließlich kommt auch das Heliumbrennen im Kern zum erliegen. Er besteht nun vorwiegend aus Kohlenstoff (und etwas Sauerstoff) und zieht sich wieder zu entarteter Materie zusammen, und um ihn herum zünden zwei Brennschalen übereinander: Innen eine Helium-Brennschale, außen eine Wasserstoff-Brennschale. Diese setzen soviel Energie frei, dass der Stern sich noch stärker aufbläht als während der Rote-Riesen-Phase. Die Sonne wird gegen Ende ihrer Existenz beinahe die Erdbahn berühren! Kleine und mittelschwere Sterne wie unsere Sonne beginnen nun ihre äußeren Schichten langsam abzuwerfen. Ein schöner planetarischer Nebel entsteht. Da durch Konvektion auch Kohlenstoff aus dem Kern heraufgeholt wurde, wird eine gewaltige Menge feiner Rußpartikel freigesetzt. Das hört sich nicht sehr gesund an, ist jedoch ein unabdingbarer Prozess für die Entstehung von Leben wie wir es kennen, da das biologische Grundelement Kohlenstoff dadurch zurück ins All gelangt.

Im Zentrum bleibt der kleine entartete Kohlenstoffkern übrig, den man Weißer Zwerg nennt. Dieser ist zwar aufgrund seiner gespeicherten Wärme noch sehr heiß, er produziert jedoch keine Energie mehr nach, da die Fusion in ihm endgültig erloschen ist. Er kühlt ganz langsam, im Laufe von Jahrmilliarden, aus, bis er zuguterletzt zum unsichtbaren Schwarzen Zwerg geworden ist. Da der Abkühlungsprozess extrem langsam verläuft, haben sich bisher im Universum noch keine Schwarzen Zwerge gebildet.

Obwohl Weiße Zwerge Massen ähnlich der der Sonne haben, sind sie, aufgrund ihrer extremen Dichte, die mehrere Tonnen pro Kubikzentimeter erreichen kann, nicht größer als die Erde. Massereichere Weiße Zwerge sind überraschenderweise kleiner als massearme, da der Schweredruck sie stärker zusammenpresst.

Sternen mit größerer Masse ist ein dramatischeres Schicksal vorbehalten. In ihnen bilden sich noch weitere Brennschalen aus, die sukzessive immer schwerere Elemente erbrüten, bis hin zum Eisen. Dort angekommen, kann keine weitere Fusion unter Energiegewinn mehr ablaufen. Der Stern wird von einer Supernova zerrissen, bei der explosionsartig auch schwerere Elemente über das Eisen hinaus entstehen und ins All fortgeschleudert werden. Der Kern stürzt unter seiner eigenen Gravitation in sich zusammen, wobei er sich in ein sehr merkwürdiges Objekt verwandelt: Entweder in einen Neutronenstern - eine rund 30 km große Kugel aus Neutronen - oder, bei noch massiveren Sternen, in ein Schwarzes Loch.

Je größer die Sternmasse ist, desto kurzlebiger ist der Stern: Bei sonnenähnlichen Sternen dauert die Entwicklung bis zum Weißen Zwerg rund zehn Milliarden Jahre, bei massereichen verstreichen nur einige zehn Millionen bis zur Supernovaexplosion. Sehr kleine Sterne mit nur ca. 0.1 Sonnenmasse verbrennen einige Billionen Jahre lang ganz allmählich den Wasserstoff in ihren Kernen, bis sie unspektakulär verlöschen.



Lebenslauf eines durchschnittlichen und eines massereichen Sterns (vereinfacht).


Ein weißer Zwerg besteht nun vorwiegend aus Kohlenstoff - und wegen seiner hohen Dichte lastet auf diesem ein enormer Schweredruck. Was passiert wenn Kohlenstoff enormen Drücken ausgesetzt ist? Genau, er kristallisiert in eine diamantartige Form! In den 1960ern wurde zum ersten Mal vermutet, dass Weiße Zwerge riesige Diamanten sein könnten. Doch wie ließe sich das nachprüfen? Sterne vibrieren innerlich, was sich durch Helligkeitsänderungen und Verschiebungen der Linien in ihren Spektren bemerkbar macht. Untersuchung der Schwingungen lässt indirekte Schlüsse auf die physikalischen Bedingungen in ihrem Inneren zu, ähnlich wie Seismologen aus tektonischen Erschütterungen auf die Struktur des Erdinneren schließen können. Daher nennt man die Untersuchung von Sternschwingungen auch Astroseismologie.

Im Jahr 2004 schlossen Antonio Kanaan und sein Team aus astroseismologischen Daten, dass der 50 Lichtjahre entfernte Weiße Zwerg BPM 37093 im Sternbild Zentaur zu rund 90% innerlich kristallisiert ist - ein Diamant von 1.1 Sonnenmassen! Das lässt den wertvollsten Diamanten auf der Erde, den Cullinan-Diamanten (3106.75 Karat ~ 621.35 g), im Vergleich äußerst mickrig erscheinen.


Kleinkram...


Kristallisierte Weiße Zwerge weisen allerdings nicht die kubisch-flächenzentrierte Kristallstruktur von irdischen Diamanten auf, sondern eine kubisch-raumzentrierte: Je ein Atomkern sitzt im Zentrum eines gedachten Würfels, dessen Ecken von je einem weiteren Kern gebildet werden. Zwischen den Kernen befindet sich eine Flüssigkeit aus entarteten Elektronen, deren Eigenschaften denen von Leitungselektronen in Metallen ähneln.


Kubisch-raumzentrierter Kristall


Ein noch merkwürdigeres Objekt ist PSR J1719-1438 b, das erst kürzlich, am 25.8.2011 entdeckt wurde. Es befindet sich in rund 4000 Lichtjahren Entfernung im Sternbild Schlange. Es handelt sich um eine Art Hybrid-Himmelskörper - ursprünglich Weißer Zwerg, inzwischen jedoch umgewandelt in einen Planeten! Wie das Kürzel "PSR" (Pulsating Source of Radio) sagt, umkreist er einen Neutronenstern: Diese wirken nämlich wie Radio-Leuchttürme. Von begrenzten Regionen auf ihrer Oberfläche senden sie intensive Radiostrahlenbündel aus, die durch die schnelle Rotation des Neutronensterns (das Zusammenschrumpfen auf winzige Größe beschleunigt die Rotation der ehemaligen Sternenkerne, ähnlich wie eine Eiskunstläuferin, die die Arme anzieht) rundum durch den Raum schwenken. Überstreicht das Radiobündel dabei die Erde, lassen sich periodische Signale empfangen. Neutronensterne, die sich so beobachten lassen, nennt man daher auch Pulsare.



Skizze eines Pulsars.
Die Radiowellen werden von den Magnetpolen ausgesandt.
Durch die Eigenrotation des Pulsars entsteht der Leuchtturmeffekt.


Manche Pulsare rotieren sogar besonders schnell: nach ihrer typischen Rotationsperiode bezeichnet man sie als Millisekundenpulsare. Zu diesen gehört auch PSR J1719-1438. Die rasche Rotation deutet darauf hin, dass der Pulsar nach der Supernova des Ursprungssterns noch durch äußere Einflüsse beschleunigt wurde. Was könnte das sein? Eine zweite Beobachtung liefert die Antwort. PSR J1719-1438 zeigt leichte Frequenzvariationen in seinen Radiopulsen. Das kann nur daran liegen, dass ein kleinerer Begleiter um ihn herumläuft und ihn periodisch um den gemeinsamen Schwerpunkt herumschleudert. Der Dopplereffekt erzeugt die Frequenzänderungen - zieht der Begleiter den Pulsar von uns weg, sinkt die Frequenz, zieht er ihn auf uns zu, steigt sie.

Der Begleiter muß also den Pulsar früher einmal "angestoßen" haben, um ihn auf die hohe Eigenrotationsfrequenz zu beschleunigen. Es muß Masse von ihm zum Pulsar geströmt sein. Bei dem Begleiter handelte es sich früher um einen normalen Stern, der jedoch masseärmer war als der Vorläuferstern des Pulsars, so dass es dessen explosives Ende überlebte. Irgendwann blähte sich der masseärmere Stern zum Roten Riesen auf. Die Gase von Roten Riesen sind aber nicht sehr stark gravitativ gebunden, zum einen aufgrund des großen Radius' des Sterns - je weiter Materie vom Schwerpunkt entfernt ist, desto schwächer ist die auf sie wirkende Schwerkraft - zum anderen durch den starken Strahlungsdruck. Die Gezeitenkräfte des Pulsars zogen den Roten Riesen auseinander, bis sich Gas von ihm löste und in einer Akkretionsscheibe auf den kleinen Neutronenstern herabstürzte. Das aufprallende Gas beschleunigte den Pulsar, bis er sich mit enormer Geschwindigkeit um sich selbst drehte.


Ein Roter Riese wird von den Gezeitenkräften eines Pulsars
zunächst in die Länge gedehnt. Dann beginnt Material hinüber-
zuströmen. Es bildet eine flache Akkretionsscheibe, in der es dem
Pulsar strudelartig immer näher kommt, bis es auf ihn stürzt.


Fast die gesamte Masse des Sterns wurde vom Pulsar fortgerissen, nur ein vergleichsweise winziger Rest aus Kohlenstoff blieb übrig, der mangels Masse und Fusionsreaktionen nicht mehr als Stern sondern als Planet eingestuft wird. Er hat etwa die Größe des Jupiter, ist aber rund 20 mal dichter. Er dürfte also aus kristallisiertem Kohlenstoff - diamantartigem Material - bestehen. Seine Umlaufbahn verläuft ganz nahe am Pulsar: Ihr Radius ist geringer als der unserer Sonne, und er durchläuft sie in nur 2.17 Stunden!



Eine Zeichnung von PSR J1719-1438.
Der zum Planeten gewordene Weiße Zwerg (die "b"-Komponente)
würde ihn, wenn man die Maßstäbe unseres Sonnensystems anlegt,
innerhalb der Sonne (gelb angedeutet) umlaufen.
Die weißblaue Schlangenlinie stellt die Radioemission des Pulsars dar.


Es gibt Hinweise darauf, dass es auch "normale" Planeten gibt, die ungewöhnlich kohlenstoffreich sind. Der Gasriese WASP-12b weist einen ungewöhnlich hohen Kohlenstoffgehalt in seiner Atmosphäre auf. Falls es in diesem System auch kleinere, erdartige Planeten gibt, so könnten diese aus Kohlenstofffels bestehen: Graphit oder Diamant. Ohne Zweifel würde es dort sehr schöne, aber auch fremdartige Landschaften geben.



Ein fiktiver Diamantplanet aus der TV-Serie "Dr. Who".


Trotz alledem braucht die De Beer-Group nicht zu fürchten, dass der Diamantpreis demnächst ins Bodenlose fällt. Die riesigen kosmischen Diamanten sind weit draußen im All fürs erste sicherer untergebracht als in jedem Tresor...


Weblink:

Das Originalpaper zu PSR J1719-1438b von Bailes et al. (pdf-Format)