Freitag, 27. Mai 2011

Der lange Weg zum Sternfeuer - Zukunftstechnologie Kernfusion (Teil 2)

Wie versucht man, die Fusion technisch umzusetzen?

Der verbreitetste Ansatz ist das sogenannte Tokamak-Prinzip, das in der ehemaligen Sowjetunion entwickelt wurde. Das Wort ist eine Abkürzung für "toroidal'naya kamera s magnitnymi katushkami" - torusförmige Magnetspulenkammer. Hier sieht man, wie das System aufgebaut ist:



Stark vereinfachtes Schema eines Tokamak. Man beachte,
wie sich die Magnetfeldlinien schraubenförmig um den
Fusionstorus wickeln.


Die ringförmig um das Reaktionsgefäß herumgelegten Spulen (orange) erzeugen ein Magnetfeld, das längs zum Torus verläuft. Zusätzlich induziert der durch das Zentrum des Torus' verlaufende Elektromagnet (grau) wie ein Transformator einen Strom im Plasma selbst, der ein kreisförmig um die Kammer verlaufendes Feld induziert. Die Felder addieren sich zu einem Gesamtfeld, das sich schraubenförmig um das Reaktionsgefäß wickelt und das Plasma eindämmt und komprimiert. Zusätzlich wird noch ein vertikales Magnetfeld zugeschaltet, mit dem sich das Plasma inenrhalb des Fusionstorus' steuern läßt.

An der Konstruktionsweise sieht man, dass ein Tokamak nur pulsweise betrieben werden kann: Transformatoren können ja nur mit Wechselstrom arbeiten, da nur ein sich änderndes Magnetfeld Strom induziert. Daher muss der Strom durch den großen Elektromagneten, der den Plasmastrom induziert, während des Betriebs ständig ansteigen - dies geht natürlich nicht beliebig weit, er wird immer wieder abgeschaltet und erneut hochgefahren. Einen sinusförmig oszillierenden Strom zu benutzen ist nicht möglich, da sich jeweils beim Maximum und Minimum die Richtung des Plasmastroms umkehren würde, wodurch das Magnetfeld kurzzeitig zusammenbräche.

Aufheizung des Plasmas ist auf verschiedene Arten möglich. Die ohm'sche Heizung erfolgt einfach über den Plasmastrom, ähnlich wie ein Kabel oder der Glühfaden einer Glühbirne durch den Strom erhitzt wird. Hiermit kommt man aber nicht bis zur angestrebten Temperatur von rund 100 Millionen Kelvin, da der elektrische Widerstand des Plasmas mit steigender Temperatur abnimmt und die ohm'sche Heizung dadurch ineffizient wird. Man benötigt also zusätzliche Heizmechanismen. Bei der Plasmaheizung durch Teilcheneinschuss werden neutrale Atome (meistens Deuteriumatome) in das Plasma geschossen. Sie müssen neutral sein, damit sie durch das einschließende Magnetfeld hindurchkommen. Da neutrale Teilchen nicht auf die erforderlichen Energien beschleunigt werden können, beschleunigt man zunächst Ionen mit einem elektrischen Feld und schickt diese durch ein Gas, in dem sie durch Ladungstransfer neutralisiert werden. Andere Möglichkeit sind die Aufheizung durch magnetische Kompression oder durch Mikrowellen. Mit Mikrowellen lassen sich auch Plasmaströme hervorrufen, so dass sich hier vielleicht eine Möglichkeit abzeichnet, einen Tokamak kontinuierlich, ohne Induktionsmagnet, zu betreiben.

Der weltweit größte Tokamak ist der JET (Joint European Torus) im englischen Culham. Seine Pulse dauern 20 bis 60 Sekunden. 1997 erreichte er eine Fusionsleistung von 16 MW, was einen Weltrekord darstellt. Das Verhältnis von freigesetzter zu eingebrachter Leistung lag bei 0.7. Nachfolgeprojekt ist das internationale Projekt ITER (International Thermonuclear Experimental Reactor) in Cadarache in Südfrankreich. Mit dem Bau wurde bereits begonnen, das erste Plasma soll gegen 2018 erzeugt werden. Ziel des Experimentes ist, zum ersten Mal mit der Fusion Energiegewinn zu erzielen und sie unter kraftwerksartigen Bedingungen ablaufen zu lassen. Falls ITER erfolgreich ist, soll im Laufe der 20er Jahre dieses Jahrhunderts das Versuchskraftwerk DEMO (DEMOnstration Power Plant) gebaut werden und gegen 2030 in Betrieb gehen.



Die Reaktionskammer des JET - links in abgeschaltetem Zustand,
rechts mit Plasma.


Eine andere Technik nennt man Stellarator. Hier wird das Einschließungsfeld nur über kompliziert angeordnete Spulen erzeugt, es ist kein Plasmastrom nötig. Ohm'sche Heizung ist daher nicht möglich, es kann nur über Teilchenstrahlen, magnetische Kompression oder Mikrowellen Energie zugeführt werden. Ein Vorteil gegenüber Tokamaks besteht darin, dass die Reaktion kontinuierlich ablaufen kann, es muss nicht gepulst werden. Allerdings sind Stellaratoren sehr kompliziert zu konstruieren - Anordnung und Form der Spulen müssen mit aufwändigen Computersimulationen ermittelt werden. Ein experimenteller Stellarator ist die Anlage Wendelstein 7-AS des Max-Planck-Instituts für Plasmaphysik in Garching bei München. Zur Zeit wird der größere Reaktor Wendelstein 7-X in Greifswald gebaut.



 Schema des Wendelstein 7-AS. Auffällig ist die komplizierte
Form und Anordnung der Feldspulen.


Die bisher geschilderten Verfahren beruhen alle darauf, dass das Lawson-Kriterium durch hohe Einschlusszeiten bei vergleichsweise niedrigen Drücken erreicht wird. Genau umgekehrt verfährt man bei der Laserfusion. Sie arbeitet vollständig anders: Ein gefrorenes Brennstoffpellet aus Deuterium und Tritium wird in eine Vakuumkammer geschossen, und dort allseitig von sehr starken Laserstrahlen getroffen, die es aufheizen. Die äußeren Schichten verdampfen explosionsartig und komprimieren dabei das Innere. Die Trägheit der Teilchen hält sie lange genug (einen winzigen Sekundenbruchteil) zusammen, dass Fusionsreaktionen eintreten können - man spricht daher von Trägheitseinschluss. Dieser Ansatz wird bei der National Ignition Facility des Lawrence-Livermore National Laboratory in den USA verfolgt.

Die British Interplanetary Society schlug interessanterweise vor, ein ähnliches System zum Antrieb einer interstellaren Raumsonde zu nutzen: Brennstoffpellets sollten in einer halbseitig offenen Reaktionskammer durch Elektronenstrahlen gezündet werden und dadurch Schub erzeugen. Ein zweistufiges Raumschiff mit diesem Antrieb müsste in der Lage sein, 12% der Lichtgeschwindigkeit zu erreichen.

Die Pellets sollten in diesem Fall aus Deuterium und Helium-3 (mit zwei Protonen und einem Neutron) bestehen. Sie reagieren nach der Gleichung:

d + 3He -> 4He + p + 18.3 MeV.

Da die Fusionprodukte hier alle geladen sind, können sie mit einem Magnetfeld nach hinten geschleust werden und so als Raketenantrieb wirken. Auf der Erde kommt 3He so gut wie nicht natürlich vor. Es existiert in geringen Mengen in der Mondkruste, jedoch in so niedriger Konzentration, dass sich ein Abbau kaum lohnt. Da es jedoch in den Atmosphären der Gasriesen sehr häufig ist, sah der Plan der British Interplanetary Society vor, es mit fliegenden Fabriken (zeppelinartig oder in Form thermonuklearer Ramjet-Flugzeuge) auf dem Uranus einzusammeln - der nähere Jupiter scheidet aus, da seine Gravitation zu stark ist, und beim Saturn würden die treibenden Trümmer der Ringe den Abbauprozess behindern. Kleinere Raketen, die mit Deuterium und Helium-3 betankt würden, sollten zwischen dem Uranus und der Erde hin- und her pendeln, einen Teil des Treibstoffs zur eigenen Beschleunigung nutzen, und den Rest im Erdorbit abliefern, wo er entweder für die große interstellare Rakete oder aber für irdische Fusionsreaktoren zur Verfügung stünde.

Diese Projektstudie, die den Namen "Project Daedalus" trug, wurde nun in überarbeiteter und erweiterter Form erneut zur Diskussion gestellt. Das neue Projekt trägt passenderweise den Namen Icarus - hier ein umfassender Artikel.


 "Project Daedalus" - ein unbemanntes Raumschiff mit gepulstem
Kernfusionsantrieb. Der Fusionsbrennstoff befindet sich in den
großen Kugeltanks. Die größere, untere Stufe wird abgesprengt,
sobald der Tankinhalt aufgebraucht wurde.


Es existieren noch Überlegungen zu weiteren, exotischeren Möglichkeiten, Fusionsreaktionen hervorzurufen.

Bei der sogenannten Sonofusion sollen durch Ultraschall winzige Dampfblasen in Wasser erzeugt werden, die bei ihrem Kollaps ausreichend hohe Drücke und Temperaturen entstehen lassen. Ob es wirklich möglich ist, auf diesem Weg Fusion auszulösen und sogar Energieüberschuss zu erzeugen, ist noch nicht klar.

Bei der myonenkatalysierten Fusion ersetzt man die Elektronen in den Atomhüllen durch Myonen - kurzlebige Teilchen, die den Elektronen ähneln, aber massereicher sind. Deswegen halten sie sich durchschnittlich viel näher am Kern auf und schirmen dessen Ladung ab, was das Verschmelzen der Kerne erleichtert. Nach der Fusion werden sie wieder freigesetzt und stehen für neue Reaktionen zur Verfügung, bis sie mit einer Halbwertszeit von 2 Mikrosekunden zerfallen. Es ist schon gelungen, auf diese Art Fusionsreaktionen auszulösen. Jedoch bleiben die Myonen manchmal am Reaktionsprodukt hängen und scheiden aus der Katalyse aus, was die Effizienz senkt. Ein weiteres Problem besteht darin, dass zur Erzeugung der Myonen in Beschleunigern hohe Energiemengen nötig sind. Einen Fusionsenergie-Überschuss hat man daher noch nicht erzielt.

Auf einem ganz einfachen Prinzip beruht das "Inertial Electrostatic Confinement" (IEC): Hier laufen die Kerne in einem elektrostatischen Feld hin und her, bis sie schließlich kollidieren und verschmelzen. Diese Fusionsreaktoren sind so simpel aufgebaut, dass man sie mit etwas handwerklichem Geschick prinzipiell zuhause konstruieren kann (ob man damit Energieüberschuss erzielt, ist eine andere Frage...). Das ursprüngliche, als "Farnsworth-Hirsch-Fusor" bekannte Konzept wurde von Robert Bussard zum sogenannten Polywell-Fusor weiterentwickelt: In diesem erzeugt eine polyedrische Anordnung von Magnetspulen ein Feld, in dem eine Elektronenwolke eingeschlossen ist. Die Kerne werden in diese Elektronenwolke geschossen. Da die negativen Elektronen die Kerne anziehen, bleiben sie in der Wolke gefangen (bzw. in ihrem Potentialtopf = engl. potential well), bis es zu Zusammenstößen und zur Fusion kommt.

Diese Technik wird heute von der "Energy Matter Conversion Corporation" mit der US Navy als Geldgeber experimentell untersucht. Aufgrund der Involvierung des Militärs sind die Resultate leider bislang geheim.

Robert Bussard ist übrigens auch für sein Konzept eines thermonuklearen Staustrahlantriebs für Raumschiffe bekannt geworden: Ein riesiger Magnettrichter soll das interstellare Gas anziehen und einem Fusionstriebwerk zuführen. Solche Konstruktionen liegen allerdings weit jenseits unserer heutigen technischen Möglichkeiten, nicht zuletzt, weil Trichter und Magnetfeld aufgrund der extrem geringen Dichte des interstellaren Mediums gigantische Ausmaße haben müssen. Carl Sagan kommentierte: "Wir sprechen hier von Schiffen so groß wie Planeten."

Interessant am IEC ist, dass man mit ihm auch schwerere Kerne als Deuterium und Tritium verschmelzen kann. Insbesondere bietet sich die Fusion von normalem Wasserstoff und Bor an:

p + 11B -> 4He (8.7 MeV)

Wie die oben beschriebene Deuterium-Helium-3-Fusion setzt diese Reaktion fast keine Neutronen frei - nur vereinzelte entstehen bei Nebenreaktionen. Man spricht daher auch von "aneutronischer Fusion". Die Reaktorhülle wird kaum aktiviert, es bleiben so gut wie keine radioaktiven Abfälle übrig. Falls sich das Konzept realisieren läßt, hätte man eine extrem saubere und sichere Energiequelle. Außerdem müsste die erzeugte Energie nicht wie bei Tokamaks und Stellaratoren erst in Form von Wärme abgeleitet werden, sondern die entstehenden Heliumionen könnten direkt genutzt werden, um elektrische Energie zu erzeugen.

Eine interessant Frage ist übrigens, weshalb diese Reaktion überhaupt Energie freisetzt - eigentlich bewegt man sich ja beim Schritt vom schwereren Bor zum leichteren Helium vom Eisen weg! Ein genauerer Blick auf die Bindungsenergiekurve zeigt jedoch, dass diese bei den leichteren Elementen einige Unregelmäßigkeiten aufweist. Das Isotop Bor-11 liegt auf der Bindungsenergiekurve unterhalb des sehr stabilen Helium-4:



Hier wächst die Bindungsenergie/Nukleon, anders als in der Grafik im
ersten Teil, von unten nach oben.


Daher kann auch bei dieser Reaktion Energie gewonnen werden. Das Proton vereinigt sich übrigens mit dem Bor-Kern für extrem kurze Zeit zu einem stark angeregten Kohlenstoffkern, der dann in die drei Heliumkerne zerplatzt. Aus diesem Grund spricht man bei der Reaktion zuweilen auch von "thermonuklearer Fission (Spaltung)" statt von Fusion.


Schema des Polywellfusors. Die roten Strahlen repräsentieren
die eingeschossenen Kerne, die grünen die Elektronen.


Eine Art Phantom, das immer wieder durch die Presse geistert, ist die sogenannte "Kalte Fusion". Hierbei sollen in schwerem Wasser (mit Deuterium statt normalem Wasserstoff), das über eine Palladiumelektrode geleitet wird, Fusionsreaktionen ablaufen, ohne dass hohe Temperaturen und Drücke involviert sind - das behaupteten zumindest im März 1989 die beiden Chemiker Martin Fleischmann und Stanley Pons. Ihre Ergebnisse konnten jedoch nie zuverlässig reproduziert werden. Es tauchen zwar gelegentlich Berichte über ähnliche Experimente auf, einer kritischen Überprüfung halten sie jedoch bislang nicht stand. Auch ist völlig unklar, wie das ganze überhaupt funktionieren soll, welcher Effekt dafür verantwortlich sein könnte, dass die Kerne sich nahe genug kommen, um die Potentialbarriere zu durchtunneln. Solange kein wiederholbares Experiment mit eindeutig erkennbarem Energieüberschuss vorliegt, werden die meisten Physiker davon ausgehen, dass die Erfolgsmeldungen auf Messfehlern beruhten, und die Kalte Fusion eine Ente ist.



Die kalte Fusion - höchstwahrscheinlich!



Von allen Fusionstechniken wird der Tokamak inzwischen für die vielversprechendste gehalten, da man mit ihm bisher dem Break-Even-Point (eingebrachte gleich freigesetzter Energie) am nächsten kam, und er den einfachsten Aufbau hat. ITER, das nächste große Fusionsexperiment, wird daher auch ein Tokamak sein.

Wie weit sind wir nun vom ersten Fusionskraftwerk entfernt? Seit den 60er Jahren des 20sten Jahrhunderts wird immer wieder angekündigt, dass der erste energieliefernde Fusionsreaktor in wenigen Jahren einsatzbereit sein würde. Viele Physiker waren allerdings vorsichtiger. Schon zu Beginn der Fusionsforschung erklärte Edward Teller (den man insofern als eine Art Michael Bay unter den Physikern ansehen kann, da er vorwiegend daran interessiert schien, mithilfe seiner kernphysikalischen Kenntnisse gewaltige Explosionen zu verursachen), Fusionsreaktoren würden frühestens zu Beginn des 21. Jahrhunderts zur Verfügung stehen. Folgende Grafik zeigt das relative Wachstum des Tripelproduktes (Teilchendichte * Einschlusszeit * Temperatur, eine Art erweitertes Lawson-Produkt) seit den ersten Fusionsexperimenten (hellblaue Linie):




Man sieht, dass das Produkt eine ähnliche Evolution durchlaufen hat wie die Rechenkapazität von Computern (gelbe Linie): Es verdoppelt sich alle 1.8 Jahre. Extrapoliert man die Gerade, auf der die Experimente sich in der halblogarithmischen Darstellung befinden, sieht man, dass ITER eine gute Chance haben sollte, in die unmittelbare Umgebung des Bereichs, in dem Energiegewinn möglich ist, zu gelangen.

Wenn das ITER-Experiment nun glückt und Fusionskraftwerke gegen Mitte des 21. Jahrhunderts bereit stehen - wie wären diese aufgebaut und was können wir von ihnen erwarten?

Ein Kraftwerk vom Tokamak-Typ hätte folgenden Aufbau:


Brennstoff wird in das Reaktionsgefäß in Form von Pellets aus Deuterium und Tritium eingebracht. Es ist außen von einer sogenannten Blanket umgeben, in dem die bei der Reaktion entstehenden Neutronen auf Lithium treffen. Im Gegensatz zu Deuterium kommt Tritium wegen seiner relativ kurzen Halbwertszeit von knapp über 12 Jahren nicht in der Natur vor: es muß im Reaktor selbst erbrütet werden, indem man die Neutronen mit Lithium reagieren lässt. Das entstehende Tritium wird abgeleitet und der Brennstoffversorgung zugeführt. Aus dem Plasma scheidet der Divertor ständig das Reaktionsprodukt Helium ab - quasi die "Asche" der Fusion. Dies ist übrigens ein sehr nützliches Endprodukt - wegen seines extrem niedrigen Siedepunktes ist Helium als Kühlmittel für die Hochtechnologie unverzichtbar, und natürliche Lagerstätten könnten daher demnächst zu Neige gehen. Im Gegensatz zu den Abfallprodukten der Kernspaltung wäre das der Kernfusion äußerst willkommen.

Die Wärmeenergie aus dem Reaktor wird durch ein Kühlmittel, das durch die Blanket strömt, abtransportiert. Wie in einem normalen Wärmekraftwerk erhitzt es Wasser, und der Dampf treibt eine Turbine, die einen Generator bewegt. Die Leistung des Kraftwerks entspricht der eines großen Kernspaltungs- oder Kohlekraftwerks: 1000 - 2000 MW.

Fassen wir die Vorteile eines Fusionskraftwerks zusammen:

* hohe Leistung pro genutzter Fläche.

* bedingungslos grundlastfähig.

* keine langlebigen radioaktiven Abfälle.

* Reaktion kann sich nicht verselbständigen: Bei Zusammenbruch der Magnetfelder stoppt die Fusion sofort.

* Selbst bei kompletter Zerstörung des Reaktors würde die austretende Tritiummenge wahrscheinlich nur eine Evakuierung in unmittelbarer Nähe des Kraftwerks erforderlich machen.

* Brennstoffe auf der Erde in großer Menge vorhanden (siehe unten).


Und die Nachteile:

* Wahrscheinlich hohe Bau- und Wartungskosten.

* Kurzlebige radioaktive Abfälle (vor allem die Ummantelung des Torus'; bei Wasserstoff-Bor-Fusion träte dieses Problem nicht auf).

* sehr zentralisierte Form der Energieerzeugung (dies trifft nicht auf Polywell-Fusoren zu, da man sie sehr kompakt bauen kann).


Die Vorteile überwiegen die Nachteile also deutlich! Falls ITER erfolgreich ist, sollten wir hoffen, dass die Kernfusion in der zweiten Hälfte des 21. Jahrhunderts einen wesentlich Beitrag zum "Energiemix" leistet. Allerdings stellt sich damit auch die Frage: Kann die Fusion als "erneuerbar" angesehen werden - sind die Rohstoffe in so großem Umfang vorhanden, dass sie auch in fernerer Zukunft noch zur Verfügung stehen?

Bezüglich Deuterium ist diese Frage leicht zu beantworten: Jede Tonne Wasser enthält 33 g Deuterium - somit existieren auf der Erde nahezu unendliche Vorräte.

Tritium muss, wie schon erwähnt, durch Neutronenbestrahlung aus Lithium erzeugt werden. Der begrenzende Faktor ist daher das Lithium. Wie häufig ist es auf der Erde? Die Weltreserven werden zu 9.5 Millionen Tonnen in Form von Erzen abgeschätzt. Wenn man diese alle zur Fusion nutzt, ließe sich 1000 Jahre lang eine Leistung von 2.5 * 10^12 Watt freisetzen. Verteilt auf 10 Milliarden Menschen ergäbe sich eine Leistung von 250 W pro Person, wesentlich weniger als der durchschnittliche europäische Individualverbrauch von rund 6000 W. Wollte man den gesamten Weltenergieverbrauch nur aus der Kernfusion decken, und allen Menschen einen hohen Lebensstandard gönnen, würden die Ressourcen nur knapp 42 Jahre reichen.

Lithium ist jedoch in wesentlich größerer Menge im Meerwasser enthalten - mit einer Konzentration von 0.17 ppm (parts per million): jede Tonne Meerwasser enthält 0.17 g Lithium. Damit ließe sich der gesamte Energieverbrauch einer auf europäischem Niveau lebenden Menschheit für viele Jahrhunderttausende decken.

Falls es gelingt, die reine Deuteriumfusion nutzbar zu machen (komplizierter als Deuterium-Tritium, weil das Lawsonprodukt höher ist, d.h. höhere Temperaturen und Drücke notwendig sind), dann stehen der Menschheit geradezu unvorstellbare Energieressourcen zur Verfügung. Bei einer Weltbevölkerung von 10 Milliarden ließe sich damit ein individueller Leistungsverbrauch von 7.5 MW (!) eine Million Jahre lang aufrecht erhalten, bzw. ein Verbrauch von 6000 W pro Person für über eine Milliarde Jahre.

Auch Bor für die Wasserstoff-Bor-Fusion ist im Meerwasser in nahezu unbegrenzter Menge vorrätig.

Die Kernfusion könnte also zu einer wichtigen, für menschliche Begriffe nahezu unbegrenzten Energiequelle der Zukunft werden! Experimente wie Wendelstein, JET und ITER sollten unbedingt von den Regierungen unterstützt werden. Wir werden Fusionskraftwerke brauchen, denn leistungsstarke, klimaneutrale Energiequellen sind notwendig, um die Armut zu bekämpfen, die Umwelt zu schützen, den Lebensstandard aller Menschen und den Automatisierungsgrad zu steigern.

Nichtsdestotrotz sollten wir natürlich auch andere erneuerbare Energieformen ausbauen, z. Bsp. Windparks, Solaranlagen, Geothermie und eventuell auch verbesserte Spaltungsreaktoren (Stichworte Thoriumfluorid- und Laufwellenreaktor)  - insbesondere für den Fall, das die Realisierung der Kernfusion noch auf unerwartete Schwierigkeiten trifft und die Fusionskraftwerke nicht so bald ans Netz gehen können wie erhofft.

Jedoch: egal wann, wo und wie das erste Fusionskraftwerk in Betrieb genommen wird - vergessen wir nicht, dass der mächtige und wunderbare Prozess, durch den schwerere Elemente aus leichteren entstehen, in der Natur schon seit dem Urknall abläuft, und auch wir Menschen aus nichts anderem bestehen als Fusionsasche. Die Tausende von Sternen, die man allein schon mit bloßem Auge am Nachthimmel sehen kann, sind die Fusionskraftwerke der Natur, die unablässig neue Elemente erbrüten und damit das Leben im Universum erst möglich machen.


Ein Himmel voller Fusionskraftwerke



Weblinks:






Mittwoch, 25. Mai 2011

Der lange Weg zum Sternfeuer - Zukunftstechnologie Kernfusion (Teil 1)

Unsere Welt ist aus den unterschiedlichsten chemischen Elementen aufgebaut. Mein Körper besteht vor allem aus Sauerstoff, Kohlenstoff, Wasserstoff, Stickstoff und Kalzium, sowie vielen Spurenelementen wie Phosphor, Kalium, Schwefel und Natrium. Die Schaltkreise des Computers, an dem ich diesen Text schreibe, sind aus dotiertem Silizium aufgebaut. Maschinen wie Autos und Flugzeuge bestehen zu großem Anteil aus Eisen, Aluminium, Titan und anderen Metallen.

Die meisten dieser Elemente waren bei der Entstehung der Erde schon vorhanden - fein verteilt in interstellarem Staub und Gas, aus denen die Körper des Sonnensystems über viele komplizierte Zwischenschritte kondensierten. Doch woher kamen Gasmoleküle und Staubpartikel? Die vereinten Anstrengungen von Astro-, Kern- und Teilchenphysikern haben im Laufe der letzten 100 Jahre zu einem weitgehend konzisen Bild der Materiekreisläufe in der Galaxis geführt, dem zufolge alle Elemente im Inneren von Sternen durch Kernreaktionen entstehen. Im primordialen Feuerball, aus dem der Kosmos wie wir ihn kennen hervorging, bildeten sich zunächst nur Wasserstoff und Helium, sowie geringe Anteile an Lithium, Beryllium und Bor. Alle schwereren Elemente sind Produkte nuklearer Prozesse, die unter hohen Drücken und Temperaturen tief im Herz der Sterne ablaufen. Massearme und mittelschwere Sterne wie die Sonne vermögen nur Helium aus Wasserstoff und Kohlenstoff aus Helium zu erbrüten. Massereichere erzeugen im Laufe ihres vergleichsweise kurzen, energiereichen Lebens alle Elemente bis hin zu Eisen.

Der Eisenkern weist von allen Elementen die höchste Bindungsenergie auf: Er ist am stabilsten, und gehört daher zu den häufigsten schweren Kernen im Universum. Leichtere Kerne kann man unter Energiegewinn zu schwereren verschmelzen - das ist die Energiequelle der Sterne. Schwerere als Eisen lassen sich unter Energiegewinn in leichtere spalten. Das Eisen ist quasi der "Meeresspiegel" der Kernphysik: Alle Prozesse, die Energie freisetzen, bewegen sich auf es zu - von der einen Seite durch Verschmelzung -  Fusion, von der anderen durch Spaltung - Fission.


Die Bindungsenergie pro Kernteilchen als Funktion
der Atommasse (sie nimmt entlang der senkrechten Achse
von oben nach unten zu). Am Minimum der Kurve befindet
sich das Eisen.


Wie entstehen dann in der Natur die Elemente, die schwerer sind als Eisen? Dies geschieht durch Neutroneneinfang, teils durch "langsamen Einfang" in den Hüllen gealterter roter Riesensterne, teils durch "schnellen" in Supernovae, den finalen Explosionen, die sehr schwere Sterne am Ende ihres Lebens zerreißen und Neutronensterne oder schwarze Löcher zurücklassen. Da Neutronen ungeladen sind, können sie problemlos in die positiven Kerne eindringen und Kernumwandlungen auslösen.

Während massive Sterne zum Schluß von Supernovaexplosionen gesprengt werden, werfen massearme ihre äußeren Schichten langsam ab, wodurch ein wunderschöner "planetarischer Nebel" entsteht (dieser hat nichts mit Planeten zu tun - er heißt bloß so, weil er in einem schwachen Teleskop vom Aussehen her entfernt an einen Planeten erinnert). Der Sternkern entwickelt sich zu einem kompakten weißen Zwerg, in dem keine Fusionsreaktionen mehr ablaufen und der daher allmählich auskühlt.


Der Katzenaugennebel, ein planetarischer Nebel im
Sternbild Drache. Im Zentrum erkennt man den
winzigen weißen Zwerg.
 Auch unsere Sonne wird in über 5 Milliarden Jahren einen planetarischen Nebel hervorbringen. In jedem Fall gibt der Stern einen Großteil seiner Materie, und der nuklear erbrüteten Elemente in der Form von Gas und sehr feinem Staub an das interstellare Medium zurück, wo sie sich allmählich verteilt. Unter bestimmten Bedingungen kann die Materie erneut komprimiert werden, und unter ihrer Eigengravitation zu Sternen und Planeten kollabieren. Im Fall der Sterne beginnt ein neuer Fusionskreislauf, im Fall der Planeten unter günstigen Umständen das Wunder der Evolution und des Lebens.


Der Orionnebel, ein Sternentstehungsgebiet. In den dunklen
Wolkenfragmenten bilden sich aus fein verteiltem Gas und Staub
neue Sterne, deren Strahlung das Wasserstoffgas im Zentrum
des Nebels zu rötlichem Leuchten anregt. 


Leben braucht Energie, und die kommt wiederum aus Fusionsreaktionen im Inneren des Zentralsterns des Planetensystems (es wird jedoch diskutiert, ob in Ozeanen unter den Eispanzern von Gasriesenmonden auch Leben auf der Basis vulkanischer Energie existieren könnte). Die Entwicklung einer technologischen Zivilisation erfordert sogar noch viel mehr Energie. Die Menschheit nutzt dafür im Augenblick vorwiegend fossile Energieträger, in denen Sonnenenergie gespeichert ist, die Pflanzen vor Jahrmillionen assimiliert haben, sowie die Spaltung schwerer Atomkerne (vorwiegend Uran, vereinzelt auch Thorium) und zu einem kleineren Anteil macht sie mit Wasserkraftwerken, Solaranlagen und Windparks die eingestrahlte Sonnenenergie direkt nutzbar. In einigen Regionen steht auch Geothermie zur Verfügung - die Ausnutzung von Erdwärme, bei der es sich teilweise um die potentielle Energie des Materials der Erde in ihrem eigenen Schwerefeld handelt, mehrheitlich aber um die Zerfallswärme von radioaktiven Elementen im Erdinneren.

Alle diese Energieformen stammen letztlich aus Sternen - im Fall der fossilen Energieträger und der erneuerbaren Energien (außer der Erdwärme) aus der Sonne, bei Kernenergie sowie der Erdwärme aus anderen Sternen vorangegangener Generationen: Die radioaktiven Kerne wurden in massiven, gealterten Sternen durch Neutroneneinfang erzeugt, die potentielle Energie im Inneren der Erde wurde ursprünglich bereitgestellt, als das Material, aus dem die Erde entstand, von einer früheren Sterngeneration in den Weltraum geschleudert und verdünnt wurde - dadurch, dass es sich in seinem eigenen Schwerefeld ausdehnte, nahm es Energie auf, wie Wasser, dass in ein hochgelegenes Reservoir gepumpt wird. Als es sich wieder zusammenzog und Planeten bildete, wurde diese Energie wieder frei, in der Form von Wärme, die nun im Erdinneren gespeichert ist.

Woher wir sie auch nehmen - unsere technische Zivilisation und der damit verbundene hohe Lebensstandard beruht auf der Verfügbarkeit von viel billiger Energie. Wir wissen jedoch, dass unsere Hauptquelle - die fossilen Träger - nur begrenzt vorhanden sind und irgendwann zur Neige gehen. Vermutlich zuerst das Öl, dann das Erdgas, zuletzt die Kohle. Hinzu kommt, dass mit recht hoher Wahrscheinlichkeit das Erdklima durch den fortgesetzten Ausstoß von Kohlendioxid destabilisiert wird. Es scheint also sinnvoll, sich nach alternativen Quellen umzusehen.

Auch Uran ist nur begrenzt vorhanden - jedenfalls in Form von Uranerz in Gesteinen. In den Ozeanen sind jedoch riesige Mengen an Uranoxid gelöst. In Japan wurden bereits Anlagen zur Uranextraktion aus dem Meerwasser erfolgreich getestet. Thorium wurde bisher kaum abgebaut, und ist mindestens dreimal häufiger in der Erdkruste als Uran (im Meer findet sich allerdings keines, da Thoriumoxid nicht wasserlöslich ist).

Manche Menschen -  in Deutschland sogar die Mehrheit - haben jedoch große Bedenken bezüglich der Kernspaltung: Bei einem Unfall könnten radioaktive Substanzen austreten, und es entsteht dabei strahlender Abfall, der auf extrem lange Zeit (einige 1000 Jahre) sicher gelagert werden muß.

Daher setzen zur Zeit viele vor allem auf die erneuerbaren Energien. Diese sind nicht nur praktisch unbegrenzt vorhanden, sie sind auch CO_2-neutral, und bergen keine radioaktiven Risiken. Sie weisen jedoch den Nachteil einer hohen Diffusivität auf: Damit bedeutende Mengen an an Sonnen- oder Windenergie gesammelt werden können, müssen sehr große Flächen nutzbar gemacht werden.

Ob sich die Kernspaltung sicher durchführen lässt, möchte ich an dieser Stelle nicht diskutieren. Es sei nur bemerkt, dass Reaktordesigns existieren, die viele der Gefahren der vorhandenen Kraftwerke nicht aufweisen, insbesondere der Thoriumfluoridreaktor und der (bisher allerdings nur auf dem Reißbrett existierende) Laufwellenreaktor. Diese können auch den schon vorhandenen Atommüll weiter nutzen und ihn unter Energiegewinn in kurzlebigere Nuklide transmutieren, die nur noch ca. 300 Jahre lang riskant sind - und auch in wesentlich geringerer Menge anfallen. Vielleicht spendiere ich diesen Reaktordesigns irgendwann einen eigenen Artikel - hier soll es um eine noch völlig ungenutzte Möglichkeit der Energieerzeugung gehen: die widerspenstige Kernfusion.

Die Fusion leichter Atomkerne ist aus verschiedenen Gründen sehr verlockend: Ihre Rohstoffe sind in großem Umfang auf der Erde vorhanden, es kann nicht zur katastrophalen Freisetzung radioaktiver Substanzen kommen, es fallen wenn überhaupt nur extrem geringe Atommüllmengen an und sie erlaubt die Erzeugung großer Energiemengen auf sehr kleinem Raum - damit entfallen sowohl die Nachteile der fossilen Energie, wie auch die der Kernspaltung und der klassischen erneuerbaren Energien.

Ein Problem stellt sich jedoch bisher ihrer Nutzung entgegen: Sie ist extrem schwierig kontrolliert herbeizuführen. Unkontrollierte, explosive Fusionsreaktionen wurden schon in den 1950er Jahren in Wasserstoffbomben realisiert. In ihnen erzeugt eine normale Spaltungs-Atombombe die nötigen Drücke und Temperaturen, um die Fusion von Deuterium und Tritium zu zünden. Den Prozess jedoch langsam und gesteuert in einem Reaktionsgefäß ablaufen zu lassen, erwies sich als wesentlich größere Hürde. Die Schwierigkeit ist in der Tat so groß, dass sie bisher über das experimentelle Stadium nicht hinausgekommen ist, und fast immer noch mehr Energie verbraucht als sie freisetzt. Lediglich der Break-Even-Point (eingebrachte gleich freigesetzte Energie) wurde vereinzelt für sehr kurze Zeitspannen erreicht.

Hinter diesen Schwierigkeiten verbirgt sich allerdings auch ein wesentlicher Vorteil der Fusionreaktoren: Weil die Reaktion so kompliziert auszulösen ist, kann sie nie außer Kontrolle geraten. Sobald der Reaktor irgendwie beschädigt wurde oder sich die physikalischen Bedingungen auch nur geringfügig geändert haben, hört die Fusion augenblicklich auf.

Sind Durchbrüche in Aussicht, die es uns erlauben werden, das Sternfeuer zu bändigen? Schauen wir uns zunächst das Prinzip der Kernfusion an.

Der Grund, warum die Fusion so "störrisch" ist, liegt einfach darin, dass alle Kerne positiv geladen sind, und sich daher gegenseitig abstoßen. Um sie verschmelzen zu lassen, muss diese Abstoßung überwunden werden. Hierzu müssen sie mit hoher Geschwindigkeit zusammenstoßen. Sind sie sich bis auf einige Bruchteile eines Picometers (10^-12 m) nahe gekommen, kann die Abstoßung durch den Tunneleffekt "überlistet" werden: Elementarteilchen sind keine exakt lokalisierbaren Objekte wie Billiardkugeln sondern ähneln, quantenmechanisch betrachtet, eher einem ausgedehnten Wellenzug, innerhalb dessen das Teilchen überall mit einer gewissen Wahrscheinlichkeit auftauchen kann. Je höher die Wellenamplitude an einem bestimmten Ort ist, desto größer ist die Wahrscheinlichkeit, dass das Teilchen dort erscheint. Sobald sich die Kerne nahe genug sind, reichen ihre Wahrscheinlichkeitswellen jeweils ein Stück weit in den jeweils anderen Kern hinein, so dass sie unter der abstoßenden elektrischen Kraft "hindurchschlüpfen" können. Sobald dies erfolgt ist, übernimmt die kurzreichweitige, anziehende Kernkraft und die beiden Kerne verschmelzen.


Veranschaulichung des Tunneleffektes: In der klassischen Physik
muss der Stein über den Berg gerollt werden. In der Quanten-
physik schlüpft er unter ihm hindurch.


In Teilchenbeschleunigern ist es problemlos möglich, Kerne zu fusionieren. Jedoch lässt sich so keine Energie erzeugen, da die zum Beschleunigen aufgewendete Leistung viel höher ist als die freigesetzte. Man versucht daher, die Kerne in einem heißen, ionisierten Gas (einem Plasma) kollidieren zu lassen. Dieses muss ausreichend stark komprimiert werden, und auch ausreichend lange komprimiert bleiben, damit genügend Kernzusammenstöße stattfinden. Da die benötigten Temperaturen höher sind als der Siedepunkt aller Materialien (mehrere 100 Millionen Kelvin), müssen andere Methoden gefunden zu werden, um das Plasma einzuschließen. Eine verbreitete Methode besteht darin, es mit einem geeignet geformten Magnetfeld zu umhüllen.

Welche Reaktionen und Ausgangsstoffe kommen für die kontrollierte Fusion in Frage? In der Sonne reagieren Protonen (leichte Wasserstoffkerne) zu Helium. Dies erfolgt in mehreren Schritten:

p + p -> d + e+ + neu (0.42 MeV)
p + d -> 3He + gamma (5.49 MeV)
3He + 3He -> 4He + p + p (12.86 MeV).

Hier steht p für ein Proton, d für ein Deuteron (schwerer Wasserstoffkern aus einem Proton und einem Neutron), 3He für einen leichten Heliumkern mit zwei Protonen und einem Neutron, 4He für einen normalen Heliumkernen mit je zwei Protonen und Neutronen, e+ für ein Positron (das positiv geladene Antiteilchen des Elektrons), neu für ein Neutrino (ein sehr leichtes Teilchen, das kaum mit Materie reagiert) und gamma für ein Gammaquant (kurzwellige elektromagnetische Strahlung, quasi extrem energiereiches Licht). In Klammern hinter der Reaktion steht die freigesetzte Energie. Es existieren noch andere Reaktionsketten sowie der sogenannte CNO-Zyklus, bei dem ein Kohlenstoffkern als Katalysator dient. Dieser spielt jedoch nur in schwereren Sternen als die Sonne eine wesentliche Rolle.

So verlockend es wäre, die allgegenwärtigen Wasserstoffkerne als Fusionsbrennstoff zu nutzen - bei den auf der Erde erreichbaren Drücken läuft diese Reaktion viel zu langsam ab. Man versucht daher andere, schwerere Kerne als Ausgangsstoff zu nutzen. Angestrebt werden vor allem folgende Reaktionen:

d + t -> 4He + n (17.59 MeV)

und

d + d -> t + p (4.03 MeV)
d + d -> 3He + n (3.27 MeV)

wobei t für einen Tritiumkern steht (überschwerer Wasserstoff mit einem Proton und zwei Neutronen) und n für ein Neutron.  Die pro Nukleon (Kernteilchen - Proton oder Neutron) und damit pro kg Brennstoff freigesetzte Energie ist hier mehr als dreimal größer als bei der Kernspaltung. Da die Fusion jedoch bei leichten Kernen erfolgt, und die Spaltung bei sehr schweren, ist die pro Kernreaktion freigesetzte Energie geringer. Hier zeichnet sich ein gewisser Nachteil der Kernfusion ab: Ein Fusionsreaktor erzeugt bei gegebener Leistung wesentlich mehr Neutronen als ein herkömmlicher Spaltungsreaktor. Das Reaktionsgefäß und die Ummantelung müssen also so ausgelegt sein, dass sie mit starken Neutronenflüssen fertig werden und sich die Materialeigenschaften dadurch nicht verschlechtern.

Wenn man wissen will, wieviel Energie bei einer bestimmten Kernreaktion freigesetzt wird, zieht man einfach die Masse der Produktteilchen von der der Ausgangsteilchen ab. Die Massendifferenz wird nach Einsteins berühmter Formel E=mc^2 in Energie umgewandelt - es ergeben sich 931.494 MeV pro atomarer Masseneinheit (Formelzeichen u, entspricht in etwa der Masse eines Protons). Die Massen einiger Kerne lassen sich in dieser Tabelle nachlesen.

Für die erste Reaktion - die Deuterium-Tritium-Fusion - errechnet man beispielsweise:

(2.0135536 u [d] + 3.015501 u [t] - 4.0015065 u [4He] - 1.008665 [n]) * 931.494 MeV/u = 17.59 MeV

Dies ist auch die Reaktion, die bisher am intensivsten erforscht wurde, da sie von allen Fusionsprozessen am leichtesten zündet. Damit aus ihr Energie gewonnen werden kann, muss das Produkt von Teilchendichte und Einschlußzeit einen bestimmten Mindestwert überschreiten. Dies nennt man das Lawson-Kriterium. Es ergibt sich daraus, dass die freigesetzte Leistung Pf größer werden muss, als die zum Aufheizen des Plasmas benötigte Leistung Ph:

Pf > Ph

Ph ist der Gasmasse und damit der Teilchendichte n direkt proportional: Ph = Ch * n, mit einer Konstanten Ch. Pf ist sowohl der Einschlußzeit t wie auch dem Quadrat von n proportional: Pf = Cf * t * n^2. Das folgt daraus, dass sie einerseits mit der Anzahl vorhandener Teilchen, andererseits mit der Kollisionsrate wächst. Es ergibt sich:

Cf * t * n^2 > Ch * n

und daraus:

n * t > Ch / Cf.

Das Produkt auf der rechten Seite hängt von der Temperatur ab. Folgende Grafik zeigt, wie sich das Lawson-Kriterium für verschiedene Reaktionen mit der Temperatur ändert:

Das Lawsonprodukt n*t als Funktion der Temperatur


Bei der d-t-Fusion muss für eine Temperatur von einigen 10^8 K also n*t mindestens bei ca. 10^20 s*m^-3 liegen, damit der Reaktor mehr Leistung liefert als er aufnimmt.

Zum Zünden der Fusion müssen also drei Bedingungen erfüllt werden:

* Die Dichte muss ausreichend hoch sein.

* Das Plasma muss ausreichend lange eingeschlossen bleiben.

* Die Temperatur muss hoch genug sein.


Die ersten beiden, durch das Lawson-Kriterium ausgedrückten Bedingungen, lassen sich entweder durch vergleichweise niedrige Dichten bei hoher Einschlusszeit, oder durch hohe Dichten bei niedriger Einschlusszeit erreichen.

Im zweiten Teil dieses Artikels werde ich Experimente beschreiben, bei denen die praktische Umsetzbarkeit der Fusion untersucht wird, und auf technische Aspekte von Fusionskraftwerken eingehen.

Dienstag, 17. Mai 2011

BGE - die Crux mit der Preisexplosion

Wenn man sich mit Menschen über das Bedingungslose Grundeinkommen (BGE) unterhält, tauchen bald viele Fragen auf. Die verbreitetsten sind vermutlich: Würde dann überhaupt noch jemand arbeiten? Ist es moralisch vertretbar, Geld ohne Gegenleistung zu verteilen? Wie soll das finanziert werden? Diese Fragen wurden bereits von verschiedenen BGE-Befürwortern recht ausführlich beantwortet.

Eine seltenere - aber immer wieder auftauchende - Frage lautet: Was passiert mit den Preisen? Hierauf sind die verschiedenen BGE-Initiativen bisher nur sehr sporadisch eingegangen.

Etwas ausführlicher formuliert lautet der Einwand: Wenn ein BGE von z. Bsp. 1000 Euro an alle Bundesbürger ausgezahlt wird, werden die Anbieter von Waren und Dienstleistungen die Preise entsprechend anheben. Bisher war der ALG-II-Satz die Mindestsumme, die jedem Konsumenten zur Verfügung stand (zumindest theoretisch...). Wird durch BGE-Einführung jedem eine höhere Kaufkraft gegeben, werden die Preise automatisch anziehen, und zwar solange, bis das ausgezahlte BGE wieder nur soviel wert ist wie das bisherige ALG-II. Dann müsste das BGE erhöht werden, die Preise ziehen wieder an, es muss weiter erhöht werden, usw... - auf diese Weise würde in kurzer Zeit eine Hyperinflation gezündet.

Wir sollten uns also die Frage stellen, wie sich dieses Problem beheben ließe.

Eine einfache Lösung könnte von den Anbietern selbst kommen. Wenn alle die Preise anheben, wird ein einzelner Händler, der dabei nicht mitmacht und seine Waren zum bisherigen Preis anbietet, einen enormen Umsatz machen, da alle nur noch bei ihm kaufen werden. Dadurch werden die anderen Anbieter gezwungen, ihre Preise zu senken, und zwar noch unter das Niveau desjenigen, der bei der Erhöhung nicht mitgemacht hat: Es folgt ein Preiswettlauf nach unten, der solange weiterläuft, bis die Gewinnsteigerung durch Verbilligung des Angebots durch die Verringerung der Einnahmen pro verkauftem Produkt kompensiert wird.

Dies kann funktionieren - muss aber nicht: Zum einen könnten die Anbieter einer ganzen Region im Hinterzimmer Preisabsprachen treiben, was zwar prinzipiell illegal, aber in der Praxis möglicherweise schwer nachzuweisen wäre. Zum anderen existieren bestimmte Güter, nach denen die Nachfrage so groß ist, dass jeder Anbieter sein Produkt los wird egal wie teuer oder billig das Produkt der Konkurrenz ist. Ein naheliegendes Beispiel ist die Wohnungssituation in Jena: Auf Grund der hohen Studentenzahlen herrscht in der Stadt chronischer Wohnungsmangel. Hier könnten die Vermieter die Mieten fast beliebig hoch schrauben, sie würden dennoch für jeden Dachboden und jede Hundehütte einen Mieter finden. Auch wenn ein bestimmter Vermieter sehr billigen Wohnraum anbieten würde (z. Bsp. das Studentenwerk) - die Konkurrenten könnten ihre Mieten so hoch lassen wie sie sind, es fänden sich dennoch problemlos Kunden. In diesem Fall funktioniert der oben genannte Mechanismus nicht.

Eine andere, "härtere" Methode zur Bekämpfung der Preisexplosion wären gesetzlich vorgeschriebene Maximalpreise. Sobald die Rechtslibertären reanimiert worden sind, können wir mit dem Artikel fortfahren... Ohne Sarkasmus: Sehr viele, nicht nur die Rechtslibertären, würden solche Preisvorschriften als kommunistische Diktatur empfinden. Man muss sich jedoch fragen, was denn nun "diktatorischer" ist: Wenn Firmen sich inoffiziell miteinander bezüglich der Verkaufspreise absprechen, oder wenn eine demokratisch gewählte Regierung bestimmt, zu welchem Preis ein gegebenes Produkt maximal verkauft werden darf. In manchen Bereichen existieren derartige Vorschriften ohnehin bereits (Wikipedia: Mietwucher).

Ich denke, jeder von uns kann damit leben, dass der Staat bestimmte Kontrollen ausübt und Vorschriften verhängt. Ich darf nicht um drei Uhr nachts auf der Straße Sousaphon spielen, ich bin verpflichtet, jemandem zu helfen, der einen Unfall hat, ich darf keinen Giftmüll in einem Naturschutzgebiet vergraben. Solche Gesetze sind moralisch unmittelbar einsehbar und für jeden als sinnvoll erkennbar. Wären nun gesetzlich geregelte Maximalpreise vom Standpunkt der Ethik her nicht letztlich genauso sinnvoll? Sie würden existieren, um zu verhindern, das Preissteigerungen zur Geldentwertung führen, und würden so einen Beitrag zur Sicherung des Wohlstands aller leisten.

Bei der Umsetzung eines solchen Gesetzes würden jedoch vermutlich gewaltige Komplikationen auftreten. Zuallererst müsste mit immensem Aufwand ein "Preiskatalog" erstellt werden, in dem für jedes einzelne Produkt (oder zumindest für jede Produktgruppe) ein Maximalpreis definiert wird. Dieser Katalog müsste zusätzlich noch alle paar Jahre überarbeitet und der momentanen Wirtschaftslage angepaßt werden. Anschließend müssten in regelmäßigen Abständen sämtliche Firmen und Anbieter überprüft werden, wodurch eine gigantische Bürokratie (und vermutlich einiges an Korruption) entstünde. Und staatliche Überwachungsbeamte, die auf Kontrollexpeditionen gehen, rufen wohl nicht nur bei mir unangenehme Assoziationen wach.

Gegen letzteres läßt sich natürlich einwenden, dass der Staat nicht notwendigerweise selbst zu prüfen braucht: Es würde ja genügen, dass die Verbraucher einen Anbieter bei einer dafür zuständigen staatlichen Stelle melden, wenn dieser seine Waren zu teuer verkauft. Das Problem eines enormen bürokratischen Aufwands verschwindet dadurch jedoch nicht. Möglicherweise würde sogar die Vereinfachung des Sozialwesens, die das BGE verspricht, dadurch zunichte gemacht: Die aufgeschwemmte "Bloatocracy", zu der der Sozialstaat sich entwickelt hat, verschwände zwar nach BGE-Einführung, dafür entstünde ein neuer Bürokratiekoloss, der sich nun allerdings mit Preisbegrenzung beschäftigt.

Wie ließe sich das Problem also lösen?

Kommen wir nochmal auf den ersten Ansatz zurück: Freiwillige Preisbegrenzung durch die Anbieter. Eine Motivation hierfür habe ich schon genannt: Umsatzsteigerung, indem Kunden durch billige Angebote geworben werden. Es könnte jedoch noch eine andere geben: Soziales Engagement der Unternehmer selbst. Viele Anbieter würden bei BGE-Einführung die Preise aus Überzeugung nicht übermäßig anheben. Der Drogeriekonzern DM würde das Konzept mit Sicherheit unterstützen, da der Firmengründer Götz Werner begeistert hinter dem BGE steht und es überhaupt erst in Deutschland auf breiter Front bekannt gemacht hat, und ihm daher nicht durch Preissteigerung das Wasser abgraben wollen. Gleiches gilt mit hoher Wahrscheinlichkeit für zahlreiche andere Unternehmen, die sich für sozial fortschrittliche Ideen stark machen.

Man sollte also versuchen, möglichst viele Firmen und Unternehmer für die BGE-Idee zu interessieren! Im Laufe der letzten Jahre hat sich das Konzept von einem exotischen gesellschaftlichen Gegenentwurf zu einem weitbekannten sozialpolitischen Ansatz entwickelt. Wenn erst ein großer Anteil der Unternehmer hinter der Idee steht, verliert das Risiko der Preisexplosion an Bedeutung: Die Anbieter werden die Preise allein deshalb nicht erhöhen, weil sie ein Sozialsystem unbeschädigt lassen wollen, das sie selbst unterstützen und geholfen haben aufzubauen und das nicht zuletzt auch Vorteile für sie mit sich bringt.

Zusätzlich käme natürlich nach wie vor der Wettbewerbsvorteil durch niedrigere Preise hinzu.

Erfahrungsgemäß ist es übrigens wesentlich einfacher, Millionäre oder Milliardäre für das BGE zu begeistern als z. Bsp. mittlere Angestellte. Steve Jobs und Richard Branson würden sich möglicherweise sofort engagiert hinter das Konzept stellen, wenn man sie dazu brächte, sich damit zu beschäftigen. Unternehmer als Unterstützer zu gewinnen könnte ein geringeres Problem sein, als man auf Anhieb denken würde.

Fazit: Eine breite Unterstützung des BGEs durch die Unternehmen selbst wäre vermutlich die beste Absicherung dagegen, dass es durch die Unternehmen zerstört wird!

Ich würde mich übrigens über ein paar Kommentare zum Text von Leuten freuen, die mehr von Wirtschaft verstehen als ich.

Dienstag, 10. Mai 2011

Wohin zuerst fliegen?

Jede Reise beginnt mit dem ersten Schritt - bevor man diesen unternimmt, sollte man sich allerdings zuerst überlegen, wo man eigentlich hin möchte.

Als John F. Kennedy 1962 seine berühmte Ansprache hielt, war das Ziel klar: Der Trabant der Erde, der Mond! Die Natur hat es uns in dieser Hinsicht leicht gemacht, einen ersten Schritt in den Kosmos hinaus zu wagen - sie hat uns einen fast planetengroßen Körper quasi vor die Haustür gelegt. Man fühlt sich ein wenig an die Plattformen erinnert, die vor manchen Badestränden im tieferen Wasser verankert sind. Hier können frischgebackene Schwimmer ihr Können erproben und zu einem unübersehbaren Ziel schwimmen, ohne sich gleich auf den Weg bis zur nächsten Insel machen zu müssen.

Heutzutage ist die Situation etwas kniffliger. Dass Menschen erfolgreich auf dem Mond landen und zurückkehren können, haben amerikanische Astronauten mehrfach unter Beweis gestellt. Die Frage lautet also, wohin als nächstes? Welche Himmelskörper sollten Menschen in den kommenden Jahren und Jahrzehnten anvisieren?

Schauen wir uns also erstmal an, welche Objekte sich in der näheren und ferneren Umgebung der Erde befinden.


1. Der altbekannte Mond!


Eugene A. Cernan (Apollo 17) mit dem Rover auf 
dem Mond. Bild: NASA (via Wikimedia Commons)

Von allen Körpern in unserem Sonnensystem ist er der Erde am nächsten (abgesehen von Kleinkörpern, die von Zeit zu Zeit innerhalb der Mondbahn auftauchen). Die Idee, zu ihm zurückzukehren, wurde von Alfred E. Neumann George W. Bush 2004 in seiner nach dem Columbia-Unglück formulierten "Vision for Space Exploration" als Ziel der amerikanischen Raumfahrt festgelegt (dies war übrigens so gut wie das einzige Mal, dass Dubya sich zum Thema Raumfahrt äußerte). Auch China und Indien spielen mit dem Gedanken, eigene Raumfahrer auf den Mond zu schicken - im Fall Chinas ist dies bereits ziemlich konkret für die 2020er beschlossen. Während es für die neue asiatische Großmacht wohl eher eine Demonstration von Stärke und technologischem Können sein wird - wie für die USA in den 1960ern und '70ern - stellt sich im Falle Amerikas die Frage, weshalb man den gleichen Körper nochmal besuchen sollte. Das "Apollo-Syndrom" - landen, einige Experimente durchführen, Proben entnehmen, Flagge aufstellen, wieder abreisen - sollte sich nicht wiederholen: Wenn man den Mond erneut besucht, sollte das Ziel sein, dort längerfristig zu verweilen und eine Basis aufzubauen, in der zukünftig Menschen wohnen, arbeiten, experimentieren und eventuell Rohstoffe abbauen können.


2. Mars


Der Mars, aus dem Orbit von Viking (1976) aufgenommen.

Er ist wahrscheinlich der bekannteste Planet unseres Sonnensystems und im öffentlichen Bewußtsein durch zahllose Filme, Romane u. ä. als "nächstes Ziel der Menschheit" fest verankert. Einen bemannten Marsflug könnte man der Öffentlichkeit daher vermutlich besonders leicht "verkaufen" - jeder weiß so mehr oder weniger, was der Mars ist oder kann sich zumindest etwas darunter vorstellen. Auch Bushs "Vision for Space Exploration" sah ihn als nächstes Ziel nach der Rückkehr zum Mond vor. Nachdem Barack Obama im Jahr 2010 erklärte, dass sich in Zukunft private Unternehmen verstärkt an der Raumfahrt beteiligen sollten, verkündete der Unternehmer Elon Musk vor kurzem, seine Firma SpaceX werde bis 2020 einen Menschen auf dem Mars landen lassen und den Aufbau einer ständig bemannten Marskolonie vorbereiten.


3. Deimos und Phobos (die Marsmonde)

Eine interessante Alternative zu einer direkten Landung auf dem roten Planeten wäre ein Besuch der beiden winzigen Marsmonde. Da diese extrem wenig Masse aufweisen, wäre eine Landung hier mit bedeutend weniger Treibstoff durchführbar. Von den Monden aus könnten Astronauten Roboter auf der Marsoberfläche in Echtzeit steuern, ohne minutenlange Signallaufzeiten in Kauf nehmen zu müssen.

Die geplante russische (unbemannte) Fobos-Grunt-Mission soll zum ersten Mal auf einem Marsmond landen und Material zur Erde zurückbringen.


4. Venus


Die Venus (NASA). Die Wolkendecke besteht u. a.
aus Schwefelsäure, auf der Oberfläche herrschen
höllische Bedingungen. Der Name der römischen
Liebesgöttin scheint hier etwas unangemessen.

Eine fast vergessene Alternative zum Mars! Aufgrund der mörderischen Bedingungen auf der Venusoberfläche - 90 Bar Druck, 480 Grad Celsius - wäre jedoch nur an einen Vorbeiflug zu denken, eine Landung wird in absehbarer Zukunft technisch kaum durchführbar sein. Möglicherweise wäre es jedoch denkbar, mithilfe von Ballons oder zeppelinartigen Fluggeräten in die Hochatmosphäre der Venus vorzudringen.

In den 1960ern überlegte die NASA, die Hardware des Apollo-Programms zu nutzen, um Astronauten auf eine Flyby-Mission zur Venus zu schicken. Dies wurde jedoch nicht durchgeführt.


5. Erdnahe Asteroide


Kein Schuh, der erste entdeckte erdnahe Asteroid:
433 Eros.

Viele Asteroide kommen auf ihrem Umlauf um die Sonne der Erde relativ nah, so zog zum Beispiel 4179 Toutatis im Jahr 2004 in nur vier Mondbahnradien Entfernung an der Erde vorbei. Im November dieses Jahres wird der Asteroid 2005 YU55 sich der Erde sogar bis auf 325 000 km annähern - dies liegt bereits innerhalb der Mondbahn! Die Landung auf diesen Körpern wäre, ähnlich wie bei den Marsmonden, mit sehr geringen Treibstoffmengen möglich. Die Tatsache, dass viele Asteroide extrem reich an industriell wertvollen Metallen sind, läßt ihre Erforschung besonders attraktiv erscheinen. Auch könnten Kenntnisse über ihren Aufbau nützlich werden, falls es irgendwann erforderlich sein sollte, die Bahn eines Asteroiden zu verändern um einen Einschlag auf der Erde zu verhindern.

Eine gewisse Schwierigkeit bei Landungen auf Kleinkörpern könnte sich allerdings daraus ergeben, dass ihre Schwerkraft extrem gering ist: Es wäre für Astronauten kaum möglich, auf ihnen im üblichen Sinn zu laufen, da die Fluchtgeschwindigkeiten nur bei wenigen Metern pro Sekunde liegen und ein etwas energischerer Schritt daher bereits ausreichen würde, um einen unglücklichen Raumfahrer in die Unendlichkeit zu katapultieren. Die Astronauten müssten sich, ähnlich wie Bergsteiger, irgendwie an der Oberfläche verankern. Alternativ könnte ihre Fortbewegung einfach durch Jetpacks erfolgen. Im Fall eisenreicher Oberflächen ließe sich auch über magnetische Schuhe nachdenken - allerdings entzieht es sich zur Zeit meinen Kenntnissen, ob solche jemals außerhalb der Science Fiction erfolgreich genutzt wurden. Es wäre vermutlich sehr anstrengend und kompliziert, damit zu laufen.

Flüge zu erdnahen Asteroide wurden auch von Barack Obama im April 2010 in einer Rede, in der er als neues Ziel der amerikanischen Raumfahrt eine permanente Präsenz im Kosmos unter verstärkter Beteiligung privater Unternehmen vorgab, für das Jahr 2025 in Aussicht gestellt.

Bei Asteroidenmissionen ließen sich auch Erfahrung für Expeditionen Richtung Mars (oder Venus?) sammeln - insbesondere wie sich längerfristige Aufenthalte von Menschen außerhalb der Erdmagnetosphäre möglichst gesundheitsverträglich gestalten lassen, vor allem bezüglich der Abschirmung von Strahlung.


Wie könnte nun eine gute Raumfahrtstrategie aussehen? Stellen wir zunächst das Organisatorische hintan - ob das Programm von den USA, einem anderen Staat, einem Staatenbund, oder von privaten Konzernen durchgeführt wird, soll fürs Erste Nebensache sein. Es geht mir vorerst um technische Aspekte.

Dazu kann man sich bildlich eine "Leiter ins Weltall" vorstellen. Jede Sprosse entspricht einem weiteren Schritt. Ich möchte hier mit einer kleinen Übersicht zeigen, wie die ersten Leitersprossen nach meinen Vorstellungen aussehen könnten:


1. Billiger Zugang zum Low Earth Orbit (LEO)

Das eigentlich schwierige an der Raumfahrt sind die ersten 400 Kilometer. Wenn man es erstmal geschafft hat, eine niedrige Umlaufbahn zu erreichen, ist es verhältnismäßig leicht, jeden Himmelskörper des Sonnensystems anzufliegen (mehr darüber in einem späteren Artikel!). Um den Kosmos in großem Stil zu erschließen, ist es daher unerlässlich, zuverlässige, schnelle und billige Transportmöglichkeiten zum LEO zu entwickeln. Dies war bei der Entwicklung des Space Shuttles das vorgesehene Ziel, das jedoch nicht erreicht wurde, da der Betrieb der Raumfähren teurer und schwieriger wurde als beabsichtigt - was nicht zuletzt daran lag, dass der externe Tank (die "Zigarre", an der das Shuttle beim Start hängt) nicht wiederverwendbar ist. Mit der Einmottung der Shuttles im Laufe dieses Jahres werden wieder nur konventionelle Trägerrakten zur Verfügung stehen, wie sie seit den 1950ern eingesetzt werden. Es gibt jedoch verschiedene Möglichkeiten, dieses Problem in Angriff zu nehmen. Egal, ob es sich um Weltraumflugzeuge nach der Art des Skylons von der Firma Reaction Engines Ltd., um SSTO-Raketen (Single Stage to Orbit: Raketen, die das LEO mit einer einzigen Stufe erreichen können), oder um exotischere Technologien wie elektromagnetische Katapulte handeln wird: Erst wenn Systeme zur Verfügung stehen, mit denen sich schnell viel Material in niedrige Umlaufbahnen bringen lässt, wird es möglich sein, Raumfahrt in größerem Umfang zu betreiben.

Idealerweise sollten diese Systeme komplett wiederverwendbar sein. Anders als die gebräuchlichen "Wegwerfraketen" aus nacheinander wegfallenden Stufen, sollte das gesamte Gerät nach jedem Flug nur eine kurze Wartungsphase durchlaufen müssen, um dann frisch betankt erneut aufsteigen zu können - ähnlich einem Verkehrsflugzeug. Interessanterweise wurden Raumfahrzeuge aus diesem Grunde bisher von Ingenieuren oft eher als Munition als als Flugzeuge angesehen: Das meiste Material wurde unterwegs abgeworfen und stand nicht zu einem erneuten Einsatz zur Verfügung. Mit der Entwicklung vollständig wiederverwendbarer Systeme könnte sich das rasch ändern.


2. Bau von Werften und Treibstofflagern im LEO

Der nächste Schritt sollte sein, in niedrigen Umlaufbahnen eine Infrastruktur zum Bau und Betanken von Schiffen einzurichten. Hierzu könnten größere Geschwister der ISS dienen: Ständig bemannte Raumstationen, in deren Nähe große interplanetare Raketen zusammengebaut werden können. Diese werden möglicherweise über NERVA-artige Nukleartriebwerke verfügen (später über Fusionsantriebe) und Wasserstoff als Reaktionsmasse nutzen. Letzterer könnte einerseits als Press- oder Flüssiggas in kugelförmigen Tanks gelagert werden, andererseits aber auch in Form von Wasser, was zwei Vorteile hätte: Zum einen ist Wasser wesentlich weniger flüchtig als Wasserstoff und neigt nicht dazu, durch Stahlwände zu diffundieren, andererseits entsteht bei der Spaltung von Wasser auch Sauerstoff, der sowohl für Lebenserhaltungssysteme wie auch als Oxydator für chemische Antriebe zur Verfügung stünde. Zur Spaltung wäre allerdings eine zusätzliche Energiequelle erforderlich - ein Kernreaktor oder Solarkollektoren.

Die bemannten Teile der Stationen könnten aus Rotationszellen bestehen, um den Besatzungen eine gewisse Schwere zu verleihen. Später ließen sich einige der Stationen auch ganz allmählich anheben (z. Bsp. durch Ionentriebwerke), bis sie eine geostationäre Umlaufbahn in 30 000 km Höhe erreichen. Dort könnten sie dann als "Kopfbahnhöfe" für Orbitallifte dienen.


Konzept einer großen Raumstation im LEO.
Artwork by Robert T. McCall.

3. Erdnahe Asteroide - wir kommen!

Aus den oben erwähnten Gründen sind erdnahe Asteroide eines der attraktivsten Ziele jenseits der Mondbahn. Bemannte Flüge zu ihnen werden dabei hilfreich sein, spätere Bergbaumissionen vorzubereiten und Erfahrungen für weiterreichende Missionen ins Sonnensystem zu sammeln.


4. Vom Mars zurück zum Mond und weiter zur Venus

In welcher Reihenfolge man die folgenden Schritte durchführt ist eigentlich irrelevant. Wenn es darum geht, einen Planeten nur zu besuchen und sich nicht dauerhaft niederzulassen, könnte es am sinnvollsten sein, zuerst den Mars anzufliegen, da der Erdtrabant bereits mehrfach Besuch bekommen hat. Aber auch ein Venus-Flyby wäre eine interessante Option. Später wird man die Sphäre dauerhafter menschlicher Präsenz weiter nach draußen schieben - mit einer ständig bemannten Mondbasis. Große, interferometrisch zusammengeschaltete Teleskope auf der Mondoberfläche werden unter anderem nach erdähnlichen Exoplaneten suchen, die als Ziel für interstellare Missionen in Frage kommen, und der Regolith (der Mondstaub) könnte als Quelle von Helium-3 als Brennstoff für Fusionsreaktoren bedeutsam werden.


So könnten die ersten Schritte ins Sonnensystem aussehen. Aber das ist natürlich erst der Anfang! Mit etwas Glück werden wir gegen Ende des 21. oder zu Beginn des 22. Jahrhunderts bemannte Forschungsstationen im Orbit um die Gasriesen sehen. Und die ersten vorsichtigen Überlegungen in Richtung interstellare Raumfahrt werden bereits heute angestellt.

Zum Schluß dieses Artikels möchte ich einfach Konstantin Ziolkowski (den Urvater der modernen Raumfahrttechnik) sprechen lassen: "Es stimmt, die Erde ist die Wiege der Menschheit, aber der Mensch kann nicht ewig in der Wiege bleiben."