Wochenendrebell

Groundhopping | Autismus | Wissenschaft | Weltverbesserung

Friday, October 23, 2020

Neue Technologien, die bald erfunden und uns retten werden

Der Fusionsreaktor ITER geht im Sommer 2020 in die entscheidende und letzte Bauphase, in fünf Jahren soll er das Sonnenfeuer auf Erden entzünden und zeigen, dass neue Technologien in der Lage sind, die Menschheit in eine atemberaubende Zukunft der unbegrenzten, umweltfreundlichen und günstigen Energie zu führen. Doch neue Technologien werden auch immer wieder im Rahmen des Klimaschutzes herangezogen. Anlass genug, neue Technologien im Klimaschutz wissenschaftlich zu beleuchten.

Wenn man über klima- oder energiepolitische Themen schreibt und eine beliebige Behauptung aufstellt, dann ist eine Antwort, die man wirklich sehr häufig erhält: “Ja, momentan vielleicht, aber das ist doch kein Naturgesetz.” Daher beginne ich in diesem Artikel einfach mal mit einem Naturgesetz, und zwar dem Energieerhaltungssatz von 1842. Er besagt, dass Energie nicht aus dem Nichts erzeugt werden kann und nicht ins Nichts verschwinden kann.

Wenn wir also davon sprechen Energie zu “erzeugen” oder zu “verbrauchen”, dann drücken wir uns unpräzise aus, eigentlich meinen wir die Umwandlung einer Energieform in eine andere. In einem Verbrennungsmotor wird beispielsweise die chemische Energie des Kraftstoffs in kinetische Energie (das Auto fährt) und Wärmeenergie (Abwärme) umgewandelt. Der Motor erzeugt dabei keine Energie, er wandelt eine für uns schwer nutzbare Energie in eine für uns einfacher nutzbare Energie, bzw. eine Energie, die Arbeit verrichten kann, um. Das sind die physikalischen Grundlagen.

Die entscheidende Frage ist also nicht “Wie viel Energie kann die Menschheit erzeugen?”, sondern “Wie viel Energie kann die Menschheit nutzen?” Doch wie kann man sowas eigentlich messen? Diese Frage hat sich der russische Physiker Nikolai Kardaschow gestellt und die Kardaschow-Skala entwickelt. Dabei ordnete er der Menschheit – und allen potentiellen außerirdischen Zivilisationen – eine Zahl zwischen null und drei zu und postulierte somit drei Typen hochentwickelter Zivilisationen:

Typ I (planetare Zivilisation): Eine Typ I-Zivilisation ist in der Lage, die gesamte zu Verfügung stehende Energie ihres Heimatplaneten zu nutzen, im Falle der Erde sind das etwa 1,74·1017 Watt.

Typ II (stellare Zivilisation): Eine Typ II-Zivilisation ist in der Lage, die gesamte Energie ihres Heimatsterns nutzbar zu machen, im Falle der Sonne sind das etwa 4*1026 Watt.

Typ III (galaktische Zivilisation): Eine Typ III-Zivilisation ist in der Lage, die gesamte Energie ihrer Heimatgalaxie, also aller Sterne ihrer Galaxie zu nutzen. Im Falle der Milchstraße sind das etwa 4*1037 Watt.

Dabei ist offensichtlich, dass die Skala nicht linear ist, 4*1026 Watt sind etwa zehn Milliarden Mal mehr als 1,74*1017 Watt. Eine Typ II-Zivilisation nutzt also so viel Energie wie zehn Milliarden Typ I-Zivilisationen während eine Typ III-Zivilisation etwa 100 Milliarden Mal mehr Energie nutzt als eine Typ II-Zivilisation.

Doch wo steht die Menschheit auf der Kardaschow-Skala? In den letzten Jahrzehnte stieg der Wert der Menschheit zwar von 0,582 auf 0,72, doch dass wir noch nicht längst eine planetare Zivilisation des Typs I (also mindestens 1,0) sind, haben wir nicht vorrangig technologischen Hürden, sondern der Energiepolitik der letzten Jahrzehnte zu verdanken. Ein globaler, fairer und grenzenloser Austausch erneuerbarer Energien wäre technologisch innerhalb weniger Jahre erreichbar, doch er ist einfach nicht gewollt.

Entwicklung der Menschheit auf der Kardaschow-Skala seit 1900

Klar ist, dass fossile Brennstoffe und Kernspaltung völlig unbrauchbar sind, um zur Zivilisation Typ I zu werden. Da Kohle und Gas aus toten Lebewesen bestehen, sind sie vor allem sehr ineffizient gespeicherte Sonnenenergie, die zudem begrenzt ist. Die Begrenzung spielt für uns aber eigentlich gar keine Rolle, denn würden wir tatsächlich die gesamten Kohlereserven aufbrauchen, wäre die Tatsache, dass wir nun keine mehr haben, unser kleinstes Problem.

„Wir haben für 250 Jahre saubere, schöne Kohle“

US-Präsident Donald Trump

Täten wir dies, wie etwa US-Präsident Trump es forderte, dann wäre dies das sichere Ende der menschlichen Zivilisation. Man vermutet, dass alle fossilen Brennstoffe der Welt etwa ein Volumen von fünf Billionen Tonnen Kohlenstoff umfassen. Die Verbrennung dieses Kohlenstoffs würde den atmosphärischen CO2-Gehalt auf 5.000 ppm erhöhen, was eine Erderwärmung von bis zu neun Grad Celsius im globalen Durchschnitt und 20°C an den Polen und einen Meeresspiegelanstieg von 58 Metern zufolge hätte – Florida würde im Meer versinken. So will es der allzu patriotische Präsident der USA…

Während sich bei fossilen Brennstoffen nicht zuletzt dank vieler engagierter Menschen keine demokratische Partei mehr wagt, sie öffentlich zu loben und ihres Ausbau zu fordern (lediglich durch die Hintertür), wird über Kernenergie mittlerweile jedoch offener diskutiert. Eine Zeit lang genoss sie sogar regelrechten Kultstatus und gehörte in die Sparte “neue Technologien”, man malte sich nuklear betriebene Autos und Staubsauger aus, ein paar Kilogramm Uran sollten ganze Wüsten in fruchtbare Landstriche verwandeln, es wurden Lieder über Atombomben gesungen und Getränke nach ihnen benannt.

Mittlerweile hat sich in diesem Bereich etwas Ernüchterung breit gemacht, vor allem, nachdem man auf tragische Weise gezwungen wurde, die Sinnhaftigkeit des Baus eines Atomkraftwerks auf der geologisch aktivsten Erdbebenzone der Welt gründlich zu hinterfragen. Doch wie wir Menschen nun mal sind, scheint das zehn Jahre später bereits wieder vergessen und am Atomausstieg wird gerüttelt. Woran man trotzdem erkennt, dass der Atomausstieg wichtig ist? Die Autoindustrie ist dagegen.

„Wenn uns der Klimaschutz wichtig ist, sollten die Kernkraftwerke länger laufen.“

VW-Vorstandschef Herbert Diess

Das, aber auch die Aussagen der WerteUnion oder anderer Konservativer zur Atomenergie erinnern schon etwas an die wissenschaftsfeindliche Propaganda der Atomlobby des letzten Jahrhunderts. Damals wurde behauptet, dass sich die Radioaktivität im Falle eines GAUs lediglich über einen Radius von 100 Metern verteile, bereits in dieser Entfernung sei kaum noch etwas zu spüren. Schon klar…

Ich denke die Risiken, die hohen Kosten und die Limitierung spaltbaren Materials sind als Gegenargument zur Kernkraft jedem geläufig. Dem wird nicht selten entgegengesetzt, Atomkraft könne einen positiven Beitrag zum Klimaschutz leisten. Das kann jedoch aus einem bestimmten Grund wiederlegt werden. Die Atomkraftwerke sind nämlich Relikte aus einer Zeit ganz anderer Energiepolitik.

Einst waren Atomkraftwerke als Säulen des deutschen Stromnetzes gedacht, mittlerweile ist jedoch klar, dass diese Rolle den erneuerbaren Energien zustehen muss, das sehen selbst die meisten Atomkraft-Befürworter:innen ein. Was es nun also eigentlich braucht, ist eine flexible und zuverlässige Ergänzung zu den wechselhaften Energieformen Sonne und Wind, die man nutzen kann, wenn mal keine Sonne scheint und kein Wind weht.

Das können Atomkraftwerke jedoch nicht leisten, denn sie sind sehr träge und haben hohe Fixkosten, sie müssen also rund um die Uhr mit voller Kapazität laufen, um profitabel zu sein. Damit verstopfen sie jedoch Netz für erneuerbare Energien statt sie zu ergänzen. Erneuerbaren Energien wird es dadurch auf dem Markt schwerer gemacht – quasi eine Kohle-Subvention durch die Hintertür. Atomkraftwerke passen einfach nicht in ein ökologisches und modernes Stromnetz.

Statt daher nun aber massenhaft erneuerbare Energien auszubauen wird vor allem in Europa aber stets auf “neue Technologien” gesetzt, bzw. es wird viel über neue Technologien geredet. FDP-Chef Christian Lindner etwa hat sich offen gegen verbindliche CO2-Einsparziele ausgesprochen, er bezeichnete sie sogar als “Karikatur von Planwirtschaft”. Seine Begründung dafür:

“Man kann doch gar nicht wissen, wo wann welcher technologische Quantensprung gelingt.”

Christian Lindner

Es ist zwar off-topic, aber als Physiker kann ich nicht anders als anzumerken, dass ein “Quantensprung” die kleinstmögliche Einheit ist, um die sich ein System verändern kann. Ein Quantensprung ist also folglich eine extrem kleine Änderung und kein großer Fortschritt. Aber darum soll es hier ja nicht gehen. Nein, es soll hier um den quasi-religiösen Glauben daran gehen, neue Technologien würde uns schon aus der Scheiße rausholen, der nicht nur in der Parteienlandschaft weit verbreitet ist, auch bis ins rechtsextreme Spektrum.

Es ist ein bisschen wie in einem Film: Wenn ein Hauptcharakter sich in einer absolut aussichtslosen Situation befindet, dann vertrauen wir dennoch intuitiv darauf, dass er irgendwie überlebt. So unwahrscheinlich es auch sein mag, die Handlung wird meist so gedreht, dass sie zwangsläufig zum Überleben des Hauptcharakters führt – Dramaturgen sprechen von einem Deus ex Machina, das ist lateinisch für “Gott aus der Maschine”.

Tatsächlich beschreibt es “Gott aus der Maschine” ganz gut, wir scheinen darauf zu vertrauen, dass plötzlich ein Gott hinter der Bühne hervorkommt und uns alle rettet – in Gestalt eines Wasserstoffautos, eines Fusionskraftwerks oder irgendwelchen Dingen, die wir heute noch gar nicht kennen. Neu ist das nicht und in vielerlei Hinsicht hat die Realität die kühnsten Prognosen übertroffen und neue Technologien hervorgebracht, die man sich früher nicht einmal vorstellen konnte. Doch fast immer, wenn wir auf neue Technologien zur Lösung gegenwärtiger Probleme hofften, wurden wir enttäuscht.

Als den Menschen etwa in den 70ern klar wurde, dass die Ressourcen, die wir für unsere Zivilisation nutzen begrenzt sind, druckte etwa der SPIEGEL am 17.06.1977:

“Unter dem Eindruck einer von globalen Atom- und Umweltkatastrophen bedrohten Erdbevölkerung diskutierten jüngst auch Physiker und Raumfahrt-Wissenschaftler an der Princeton University erstmals das Thema “Kolonisation des Alls”, bis dahin allenfalls Stoff für Science-fiction. Resümee der wissenschaftlichen Zukunftsschau, vorgetragen von Princeton-Professor Gerard K. O’Neill: Innerhalb eines Jahrhunderts werde der größte Teil der Menschheit in einem dichten Netz von Weltraum-Stationen leben.”

Inzwischen haben Roboter-Sonden Entdeckungen gemacht, die sich 1977 niemand zu träumen wagte, doch von der Lösung des Umweltproblems durch neue Technologien im Weltraum wie man damals prognostizierte sind wir weit entfernt. Leider haben viele nichts aus diesen historischen Beispielen gelernt.

Wenn wir beispielsweise über den Ausbau erneuerbarer Energien sprechen, dann ist ein häufiges Argument gegen den sofortigen Ausbau von Windkraftanlagen oder Solarzellen, dass es in wenigen Jahren vielleicht ja neue Technologien zur Stromerzeugung gibt, die wir heute noch gar nicht beherrschen. 

Ideen für neue Technologien gibt es tatsächlich viele, von der Möglichkeit, die Gezeiten und Meeresströmungen zu nutzen über die Anzapfung von Vulkanen bis zu smarten Kleidungsstücken und Teppichen, die Strom erzeugen. Doch was davon ist wirklich tauglich, einen Beitrag zur Energiewende zu leisten?

Gezeitenbojen, Vulkane anzapfen und flauschige Hochhäuser

Dadurch, dass die Erde einen so überproportional großen Mond hat, ist sie der einzige Planet im Sonnensystem, der nennenswerten Gezeitenkräften unterliegt – der Mond ist der einen Hälfte der Erde also näher als der anderen und diese wird dadurch stärker von ihm angezogen. Auf diese Weise entstehen die Gezeiten, der Meeresspiegel steigt und sinkt also in regelmäßigen Abständen. Ein australisches Unternehmen namens Carnegie Clean Energy hatte dazu eine innovative Idee.

Demzufolge wäre es möglich, die Energie der Gezeiten anzuzapfen, jedoch nicht über gewöhnliche Gezeitenkraftwerke, die im Wesentlichen wie ein Staudamm funktionieren, sondern über umweltfreundlichere und effizientere Bojen. Sie würden durch die Bewegung des Wassers mitgenommen und regelmäßig aufsteigen und wieder sinken. Dabei sollen sie eine Pumpe antreiben, die dann zur Stromerzeugung dient.

Die Bojen könnten gleichzeitig natürlich auch anderweitig genutzt werden, etwa als Forschungsstationen, man könnte dort aber auch unter Wasser Pflanzen anbauen oder sogar Wohnräume schaffen. Neue Technologien wie diese haben tatsächlich Potential: Könnte man nur 0,1% der durch Sonne und Mond ausgeübten Gezeitenenergie nutzen, könnte man damit fünfmal den gesamten Weltenergiebedarf decken.

Doch natürlich ist es utopisch, auch nur annähernd an diese Schwelle heranzukommen. Selbst wenn man nun im großen Stil diese Bojen bauen würde, könnte man damit nur einen Bruchteil dieses Anteils erreichen. Und noch ist Carnegie Clean Energy mit seinem Plan auch erst ganz am Anfang: Taucher sollen bald erste Gezeitenbojen vor der Küste Westaustraliens installieren.

Carnegie Wave Energy Limited, CETO-unitCC BY-SA 3.0

Noch ausgefallener ist die Idee der NASA, den größten Vulkan der Erde, den Yellowstone-Supervulkan in den USA anzuzapfen. Bei Vulkanen staut sich nämlich immer ein Teil der Wärme auf und das führt irgendwann zur Eruption, doch der größte Teil entweicht stetig in die Atmosphäre. Der Yellowstone-Supervulkan strahlt dadurch eine Leistung von etwa sechs Gigawatt ab, eine Nutzung wäre durchaus lohnenswert und könnte gleichzeitig auch eine katastrophale Eruption verhindern. Die Kosten für das Projekt ließen sich dann mit dem Verkauf des Stroms wieder begleichen.

Doch ob ein so teures Unternehmen wirklich finanziert wird, ist fraglich. Ungefährlich ist es auch nicht, im schlimmsten Fall könnte man das Risiko eines Ausbruchs durch einen Fehler sogar erhöhen und damit Millionen Menschen in Gefahr bringen. Es würde sicherlich schwierig, den Anwohnern, die sonst klagen, weil sie der Anblick eines Windrads stört, die Idee anzudrehen, einen Vulkan in ihrer Nachbarschaft anzuzapfen.

Apropos Windräder, auch neue Technologien für die Windräder der Zukunft gibt es. Hier dreht sich jedoch nichts, es gibt keine Geräusche und keine ökologische Belastung, schaut man nicht genau hin, sieht man nicht einmal etwas – denn bei den sogenannten Strawscrapern bringt der Wind nur kleine Härchen zum Schwingen statt riesige Windturbinen.

Die Technik macht sich den sogenannten Piezoeffekt zunutze. Der besagt folgendes: Normalerweise stimmen in einem Objekt der Schwerpunkt der positiven Ladung und der Schwerpunkt der negativen Ladung überein. Verformt man das Objekt jedoch, dann verschieben sich diese Schwerpunkte, es gibt dann also einen Pol der positiven Ladung und einen der negativen Ladung. Und wie nennen wir sowas? Batterie! Durch die Verformung eines Objekts lässt sich also eine Spannung erzeugen.

Die Idee ist es nun, Decken aus kleinen Härchen an Hochhäusern zu befestigen, die aus einem Halm und einem Kern bestehen. Der Halm bewegt sich durch den Wind schon bei viel geringerer Windstärke als normale Windräder und verformt damit das Innenleben der Härchen, wodurch Strom produziert wird. Eine gute Idee, Häuser könnten sich so zukünftig selbst mit Energie versorgen, doch fürs Einspeisen großer Mengen Strom ins Netz, ist der Ertrag viel zu gering.

Der Traum von der Energie aus dem Weltall

Wir Menschen neigen tendenziell dazu, Dinge als unbegrenzt anzusehen – ein Hauptgrund für unsere derzeitige Misere. Nichts steht symbolischer für Unbegrenztheit und auch für neue Technologien als der Weltraum und daher ist natürlich auch der Traum, im Weltall Strom zu erzeugen, bereits alt und nach wie vor lebendig.

Schon in den 60ern sahen Visionäre um die Jahrtausendwende riesige Fabriken auf dem Mond, welche die dortigen Ressourcen nutzen, Bergbau auf Asteroiden oder gar die Entmantelung ganzer Planeten. Heute ist es vor allem die Solarenergie im All, die Ingenieure zum Träumen anregt, nichts zuletzt wohl auch, weil die Aneignung von Ressourcen im Weltraum für Nationen gemäß internationaler Verträge heute verboten ist.

In der chinesischen Stadt Chongqing werden derzeit die Komponenten für das erste Solarkraftwerk im Weltraum montiert. Schon 2050 soll es über ein Gigawatt Strom erzeugen und zur Erde senden. Solarzellen im All funktionieren, das beweist die Internationale Raumstation, die ihren Strom daraus bezieht. Doch diesen auf die Erde zu transportieren, wird sich als deutlich schwieriger erweisen, denn aktuell wäre die Fläche, die es für das Auffangen der Energie aus dem All benötigte, größer als die Fläche, mit der Solarzellen auf der Erde dieselbe Menge Strom erzeugen könnten.

Natürlich gibt es dafür wiederum neue Technologien, etwa könnte die Energie über Laser übertragen werden und es locken auch große Vorteile: Solarzellen im Weltraum könnten, sofern richtig platziert, 24 Stunden am Tag Sonnenlicht bekommen und Wolken und eine störende Atmosphäre, die Teile des Lichtes gar nicht bis zum Boden kommen lässt, gibt es dort auch nicht. Dennoch dürfte 2050 schon eher ein optimistischer Zeitpunkt sein, denn eine Rakete, um die benötigten 1.000 Tonnen Material in einer Entfernung von 36.000 Kilometer zu bringen, existiert bislang auch nur auf dem Papier.

Eine andere Sache wäre es natürlich, wenn wir die Ressourcen nicht von der Erde ins All schießen würden, sondern direkt im All abbauen, etwa auf dem Mond oder auf Asteroiden. Bei der Gelegenheit könnte man sie auch gleich auf dem Mond bauen, dort gibt es Bergspitzen, auf die fast das ganze Jahr lang Tag und Nacht Sonnenlicht scheint. Doch für solch langfristige Vorhaben bräuchte es entweder abermals neue Technologien oder es müssten viele Nationen zusammenarbeiten und Milliarden Euro im Voraus mit unsicheren Erfolgschancen investieren. Mit anderen Worten: Wird nicht passieren.

Ob China sein Konzept nun realisiert, sei mal dahingestellt, Hand und Fuß hat es aber sicherlich. Spiegel sollen Sonnenlicht so bündeln, dass die Fläche der teuren und anfälligen Solarzellen relativ gering sein kann. Überhaupt müssen die Anlagen aber noch deutlich robuster werden, denn auf der Erde ist eine regelmäßige Wartung nötig. Muss man aber mehrmals pro Jahr Ingenieure zum 36.000 Kilometer entfernten Kraftwerk schicken, lohnt sich das alles nicht mehr. Durch Mikrometeoriten und kosmische Strahlung wird der Betrieb im All jedoch sogar noch schwieriger als auf der Erde.

Grundlegend neue Technologien, die für den Bau von Solarkraftwerken im All notwendig wären, gibt es nicht, doch ungelöste Probleme noch zuhauf – ganz im Gegensatz zu Raketen, die lohnenswert solche Bauwerke ins All bringen können. Ein Weltraumaufzug wäre wohl die profitabelste Lösung, doch dafür hätte sich die Welt wohl ganz anders entwickeln müssen…

Dasselbe gilt für noch exotischere Möglichkeiten für neue Technologien der Stromerzeugung im Weltraum. Der Physiker Freeman Dyson hatte etwa 1960 die Idee, direkt die Sonne anzuzapfen und riesige Schwärme von Satelliten in geringem Abstand zur Sonne zu platzieren. Dieser sogenannte Dyson-Schwarm könnte dann einen viel größeren Anteil der Sonnenenergie nutzbar machen statt nur den winzigen Teil, der die Erde trifft. Diese Technologie hätte somit sogar das Potential, uns zu einer Zivilisation des Typs II zu machen.

Doch noch ist das absolut utopisch und Science Fiction, es müsste noch viel mehr Material in noch viel größere Entfernung zur Erde gebracht werden, die Satelliten müssten extreme Belastungen durch die Nähe zur Sonne überstehen und die Energie außerdem über eine sehr große Distanz zur Erde transportieren: Würde man die Strecke Sonne-Erde mit dem Zug zurücklegen, bräuchte man etwa 120 Jahre! Hier bräuchte es also neue Technologien für neue Technologien. Viel zu umständlich und aktuell in weiter Ferne…

Künstliches Sonnenfeuer

Der heilige Gral der Stromerzeugung und das Musterbeispiel für neue Technologien ist daher etwas anderes – er gilt als Schlüsseltechnologie des 21.Jahrhunderts, baut jedoch auf dem alten Konzept eines Großkraftwerks auf – die oben bereits erwähnte Kernfusion. Es ist die Methode, mit der auch unsere Sonne und die Sterne am Nachthimmel Licht und Wärme erzeugen. Unsere Sonne strahlt, weil sie so groß ist, dass der Druck in ihrem Innern genügt, um die Atome, aus denen die Sonne besteht, miteinander verschmelzen zu lassen. Die Ausgangselemente haben eine größere Masse als die Endprodukte und da Masse nicht einfach verschwinden kann, wir die Differenz abgestrahlt – nur dieses winzig kleine Massendefizit ist es, welches uns allen Licht und Wärme schenkt und das scheinbar unbegrenzt.

Nun haben sich einige kluge Köpfe, darunter die Physiker Edward Teller und Enrico Fermi gedacht: Was die Sonne kann, das können wir doch auch! Wieso sollten wir nicht auch auf der Erde in Reaktoren Atomkerne miteinander verschmelzen lassen können wie es die Sonne in ihrem Innern kann? Das klingt wirklich nach einer dummen Frage: Wie sollen wir auf der Erde den Druck erzeugen, der im Innern der Sonne herrscht, die ja immerhin eine Masse von fast zwei Quintillionen Kilogramm hat? Gar nicht. Wir müssen einsehen, dass dies wohl immer ein Ding der Unmöglichkeit sein wird.

Glücklicherweise muss man das jedoch auch nicht, denn die Sonne betreibt die Kernfusion sowieso sehr ineffizient, ein Atom kann dort viele Millionen Jahre durch die Gegend fliegen ohne mit einem anderen zu fusionieren. Der einzige Grund, weshalb in der Sonne dennoch so viele Fusionsreaktionen ablaufen ist einfach, dass die Sonne unglaublich groß ist. Ein einzelner Lottospieler kann schließlich auch ein ganzes Leben lang nie gewinnen, dennoch gewinnt ständig irgendwo irgendwer, einfach weil es so viele Spieler gibt.

Einfach die Sonne kopieren können wir also nicht, aber wir könnten vielleicht ganz neue Technologien erfinden, um Kernfusion zu betreiben. Wie genau das gehen könnte, darüber haben tatsächlich viele Menschen nachgedacht und sind im Wesentlichen auf zwei Ideen gekommen, die sie Tokamak und Stellarator genannt haben. Beide komprimieren eine spezielle Masse namens Plasma durch starke Magnetfelder in einer Art “Magnetkäfig”, also nicht wie die Sonne durch den Druck der Masse. In beiden Reaktoren wird zudem nicht gewöhnlicher Wasserstoff fusioniert wie in der Sonne, sondern ganz spezielle Arten von Wasserstoff namens Deuterium und Tritium.

Der Unterschied zwischen einem Reaktor des Typs Tokamak und des Typs Stellarator ist die Art der Magnetfelder, die für die Komprimierung des Plasmas genutzt werden. Beim Stellarator wird das verdrillte Magnetfeld durch auf komplexe Weise verteilte Spulen von außen erzeugt, beim Tokamak hingegen soll ein verschachteltes Magnetfeld durch elektrische Ströme innerhalb des Plasmas entstehen. Das klingt recht unwichtig, hat jedoch eine große Bedeutung.

Komplexe Spulengeometrie des HSX, eines Stellarator-Reaktors

Die komplexe Geometrie der Spulen beim Stellarator macht ihn zum Beispiel sehr wartungsintensiv, es gibt zudem noch Schwierigkeiten damit, das Plasma vollständig einzuschließen. Der Tokamak ist dort viel einfacher gebaut, doch auch er hat einen entscheidenden Nachteil: Er funktioniert vielleicht nicht einmal in der Theorie so ganz, denn es ist nicht sicher wie lange sich elektrische Ströme in Plasma aufrechterhalten lassen, beziehungsweise ob sie überhaupt stabil sind oder schnell kollabieren.

Die großen im Bau befindlichen Kernfusionsreaktoren, etwa der International Thermonuclear Experimental Reactor, kurz ITER (lateinisch für Weg), sind aber fast alle vom Typ Tokamak. Es ist also gar nicht sicher, ob diese jemals Strom ins Netz einspeisen oder aber sich als Milliardengrab entpuppen werden. Wollen wir das Überleben unserer Zivilisation wirklich von sowas abhängig machen, obwohl es auch anders ginge, nur um jetzt nicht handeln zu müssen und etwas Geld zu sparen? Ich möchte das nicht.

Selbst wenn wir trotz dieser Unsicherheit einmal optimistisch bleiben und annehmen, dass die Experimente am ITER schon in wenigen Jahren zeigen, dass der Tokamak-Reaktor tatsächlich funktioniert – was tatsächlich relativ wahrscheinlich ist – würde das in Bezug auf den Klimaschutz nicht viel ändern. Denn damit so ein Fusionskraftwerk auch profitabel läuft, darf das Ingangsetzen der Fusion natürlich nicht mehr Energie benötigen als sie dann hinterher abwirft und das ist schwierig, denn das Plasma muss auf eine Temperatur von 150 Millionen Grad Celsius erhitzt werden – dafür ist nun einmal sehr viel Energie nötig.

1997 konnte ein erster Erfolg erzielt werden, kurzfristig wurde durch Kernfusion eine Leistung von 16 Megawatt generiert, für das Ingangsetzen der Reaktion waren jedoch 24 Megawatt notwendig. Das Verhältnis zwischen diesen Werten wird Q-Faktor genannt und wenn er genau eins beträgt, denn wird genauso viel Leistung generiert wie hereingesteckt wird. Um wirklich dauerhaft Fusionsreaktionen ablaufen zu lassen, benötigt es wohl – wenn es überhaupt funktioniert – mindestens einen Q-Faktor von fünf – beim Versuch von 1997 betrug er gerade einmal 0,67 (16 Megawatt dividiert durch 24 Megawatt).

Wir sehen also, das ist bei weitem nicht so einfach wie man häufig dahersagt, wenn man so herrlich unkonkret über neue Technologien spricht. Zwar sollen im ITER, wenn alles nach Plan läuft, ab 2035 Fusionsreaktionen mit einem Q-Faktor von zehn ablaufen, doch selbst dabei muss stets neue Energie zugeführt werden, eine “echte” Fusion, die sich selbst aufrechterhält, werden wir also auch 2035 noch nicht haben. Dies soll dann der Nachfolger des ITER namens DEMO erreichen, er soll erstmals circa ein Gigawatt Fusionsenergie ins Stromnetz einspeisen und dabei einen Q-Faktor von 25 erreichen – geplant ist das für 2040, Experten rechnen jedoch damit, dass es erst später der Fall sein wird.

Selbst DEMO wird jedoch noch kein echtes kommerzielles Kraftwerk sein, dafür sind seine Ausmaße zu klein. Das soll erst dessen Nachfolger PROTO erbringen und spätestens hier werden die Pläne echt nebulös. Irgendwann nach 2050, so der Plan, werden durch PROTO dann wirklich in großen Mengen Fusionsenergie ins Stromnetz eingespeist, weitere Reaktoren sollen folgen. Wenn ihr mich fragt, wird das aber eher bis 2075, vielleicht sogar bis ans Ende des Jahrhunderts dauern. Vielleicht geht es auch schneller – man kann nie wissen…

 ITERDEMOPROTO
Inbetrieb
nahme
20252040nach 2050
StatusIn BauGeplantGeplant
TypTokamakWahrscheinlich TokamakWahrscheinlich
Tokamak
Q-Faktor1025?
Leistung500 Megawatt1 Gigawatt?
ZielMachbarkeits
beweis für ein Fusionskraftwerk
Erstes FusionskraftwerkErstes kommerzielles Fusionskraftwerk

Angenommen wir vertrauen jedoch auf neue Technologien und das “Wundermittel” Fusionsenergie und machen deshalb einfach so weiter, dann wird die Erde im Jahr 2100, wenn dann also vielleicht wirklich nennenswerte Mengen Fusionsenergie im Stromnetz sind, vermutlich etwa sechs Grad Celsius wärmer sein als in vorindustrieller Zeit. Dies wird dazu führen, dass beinahe das gesamte irdische Eis schmilzt.

In den nun eisfreien Polregionen würden riesige Grünflächen frei, unter der ansonsten eisbedeckten Arktis läge nun der offene Ozean. Sowohl ein Ozean als auch eine Grünfläche sind jedoch viel dunkler als Eis, sie reflektieren also weniger Licht und schlucken es größtenteils, wodurch es in Wärme umgewandelt wird und das Klima noch weiter aufheizt. Dadurch schmilzt dann noch mehr Eis, wodurch noch mehr Grünflächen und Ozeane freiwerden und sich die Erde noch weiter erwärmt – ein für Millionen Menschen tödlicher Teufelskreis, den nichts mehr aufhalten kann, auch neue Technologien nicht.

Hier würde die Katastrophe jedoch keinen Halt machen, denn seit der letzten Eiszeit schlummern enorme Mengen Treibhausgasen in gefrorenen Böden, vor allem im sibirischen Permafrost. Wenn die Erde in ein Warmzeitalter übergeht und diese Böden schmelzen, dann werden die dort eingeschlossenen Treibhausgase in die Atmosphäre geraten – als etwas Vergleichbares zum letzten Mal passierte, nämlich durch starken Vulkanismus vor 252 Millionen Jahren, brachen beinahe alle Ökosysteme im größten Massenaussterben aller Zeiten zusammen – eine geologische Zäsur, die unsere Erde auf ewig verändert hat.

Es ist mir wirklich wichtig, den gesamten Impakt eines solchen Ereignisses klarzumachen. Derzeit befinden wir uns in einer Warmzeit innerhalb eines Eiszeitalters. Die Erde befindet sich also seit etwa 34 Millionen Jahren in einer ihrer eher kälteren Phasen, in der die Pole vereist sind – in einem Eiszeitalter. Innerhalb dieses Eiszeitalters befinden wir uns seit etwa 100.000 Jahren jedoch nicht mehr in einer Eiszeit, also einer Zeit, in der das Eis sich bis weit jenseits der Pole ausbreitet, sondern bereits in einer Warmzeit, in der es zwar Eis auf der Erde gibt, allerdings nur in Polnähe und Gebirgen.

Tritt das oben beschriebene Szenario ein, indem ein Teufelskreis das gesamte irdische Eis schmelzen lässt und sich die Erde um bis zu sechs Grad Celsius erwärmt, dann wird das seit 34 Millionen Jahren herrschende Eiszeitalter, das Känozoische Eiszeitalter, zu Ende gehen und durch ein Warmzeitalter abgelöst werden wie wir es noch nie zuvor erlebt haben. Ein Warmzeitalter liegt dann vor, wenn es auch an den Polen keine durchgehende Vergletscherung gibt – das letzte Warmzeitalter endete noch viele Millionen Jahren bevor die ersten Menschen die Erde bevölkerten.

Wir sehen also, dass das irdische Klima sich nicht immer reparieren lässt, wird der Schaden zu groß, so setzen die eben beschriebenen Kettenreaktionen (insgesamt gibt es 16 bekannte solcher Kettenreaktionen, Klimaforscher nennen sie Kipppunkte) ein, die nicht enden werden, bevor nicht die letzte Eisscholle geschmolzen und die letzte Tonne Treibhausgas entwichen ist. Was hat das nun mit dem Thema neue Technologien und Kernfusion zutun, mag man sich fragen?

Zum einen wird immer wieder über eine neue Technologie namens Geoengineering diskutiert. Die Idee ist, dass es vielleicht möglich wäre, das Klima auch im Kippen oder sogar nach dem Kippen zu retten, indem man künstlich eingreift und beispielsweise Treibhausgase wieder aus der Atmosphäre filtert. Andere Ideen umfassen riesige Segel im Weltall, die ihren Schatten auf die Erde werfen oder Aerosole, die in der Atmosphäre verstreut werden und Sonnenlicht reflektieren sollen.

Doch die Probleme sind riesig und die Folgen nicht abschätzbar. Geoengineering könnte fatale Folgen haben, einige Simulationen legen beispielsweise nahe, dass eine künstliche Abkühlung der Nordhalbkugel eine weitere Erhitzung der Südhalbkugel zufolge haben könnte – und letztlich ist es nach wie vor nicht sicher, ob es überhaupt funktioniert. Wir sind aktuell gerade mal so weit, Anlagen bauen zu können, die etwa 4.000 Tonnen Kohlenstoffdioxid pro Jahr aus der Atmosphäre filtern – die deutschen Kohlekraftwerke zusammen stoßen das 37.500-fache aus…

Natürlich kann man hier auf neue Technologien hoffen und vielleicht sind sie eines Tages unsere letzte Hoffnung, doch das Klima aktuell durch Geoengineering retten zu wollen, ist ungefähr so, als würde unser Haus brennen und wir hoffen, dass es vielleicht bald einen hinreichend großen Tsunami gibt, um es zu löschen – obwohl der Feuerlöscher direkt nebenan steht und dieser Feuerlöscher ist effizienter und ernsthafter Klimaschutz.

Das heißt natürlich nicht, dass neue Technologien bei diesem Klimaschutz gar keine Rolle spielen können. Besonders beim Thema Fleisch, dessen Methanemissionen uns bisher einen Großteil der bereits überschrittenen Kipppunkte eingebrockt haben, können und müssen sie das sehr wohl. Die Skandale während der Corona-Pandemie, die jüngsten Ausbrüche der Schweinepest in Deutschland, aber besonders die in diesem Bereich stetig wachsende Aufmerksamkeit der Bevölkerung haben in meinen Augen durchaus das Potential, dem Thema Fleisch binnen der nächsten zehn Jahren den Todesstoß zu verpassen. Aber dafür benötigt es für viele Menschen Alternativen. Die bisherigen pflanzlichen Ersatzprodukte haben in den letzten Jahren gigantische Fortschritte gemacht – ich spreche aus eigener Erfahrung. Dennoch wird das nicht genügen.

Das Fleisch aus dem Labor

Es ist mittlerweile längst möglich, echtes tierisches Fleisch auch ohne Tier zu erzeugen. Dabei werden einem Tier Zellen entnommen, die in einer Nährlösung künstlich vermehrt werden – ihnen wird sozusagen vorgegaukelt, sie befänden sich in einem Tier. Die dadurch entstehende Masse kann dann in jede beliebige Form gebracht werden und ist nicht mehr von normalem Fleisch zu unterscheiden – selbst auf molekularer Ebene nicht mehr. Schon in wenigen Jahren wird dieses in-vitro-Fleisch günstiger, umweltfreundlicher, gesünder und leckerer sein als alles, was wir heute in den Regalen haben. Neue Technologien wie diese werden leider unterschätzt.

Noch sind auch noch nicht alle Hürden überwunden. Die Nährlösung ist dabei das größte Problem, denn momentan ist sie noch ein Cocktail aus extrem energieintensiven Spurenelementen, Aminosäuren, Zucker und bestimmten Hormonen, die viele aus dem Blut ungeborener Kälber entnehmen – ethisch und auch ökologisch nicht vertretbar. Doch längst suchen Firmen neue Technologien, mit denen die Zellen vermehrt werden können, etwa Algen.

Der erste Burger aus Kunstfleisch wurde 2013 vorgestellt, damals kostete er noch 250.000 Euro – 2020 kostet derselbe Burger desselben Herstellers nicht einmal mehr zehn Euro. Dieser Preis ist bereits niedrig genug, um bei Massenproduktion markttauglich zu sein, von einer Massenproduktion ist die Wissenschaft logistisch jedoch noch einige Monate oder Jahre entfernt.

Doch so perfekt das auch klingt, wenn die Bioreaktoren, in denen das Fleisch gezüchtet wird, im deutschen Stromnetz mit Kohlestrom gespeist werden, bringt das alles wieder nichts und das Kunstfleisch ist nur geringfügig energiesparender als nicht-kultiviertes Fleisch und auch der CO2-Fußabdruck ist dann deutlich schlecter als bei pflanzlichem Fleischersatz.

Neue Technologien wie Kunstfleisch können also Vieles, aber das Thema Energie schwebt wie ein Damoklesschwert über allen Innovationen die noch kommen mögen. Und dank der deutschen Energiepolitik schlägt das Damoklesschwert hierzulande zu, genauso wie bei Elektromobilität und eigentlich allen Dingen, die Strom benötigen. Ein kohlegestütztes Stromnetz ist untauglich für neue Technologien.

World Economic Forum, First cultured hamburger unbakedCC BY 3.0

Auch andere Faktoren müssen einkalkuliert werden. Während bei konventionellem Fleisch vor allem Methan entsteht, ist es bei den Bioreaktoren das gute alte CO2. Methan hat zwar eine 28-mal stärkere Treibhauswirkung als CO2, dafür bleibt es aber auch “nur” für ungefähr zwölf Jahre in der Atmosphäre, während das Kohlendioxid Jahrtausende dort verweilt. Je länger der Fleischkonsum unverändert bleibt, desto schlechter wird also die Bilanz von Kunstfleisch – aber natürlich nur, wenn die Bioreaktoren auch CO2 verursachen und das tun sie vor allem, wenn sie von Kohlestrom gespeist werden.

Inzwischen sind die Hersteller jenseits des Preises so weit, dass das Kunstfleisch in komplexe im 3D-Drucker gezüchtete Strukturen gepflanzt werden können, sodass praktisch jede Art von Fleisch und auch Fisch realisiert werden kann. Vor wenigen Jahren prognostizierten Studien noch, dass Kunstfleisch im Jahr 2040 schon 35% des Fleischkonsums ausmachen wird, 40% sollte auf konventionelles Fleisch und 25% auf pflanzlichen Fleischersatz entfallen. Mittlerweile sind sich die meisten Experten einig, dass es deutlich schneller gehen wird.

Mehr als fünf vor zwölf

Der Hauptgrund, weshalb die Kipppunkte ganz entscheidend sind, wenn es um die Rolle für neue Technologien im Klimaschutz geht, sind jedoch nicht Geoengineering und Kunstfleisch: Wenn neue Technologien wie Fusionsenergie ausgereift und im Einsatz sind, wird es für die Lösung der Klimakatastrophe schon längst zu spät sein, denn dann wird die Schwelle zu irreparablen Schäden längst überschritten sein.

Das heißt natürlich nicht, dass wir nun aufhören sollen, neue Technologien zu erforschen oder der ITER kein lohnenswertes Projekt ist. Als Physiker bin ich natürlich enthusiastischer Anhänger der Fusionskraft, die uns ganz neue Möglichkeiten eröffnen könnte. Wir müssen uns aber bewusst sein, dass Kernfusion kein Klimaschutz, sondern Grundlagenforschung ist – genauso wie viele andere neue Technologien.

Leider ist sich die Europäische Kommission dessen nicht bewusst oder sie deklariert es bewusst falsch, denn der ITER wird seit neuestem zu 100% aus dem Klimaschutz-Etat finanziert. Das ist aus wissenschaftlicher Perspektive aus den eben erläuterten Gründen Unfug:

  • Die Machbarkeit der Fusionsenergie ist keinesfalls sicher.
  • Selbst wenn machbar, werden wirtschaftliche Fusionsreaktoren viel zu spät für die Lösung der Klimaproblematik kommen.
  • Es gibt bereits viele Methoden zur Stromerzeugung, die nicht spekulativ sind und fossile Brennstoffe ablösen könnten.

Geht man nicht nach wissenschaftlichen, sondern nach politischen Kriterien vor, dann lässt sich die Entscheidung natürlich plötzlich wieder nachvollziehen, denn es handelt sich lediglich um einen Rechentrick. Die Europäische Union hat sich selbst das Ziel gesetzt, 25% ihres Budgets für Klimaschutz auszugeben.

Statt wirklich die Ausgaben dafür zu erhöhen, wird nun aber einfach ein Milliardenprojekt über neue Technologien als “Klimaschutz” deklariert, das zwar sehr löblich ist, aber neue Technologien betrifft, die mit Klimaschutz aber nichts zutun haben. Das ist unwissenschaftlich und verschafft der Bevölkerung ein falsches Bild von der Dringlichkeit unserer Lage – wenn ein Reaktor, der vielleicht 2050 mal in Betrieb geht und andere neue Technologien uns alle retten, dann müssen wir ja gar nichts machen…

Unabhängig davon welche neuen Technologien es in Zukunft geben wird, wir Menschen müssen uns einfach einer bitteren Wahrheit stellen, einem grundlegenden Prinzip unseres Universums, dessen Wahrnehmung uns aufgrund der begrenzten Lebenszeit eines Menschen immer häufiger verwehrt bleibt: Jede Aktion zieht eine Wirkung nach sich, alles, was wir tun, hat Konsequenzen.

Die Konsequenzen mögen zeitversetzt auftreten, vielleicht erst gar nicht zu spüren zu sein und dann über Jahrhunderte oder Jahrtausende ihre gesamte zerstörerische Wirkung entfalten, aber sie werden kommen. Für die Konsequenzen unseres Tuns werden wir die Verantwortung übernehmen müssen. Neue Technologien werden uns das nicht abnehmen können.

Wir können die Menschheit zu einer Zivilisation des Typs I machen, ich behaupte sogar, wir müssen es. Wenn man mal analysiert, wie die zunehmende Fähigkeit, Energie zu nutzen die Menschheit verändert hat, dann fällt etwas auf: Als wir in der Steinzeit noch einen Wert von 0,1 hatten, war die Menschheit in einzelne Gruppen von Hominiden unterteilt, die nomadisch durch Afrika zogen und Probleme unter Einsatz grober Gewalt lösten.

Bei 0,3 begannen die einzelnen Stämme miteinander zu handeln und Aufgaben aufzuteilen, bei 0,5 gründeten die Menschen Staaten, die darauf fokussiert waren, durch Handel mit anderen Staaten eine hohe Lebensqualität auf dem eigenen Territorium zu ermöglichen. Nun bei etwa 0,72 gibt es bereits weltweite Behörden, Normen und auch Veranstaltungen, neue Technologien werden uns schon bald globalen kabellosen Internetzugang und sehr zuverlässige Übersetzer aller Sprachen der Welt bescheren.

Die Tendenz ist eindeutig: Je höher der Wert auf der Kardaschow-Skala, desto mehr wächst die Menschheit zusammen, desto weniger Gewalt wird eingesetzt (in der Regel zumindest) und desto flacher sind die Hierarchien – Grenzen und Nationalstaaten verlieren an Bedeutung. Denken wir dies in die Zukunft weiter, dann entspricht ein Wert von 1,0 einer gänzlich globalisierten Welt, in der das gesamte menschliche Wissen digitalisiert und für jeden Menschen jederzeit abrufbar ist.

Auf dieser Entwicklungsstufe hätte die Menschheit endlich zu einer globalen Kultur zusammengefunden, alle Staaten der Welt wären Demokratien und ein grenzenloser und regulierter Handel über den gesamten Planeten wäre möglich – Kriege werden in einer solchen Welt viel schwieriger zu rechtfertigen sein, alle Menschen könnten wahrhaft gleich sein.

Diese Welt könnte bereits Realität sein, gäbe es nicht die Autokraten und Lobbyisten, die lieber zum Typ 0,3 zurückkehren würden als Häuptlinge noch Stämme anführten und das Recht des Stärkeren galt – es sind nicht neue Technologien, die es für diese Welt braucht, es waren nie neue Technologien. Es war und es ist der Wille und dieser Wille ist aktuell einfach noch nicht da.

Zeit lassen sollten wir uns jedoch nicht, neun der 16 Kipppunkte sind bereits überschritten. Wir leben wahrlich in einer interessanten Zeit: Entweder wir werden in den nächsten Jahrzehnten zu einer Zivilisation des Typs I – oder wir werden es niemals… Dann wird alles, was wir an unserer Welt kennen und lieben, nicht mehr sein.

Show More

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.