Sonntag, August 30, 2020

Wir sind die Guten

Alle wollen Gutes tun


Ich bin der Geist der stets verneint!
Und das mit Recht; denn alles was entsteht
Ist werth daß es zu Grunde geht;
Drum besser wär’s daß nichts entstünde.
So ist denn alles was ihr Sünde,
Zerstörung, kurz das Böse nennt,
Mein eigentliches Element.
(Goethes Faust, Mephisto V. 1338–1344)

Menschen wollen nicht das Böse, sondern Gutes tun, doch ist es schwer zu wissen, was das Gute ist.

Gutes in einer sich wandelnden Welt

In einer einfachen Gesellschaft mit festen Regeln ist es für jeden ersichtlich, ob eine Tat gut oder böse ist. Die Regeln mögen zwar nach unseren heutigen Werten nicht mehr gelten, aber das spielt für jemanden, der in die frühe Gesellschaft eingebettet ist, keine Rolle.


Seit der Aufklärung haben wir endgültig die Welt der statischen Werte, die über den Zeitrahmen eines Menschenlebens hinaus gelten, verlassen. Wir befinden uns in einer dynamischen Welt die innerhalb unserer Lebensspanne grundlegende Regeln verändert. In meiner Kindheit mussten Frauen noch die Erlaubnis des Mannes einholen, wenn sie arbeiten wollten. Bis 1994 war Homosexualität zwischen Männern unter Strafe gestellt, seit 2017 können gleichgeschlechtliche Paare heiraten. Dies sollen nur zwei Beispiele sein, um die Geschwindigkeit des Wandels in den Werten zu erkennen.


Auf der anderen Seite wurde bis 1956 in Deutschland noch an der Entwicklung von Dampflokomotiven gearbeitet, ein Jahr später kreiste der erste Satellit, Sputnik, um die Erde. Die Rechenleistung von Computern wächst exponentiell, sodass innerhalb von 40 Jahren die Leistung um den Faktor eine Million gewachsen ist.


Beide Aspekte, der gesellschaftliche Wandel und die massive Änderung der vorhandenen Technologie machen es für den Einzelnen sehr unübersichtlich, zu erkennen, was das Gute ist. Diese neue Dynamik droht in unserer Welt zu einer Gefahr zu werden, da es wesentlich schwieriger geworden ist, das richtige zu tun.


Zu alledem kommt jetzt noch ein dritter Faktor hinzu, die Gefahr die Biosphäre des Planeten Erde massiv zu verändern und dabei zu schädigen. Herausragend ist hier das CO2 Problem, das Treibhausgas könnte das gesamte Klimasystem in einen instabilen Zustand führen, den wir nicht kennen und damit die Basis unserer Lebensform schwer beeinträchtigen.

Wissenschaft und Lösungen

Die Wissenschaft kann keine moralische Norm aufstellen, aber sie kann Fakten liefern, um Entscheidungen sachlich zu begründen. Es mag fast in Vergessenheit geraten sein, es gibt Fakten die mit großer Sorgfalt von Wissenschaftlern gefunden werden und von anderen überprüft wurden. Auch wenn es hier wie immer bei menschlichen Handeln, einzelne Fehler gibt, so ist das nicht vergleichbar mit den Fake News die uns aus den sozialen Medien entgegenprasseln.


Will man Gutes tun, ist es wichtig, die Tatsachen zu kennen und dann daraus Handlungen abzuleiten die dem Zielen menschlicher Ethik entsprechen. Dazu gehört, die Unversehrtheit des Menschen achten und seit Hans Jonas [1] auch die weitere Existenz der Menschheit als ganzes zu berücksichtigen.


Praktisch bedeutet das, dass wir unsere Fähigkeiten so einsetzen sollen, dass die Gefahren minimiert werden und der Nutzen für alle am größten ist. Dazu ist es notwendig, eine Metrik einzuführen, also einen Maßstab, mit dem wir die Gefahren und den Nutzen messen und dann für verschiedenen Lösungen vergleichen. Metriken sind in den Wissenschaften ein weitverbreitetes System, aber in der öffentlichen Diskussion nur selten ein Instrument für die Beurteilung von Lösungen.


Daher müssen wir uns mit Metriken etwas vertraut machen. Eine einfache Metrik im Alltag sind die Kosten, die eine bestimmte Lösung hat. Diese kann mit der Einheit Geld gemessen werden. An dieser Stelle will ich nicht in die Details der Finanzanalyse einsteigen, aber darauf hinweisen, dass neben den Kosten immer auch die Zeit zu berücksichtigen ist. Erhalte ich heute 1000 Euro, hat das für mich einen größeren Wert als in 50 oder gar 100 Jahren! Diese Tatsache kann man über eine Diskontierung abbilden, die letztendlich den Wert eines Gegenstands in der Zukunft beschreibt.


Eine weitere Metrik geht der Frage nach, ob eine bestimmte Lösung Menschenleben gefährdet. So wissen wir alle, dass die Fahrt mit einem Auto oder der Flug mit einem Flugzeug mit einem geringen, aber messbaren Risiko belastet ist, bei einem Unfall tödlich zu verunglücken. Wie hoch die Wahrscheinlichkeit ist, kann uns die Wissenschaft mit guter Genauigkeit aufgrund umfangreicher Statistiken sagen.


In manchen Bereichen ist das Risiko für einen gesundheitlichen Schaden nicht so offensichtlich, etwa bei der Feinstaubbelastung durch den Verkehr. Hier müssen viele detaillierte statistische Analysen aus Erkrankungen gewonnen werden und demoskopische Faktoren berücksichtigt werden. Letztendlich erhält man aber auch dann eine Kennziffer, die den Zusammenhang zwischen der Luftverschmutzung und der Lebenserwartung klar aufzeigt. So stieg die Lebenserwartung bei Männern in Ostdeutschland innerhalb von zehn Jahren nach der Wende und der Stilllegung vieler umweltbelastender Betriebe um fünf Jahre [2]!

Anwendung des Ansatzes für den Klimawandel

Betrachten wir aus dieser Perspektive das Problem des Klimawandels, kommen wir schnell auf überraschende Aspekte.
Die Physik beschreibt mit klar nachvollziehbaren und überprüfbaren Gesetzen, dass das Gas Kohlendioxid (CO2) die Infrarotstrahlung absorbiert. Das kann man messen und ist aufgrund der Molekülstruktur auch berechenbar, also zweifelsfrei ein Naturgesetz.
Betrachtet man den Strahlungshaushalt der Erde, Einstrahlung von sichtbarem Licht von der Sonne, Abstrahlung von Wärmestrahlung, wird offenkundig, wenn die Abstrahlung durch CO2 behindert wird, wird es wärmer.
Wo kommt das CO2 in der Atmosphäre her? Ein Großteil kommt von verschiedenen biologischen Prozessen und wird durch biologische Prozesse wieder absorbiert, im Gleichgewicht hat die Luft damit ca. 270 CO2 Moleküle auf eine Million Moleküle (270 ppm).
Die Menschen verbrennen aktuell Kohle, Öl und Erdgas in einer Menge, dass ca. 36 Milliarden Tonnen zusätzliches CO2 pro Jahr in die Atmosphäre gelangt. Diese zusätzliche Menge kann nicht sofort von der Natur abgebaut werden, damit erhöht sich der Gehalt an CO2 und liegt aktuell bei über 400 ppm. Bis hierher kann niemand den Klimawandel bestreiten, der wissenschaftlich argumentiert.

Unklar ist, wie groß der Schaden ist, wenn die Temperatur steigt. Hier kann man unterschiedlicher Meinung sein, da dieses Experiment noch nie in der Form durchgeführt wurde. Und das ist auch genau das Problem, wir müssen uns auf Computersimulationen verlassen, die nicht hinreichend zuverlässig sind. Letztendlich ist es aber ein großes Risiko, den einzigen Planeten, den wir haben, weit aus dem Gleichgewicht zu bringen.

Mit diesem Wissen muss man jetzt nach einer Lösung suchen, wie man die Anreicherung von CO2 in der Atmosphäre auf ein vertretbares Maß zurückschraubt. Dafür gibt es prinzipiell drei Möglichkeiten:

  1. Verzichten auf die Energie, die aus Kohle, Öl und Gas erzeugt wird
  2. Wir finden einen Weg, wie das CO2 wieder aus der Atmosphäre entfernt wird
  3. Wir nutzen Energiequellen, die kein CO2 erzeugen.
Jeder dieser Pfade hat seine Probleme und jeder Pfad verursacht Kosten, sowohl finanziell als auch durch die Gefährdung von Menschenleben. Es geht daher um ein Abwägen, wie oben beschrieben. Mit der Metrik Kosten und Gesundheit können wir aber die Lösungen vergleichen und die Beste wählen.

Alle drei Pfade können auch parallel gegangen werden, etwas Energie sparen (1.), etwas CO2 abfangen (2.) und CO2 freie Energiequellen nutzen (3.), dafür gibt es sogar eine optimale Gewichtung. Wo diese optimale Gewichtung liegt, lässt sich aber nur sehr schwer durch Berechnung finden, da sehr viele Unbekannte vorliegen. Der einfachste Weg ist daher, die Kosten, die jede Lösung hat, direkt mit der CO2-Vermeidung zu koppeln, damit liegt die Lösung in einem CO2 Preis, der abgerechnet wird.

Isoliert etwa jemand sein Haus, sinkt der Energieverbrauch. Damit das über den CO2 Preis abgebildet wird, muss jede Energiequelle, etwa Öl, Strom, mit einem adäquaten CO2 Preisaufschlag versehen werden, der leicht zu berechnen ist. Das isolierte Haus spart Energie und der Besitzer damit Kosten, da er neben den eingesparten Energiekosten auch die eingesparten CO2 Emissionen nicht bezahlen muss, kann es sich lohnen in die Isolation zu investieren.

Jemand, der einen Wald dauerhaft anlegt, sollte für das damit gebundene CO2 einen finanziellen Ausgleich bekommen, dies wäre ein Anreiz für Punkt (2.).

Schwierig wird es bei den Kraftwerken

Die Umwandlung von Energieträgern wie Kohle oder Uran in Strom ist eine sehr nützliche Sache, da mit Strom praktisch jedes energetische Problem gelöst werden kann. Zudem kann Strom nahezu 100% in mechanische Energie umgewandelt werden. Das ist auch der Grund, warum moderne Volkswirtschaften einen hohen Stromverbrauch haben, als Daumenregel kann man von einem Kilowatt pro Einwohner ausgehen.

Leider ist die Erzeugung von Strom weder kostenlos, "Die Sonne schickt keine Rechnung", aber der Hersteller der Solaranlage, noch ist sie umweltfreundlich. Alle Formen der Energieumwandlung bringen spezifische Probleme mit sich, sei es hoher Landschaftsverbrauch (Solarenergie), nukleare Abfälle (Kernenergie) oder Überflutung von wertvollen Landschaften (Wasserkraft). Die Erzeugung von CO2 und Feinstaub bei der Stromerzeugung aus Kohle und Gas sind bereits bekannt.

Wenn man Strom erzeugt, muss man daher gewisse Schäden für die Umwelt und damit letztendlich für die Gesundheit der Menschen in Kauf nehmen. Zudem verursacht jede Form der Stromerzeugung Kosten, die vollständig erfasst werden müssen.

Die Macht der Besitzer von Energierohstoffen

Diesem, scheinbar objektiven, Tatbestand überlagert sich aber in der Diskussion um die Energieformen zusätzlich ein Glaubenskrieg und daneben die Macht der Besitzer der Energiereserven. Zuerst zu den Besitzern der Energiereserven.

Kohle, Öl und Gas sind keine gewöhnlichen Rohstoffe wie Eisen, Gold und Kupfer, da letztere nicht verbraucht werden, da sie zumindest theoretisch beliebig oft recycelt werden können. Ganz anders ist es bei den Energierohstoffen, sie sind sozusagen ein einmaliges Geschenk der Natur, einmal verbrannt, sind sie für immer verschwunden. Daher ist der Besitz von Energierohstoffen ein Privileg, dass mit allen Mitteln verteidigt wird. Das ist durchaus wörtlich zu nehmen, wenn wir an die Kriege um das Öl denken.

Dem Besitzer von Energierohstoffen kann nur ein Unglück geschehen, und das ist, dass keiner bereit ist einen hohen Preis für das Öl zu zahlen. Wie kann es sein, dass niemand einen hohen Preis für so einen wertvollen Rohstoff zahlen will? Wenn es eine Alternative gibt!

Technisch gibt es zu Öl, Gas und Kohle zwei Alternativen:
  • Kernenergie 
  • Erneuerbare Energien
Es liegt daher nahe, dass die Besitzer der Energierohstoffe versuchen, die Konkurrenz möglichst klein zuhalten. In den 70er-Jahren des 20. Jahrhunderts wurde sichtbar, dass die Kernenergie ein sehr großes Potenzial für die Energieerzeugung hat. Die meisten Untersuchungen gehen davon aus, dass man mit geeigneter Reaktortechnik mindestens tausend Jahre lang die Menschheit mit Energie aus der Kernspaltung versorgen kann. Zudem war Kernenergie zu dieser Zeit billiger als Kohle oder Öl in der Stromversorgung. 

Offensichtlich ein massives Problem für die Besitzer der Energierohstoffe. Eine Ironie der Geschichte ist jetzt, dass aus der anfänglichen Euphorie zur Kernenergie in der Bevölkerung eine gewisse Skepsis trat. Insbesondere mit dem Three Mile Island Reaktorunglück bei Harrisburg 1979 ging scheinbar eine große Gefahr von Kernreaktoren aus. Es ist zwar bei diesem Reaktorunglück niemand gestorben, aber die psychologische Wirkung war erheblich.

In der Folge dieses Vorfalls wurden in den USA die Sicherheitsvorschriften für Kernkraftwerke so weit verschärft, dass die Kosten für den Bau von Kernkraftwerken unwirtschaftlich wurden. Ich kann nicht beurteilen, ob dabei die "Öllobby" ihre Finger im Spiel hatte, aber nach allem, was ich über den Ablauf von Gesetzgebungsverfahren weiß, halte ich das für möglich. Insbesondere, wenn man der Regel: follow the money folgt, ergibt es durchaus Sinn, dass die Ölindustrie am gleichen Strang zog wie die Antiatomkraft Bewegung.

Für die Ölindustrie waren die erneuerbaren Energien aus Wind und Sonne keine Gefahr, da diese Energieformen zu diesem Zeitpunkt sehr teuer waren und bis heute das Speicherproblem nicht gelöst ist. Erst in den letzten zehn Jahren, seit etwa 2010 gibt es nennenswerte Ansätze, Strom aus Wind und Sonne unter günstigen Umständen preiswerter als konventionellen Strom zu erzeugen. Mit der Entwicklung des Elektroautos erscheint ein zusätzlicher Konkurrent für die Mineralölindustrie.

Doch am schwersten wiegt das CO2 Problem, das langsam in das breite Bewusstsein eindringt und mit aktuellen Temperaturrekorden immer sichtbarer wird. Für die Eigentümer der Kohle, Erdgas und Ölquellen ist diesmal die Situation schwieriger, sie können nur hoffen, dass kein Stromspeicher gefunden wird und dass die unheilige Allianz mit den Atomkraftgegnern hält. Die Börsen haben den Wert der Kohlenstoff Energiequellen schon um 1500 Mrd. $ abgewertet.

Die Guten wollen keine Kernenergie

Moralisch sehen sich die Gegner der Kernenergie als überlegen an. Es gibt einige Argumente der Kernenergiegegner, die historisch gewachsen sind und nicht unbedingt so weitergelten. Zum einen, weil sich die Technik wandelt, aber auch weil heute viel mehr Erfahrungen mit verschiedenen Energiequellen vorliegen. 

Der zentrale Argumentationsstrang der Kernkraftgegner dreht sich um die Gefahren der Radioaktivität. Radioaktivität ist für Menschen sehr schwer einzuschätzen und verhält sich gefühlt ähnlich wie unsichtbare Keime und Viren. Daher auch der völlig falsche Begriff der radioaktiven Verseuchung. Tatsache ist, dass Radioaktivität oder genauer ionisierende Strahlung, ein in der Natur weitverbreitetes Phänomen ist. Von der Höhenstrahlung, der wir massiv in einem Flugzeug ausgesetzt sind, bis zum Kalium-40, das Bestandteil unserer Knochen ist. 

Die Biologie unseres Körpers kann mit dieser natürlichen Strahlung gut umgehen, solange sie nicht eine bestimmte Schwelle überschreitet. Dies haben umfangreiche wissenschaftliche Untersuchungen gezeigt. Wir haben also eine Art "Immunsystem" gegen Strahlung, bei dem die Zellen über verschiedene Mechanismen die Störungen beheben. Einige Studien deuten sogar an, dass völliges Fehlen von ionisierender Strahlung zu einer Verkürzung der Lebensspanne führt.

Im Normalbetrieb liegt die Strahlung eines Reaktors weit unter dem Schwellwert, ab dem eine Gefahr für die Gesundheit ausgeht. Völlig anders sieht es bei Nuklearunfällen oder gar bei der Zündung einer Atombombe aus. Im schwersten Kernkraftunfall der Geschichte, im russischen Tschernobyl 1986, kam es aufgrund der Bauweise zu einer massiven Freisetzung von Radioaktivität. Insbesondere, weil der Graphitkern abgebrannt ist und das radioaktive Inventar völlig ungeschützt in der Luft verteilt hat. Ein vergleichbarer Unfall ist bei Druck- und Siedewasserreaktoren nicht möglich.

Bemerkenswert ist jetzt, dass die Zahl der Todesopfer die direkt durch Radioaktivität verstarben, kleiner ist als die Zahl der Todesopfer bei einem Flugzeugabsturz. Selbst wenn man die hypothetischen Todesopfer durch Spätfolgen, Krebs, einbezieht, liegt die Opferzahl bei 4000 Toten. Zum Vergleich, in Russland [3] verunglücken alle zwei Monate mehr Menschen tödlich mit dem Auto.

Ein weiteres Problem des Unfalls in Tschernobyl ist die Großräumige Versuchung der Landschaft um den Reaktor. Bemerkenswerterweise ist die Fläche, die noch evakuiert ist, kleiner als die Fläche des offenen Tagebaus in Deutschland, Flächen, die auch ohne Unfall im Kraftwerk eine Umsiedlung der Anwohner erfordern.

Es bleibt also festzustellen, dass nach 50 Jahren Kernenergienutzung bekannt ist, wie viel Strom mit Kernenergie erzeugt werden kann und auch, wie viel Todesopfer die Kernenergienutzung gefordert hat. Vergleicht man die Zahlen mit anderen Energiequellen, erhält man einen aussagekräftigen Vergleich über die Risiken der verschiedenen Energieformen.

Jede Energiequelle stellt eine Gefahr für das Leben von Menschen dar. (Abbildung: Daniel Bojar)

Erst durch einen Vergleich kann man die beste Entscheidung treffen. Und dabei sieht man eindeutig, dass die Zahl der Opfer durch Kohle, Öl und Biomasse weit höher sind als die Zahl durch Nuklearenergie. Ethisch ist es daher sinnvoll, die Energiequelle mit dem geringsten Risiko für Menschenleben zu wählen. Warum das in der öffentlichen Diskussion immer wieder verzerrt wird, ist mir nicht erklärlich. Über den möglichen Einfluss der Kohle und Ölindustrie habe ich schon geschrieben.

Wer sind die Guten?

In dieser Analyse habe ich versucht, den Aspekt der vergleichenden Betrachtung und des wissenschaftlichen Vorgehens bei der Beurteilung verschiedener Lösungen aufzuzeigen. Wollen wir das leben auf dem Planeten erhalten und die Entfaltung der Menschheit nicht gefährden, müssen wir die beste Basis, die wir haben, einsetzen und das ist die Wissenschaft und Technologie, die darauf basiert.

Wie müssen sehr vorsichtig sein um, Vorurteile und Ideologien, aber auch Manipulation rechtzeitig zu erkennen.  Die wichtigste Voraussetzung ist dafür sicherlich die Bildung in naturwissenschaftlichen Fragen, aber auch das kritische Denken. Und kritisches Denken ist mehr, als einmal eine Meinung zu erlangen und dann nie wieder zu hinterfragen. Erst derjenige, der seine eigene Meinung immer wieder sorgfältig überprüft ist in der Lage, ethisch gute Entscheidungen zu treffen. 

Ich hoffe, damit habe ich zum kritischen Denken angeregt.

(Wer sind die Guten? Auf Dauer jene die, die kritisch alles überprüfen und vernünftig abwägen.)

Zum Weiterlesen:




Quellen:

[1] Hans Jonas, Das Prinzip Verantwortung, Suhrkamp Taschenbuch
[2] Entwicklung der Lebenserwartung in Deutschland, Das Infor­mations­system der Gesund­heits­bericht­erstat­tung des Bundes (2020)
[3] Zukunft der Mobilität, WHO Statusreport on road safety, 2013.

Donnerstag, August 06, 2020

Kernfusion mit ITER

Kernfusion im Fusionsreaktor ITER

Die lange Suche nach dem goldenen Gral der Energiegewinnung, der Kernfusion, soll mit dem ITER ein Ende finden. Doch ist das realistisch und der richtige Pfad? In diesem Blog will ich näher auf die Entwicklung der Fusion und auf offensichtliche Probleme eingehen.

Kernenergie statt chemische Energie

Im 20. Jahrhundert hat die Menschheit entdeckt, dass es neben der chemischen Energie, die wir etwa beim Verbrennen von Öl und Kohle freisetzen, eine wesentlich energiereichere Quelle gibt, die Kernenergie. Der Unterschied liegt bei etwa einem Faktor eine Million. Der Faktor eine Million ist so gewaltig, dass man sich das als Mensch kaum vorstellen kann, es genügt eben in der Kernenergie ein Gramm, wo bei chemischer Energie eine Tonne Brennstoff benötigt werden.

Erstaunlicherweise gibt es sogar zwei prinzipiell völlig verschiedene Ansätze die Energie aus Atomkernen zu gewinnen. Man verschmilzt (fusioniert) zwei leichte Kerne, etwa die Kerne des Wasserstoffs und erhält extrem viel Energie und einige Heliumatome oder man spaltet schwere Elemente wie Uran und bekommt ebenfalls sehr viel Energie und einige Abfallprodukte.

Die Atombomben

Während des Zweiten Weltkriegs gelang es der USA, unter Führung vom italienischen Physiker Enrico Fermi, innerhalb von drei Jahren einen Kernreaktor in Chicago 1942 zum Laufen zu bringen. Dies geschah im Rahmen des Manhattan-Projekts, das direkt auf die Atombombe führte, die 1945 erstmals gezündet wurde.



Nach dem Zweiten Weltkrieg gelang es, mit der extremen Hitze einer Atombombe Wasserstoff zu zünden und damit die fast hundertmal so energiereiche Wasserstoffbombe zu bauen. Man beachte an dieser Stelle, dass zum Zünden der Wasserstoffbombe eine Atombombe nötig ist, zum Zünden der "normalen" Atombombe aber normaler Sprengstoff genügt! Damit bekommt man am schnellsten ein Gefühl, wie schwer es ist, eine Kernfusion zu realisieren.

Atoms for Peace

Die schrecklichen Bilder der Atombombenabwürfe vor Augen, hat den US-Präsidenten Eisenhower 1953 dazu gebracht, in der UNO "Atoms for Peace" auszurufen. Das Ziel, mit Kernreaktoren Strom zu erzeugen und dabei der Menschheit mit der sauberen Energie zu dienen. Bereits 1954 gab es in der UDSSR einen ersten Kernreaktor mit nennenswerter Stromerzeugung (5 MW). 

Naheliegend war es, auch einen Fusionsreaktor zu bauen, der einige der Probleme mit Kernreaktoren umgeht, insbesondere die mühsame Anreicherung von Uran 235, das für die meisten Reaktoren benötigt wird. Wasserstoff hingegen scheint praktisch unlimitiert verfügbar zu sein und daher begann auch die Forschung nach der Kernfusion zur selben Zeit. Genaugenommen gab es das erste Patent 1946 und das erste Plasma mit Fusionsreaktion im Imperial College 1950. Danach verlief die Forschung zur Kernfusion für einige Zeit im Geheimen, da sie in den Bereich der Kernwaffenentwicklung fiel.

Während die Entwicklung der Kernreaktoren, die auf der Spaltung von Uran beruhten relativ bald kommerzielle Anwendung fanden, kam die Kernfusion nicht voran. Das liegt an vielfältigen Problemen, die es bei der Fusion gibt.

Probleme der Kernfusion

Das zentrale Problem ist, dass die Kernfusion darauf beruht, dass zwei Protonen so nahe zusammen kommen, dass die Kernkraft* wirkt und damit eine Fusionsreaktion einsetzt. Das erfordert letztendlich eine hohe Temperatur, die im Bereich von hundert Millionen Grad liegt. Im Vergleich dazu, kann man bei der Kernspaltung mit Neutronen arbeiten, die bei jeder Temperatur einen Kern spalten können.

Offensichtlich gibt es keine Gefäße, die Millionen von Grad aushalten, so muss man auf spezielle Tricks ausweichen, um die Temperatur zu erreichen. Neben dem Trägheitseinschluss und anderen Methoden, die beim ITER keine Rolle spielen, will ich nur den magnetischen Einschluss von Plasmen betrachten.

Netterweise gibt uns die Natur Magnetfelder, die in einem geschlossenen Torus Plasma fast perfekt festhalten können. Damit das Plasma eine Fusionsreaktion zeigt, sind einige wichtige Randbedingungen zu beachten:
  1. Aufheizen des Plasmas
  2. Stabil halten
  3. Keine Abstrahlung durch Fremdatome (Eisen**)
  4. Druck aufrechterhalten
Neben diesen technischen Problemen mit dem Plasma kommen jetzt einige ingenieurtechnische Probleme. Sollte das Plasma brennen, dann entsteht Energie, die durch die erste Wand abgeführt werden muss. Diese Wand muss sehr viele Nebenbedingungen erfüllen, die praktisch kaum zu erfüllen sind:
  1. Extrem hohe Temperaturen (weit über 1000°C) 
  2. Neutronen aus der Fusion sollen wenig Radioaktivität erzeugen
  3. Material soll Tritium erzeugen
Als weiteres muss die Geometrie ein vernünftiges Verhältnis zwischen Volumen und Wand ergeben, das erscheint mir das schwerwiegendste Problem. Betrachtet man den Aufbau sehr vereinfacht, dann wächst die Wandfläche mit der zweiten Potenz, das Volumen mit der dritten Potenz. Damit man bei einer gewissen Fusionsdichte gute Resultate erzeugt, muss einerseits der Reaktor groß sein und vielleicht 4 GW thermische Leistung erzeugen, andererseits muss die Wand so groß sein, dass die Energie die Wand nicht sofort verdampfen lässt. 

Im ITER beträgt das Volumen etwa 1000 m³, die Oberfläche beträgt etwa 1000 m². Bei einer geplanten maximalen Leistung von 500 MW gehen also durch jeden Quadratmeter 500 kW. Skaliert man diese Werte auf einen 4 GW Reaktor (Verdopplung des Systemradius), steigt der Energiefluss pro Quadratmeter Wand auf 1000 kW. Das entspricht der Wärmeabstrahlung bei 1700°C, Eisen ist da längst flüssig.

Um in derartig großen Volumina ein Magnetfeld von über 10 Tesla aufzubauen, sind Supraleitende Magneten erforderlich und zudem eine extrem massive Struktur, damit nicht alle unter dem Magnetfeld kollabiert. Im ITER sind dazu bereits 6 cm dicke Stahlstrukturen erforderlich. Letztendlich kann man das Volumen kaum sinnvoll vergrößern, ohne auf der anderen Seite Magnetfeldstärke zu verlieren.

Das Tritium Problem

Obwohl in der Presse oft suggeriert wird, ein Fusionsreaktor nütze Wasserstoff, so wie er im Wasser vorkommt, stimmt das nicht.

Die Fusion von normalen Wasserstoff erfordert derart hohe Temperaturen und Druckbedingungen (inneres der Sonne), dass diese Lösung nicht angedacht wird. Damit man überhaupt eine Chance hat, die Fusionsreaktion dauerhaft zu realisieren, muss man Deuterium und Tritium fusionieren. Deuterium kommt im normalen Wasser zu einem kleinen Prozentsatz vor, Tritium nicht. Tritium kann etwa aus Lithium erbrütet werden, indem Neutronen aus der Fusionsreaktion eine entsprechende Reaktion hervorrufen. Tritium ist aber ein besonders unangenehmes radioaktives Element.
Das Isotop Tritium verhält sich wie Wasserstoff, dringt also durch alle Materialien und hat eine Halbwertszeit von 12 Jahren. Damit ist aber der gesamte Reaktor nach einiger Zeit mit Tritium kontaminiert. Damit kann man in einem normalen Reaktor leben, da niemand in das Reaktorgefäß hineinsteigen will. 
Leider ist es bei der Kernfusion anders, die erste Wand, also jener Bereich der weit über 1000 °C warm wird, muss nach etwa 2 Jahren ausgetauscht werden. Die Form des Reaktors ist aber nicht einfach ein Brennstab, den man gut unter Wasser wechseln kann, sondern ein Torus mit mehreren zehn Metern, dessen Innenseite ausgetauscht werden muss. Welche Roboter das kostengünstig und schnell machen weis aktuell niemand.

Das Verhalten von Plasma

Heißes Plasma ist ein sehr schwer beherrschbares System. Das liegt daran, dass die geladenen Teilchen, Elektronen und Protonen getrennt ihre merkwürdigen Wege im Magnetfeld gehen und dabei selbst Magnetfelder erzeugen. Ein Phänomen ist dabei die Kink Instabilität, die ich hier im Detail nicht analysieren will, aber die bisher nicht gelöst ist.
Einen gewissen Eindruck vermittel ein Gewitterblitz, der einem Plasma im Fusionsreaktor nicht so unähnlich ist. Sehr selten (nie↯) sieht man einen pfeilgeraden Blitz, sondern immer eine hoch komplizierte Form, die durch das eigene Magnetfeld völlig instabil ist. Um dies zu berechnen wurden nicht umsonst die ersten Supercomputer in der Plasmaphysik eingesetzt. Ich erinnere mich noch an meine Arbeit im Max-Planck-Institut für Plasmaphysik (IPP) in Garching, als ich auf der gemütlichen Bank eines Cray-Computers sitzen durfte. 

Zeit und Innovationen

Widmen wir uns jetzt der Zeit, die vergangen ist, seit der erste Versuch unternommen wurde einen Fusionsreaktor zu verstehen. Es liegen jetzt 70 Jahre Forschung hinter uns, und es wurde keine grundsätzlich neue Idee im Bereich der Tokamak Fusion geboren. Sicher, man hat die Anlagen immer größer gebaut und einige Erkenntnisse über die Probleme gewonnen. Aber die Einschlusszeit und Temperatur, die nötig sind um ein Plasma dauerhaft zu zünden, wurden nicht erreicht.
Karte der Entwicklung in Richtung Zündung (Ignition) [1]
Dem stark doppellogarithmischen Bild entnimmt man, dass man zwar in Richtung Zündung vorangekommen ist, aber immer noch fast eine Zehnerpotenz vom Ziel entfernt ist. Wie man der "Karte" entnimmt, sind in den letzten Jahrzehnten nur geringe Fortschritte erzielt worden, die Punkte liegen dichter, es fehlt an Ideen, wie man höhere Temperaturen, Dichte und Drücke erreichen kann. 

Der Versuch mit aller Gewalt einen Reaktor zu bauen, ist natürlich möglich, wenn Kosten keine Rolle spielen, wie in der staatlichen Forschung zum ITER. Und ich will auch nicht ausschließen, dass eine Zündung gelingt. Aber damit ist man noch weit von einer Energieerzeugung weg und noch viel weiter von einer ökonomischen Lösung.

Es gab in der Innovationsgeschichte immer wieder Fälle, in denen man in eine Sackgasse gerannt ist, als Beispiel sei die Supraleitung genannt, die mit vielen Mitteln unterstützt wurde und im Bereich der metallischen Supraleitung nie den Temperaturbereich von flüssigen Helium verlassen hat. 

Bis dann aus völlig anderen Überlegungen heraus die Hochtemperatursupraleitung bei der IBM von Bednorz und Müller gefunden wurde. Leider aber immer noch bei Temperaturen, die flüssigen Stickstoff erfordern und mit Materialien, die nicht gut zu verarbeiten sind. 

Ähnlich hat es sich mit der Entwicklung von Flugzeugen verhalten, am MIT wurde dazu gegen Ende des 19. Jahrhunderts dazu intensiv geforscht, die Lösung haben dann Fahrradhändler, die Gebrüder Wright, gefunden!

Aktuell sehe ich auch in der Forschung nach einem Energiespeicher auf Wasserstoffbasis (nicht mit Fusion zu verwechseln) in einer Sackgasse. Seit über hundert Jahren kennen wir die Brennstoffzelle, aber bis heute gibt es keine ökonomische, energetische Nutzung von Wasserstoff, obwohl viele Forschungsmilliarden auch hier verwendet wurden.

Auswege aus der Sackgasse

Wenn es eine Lösung für die Kernfusion geben soll, dann wird das sicher aus einer überraschenden Ecke kommen. Es gibt viele interessante Ansätze, so könnte es eine völlig neue Konfiguration des Plasmas sein, wie sie von Eric J. Lerner im LPPFusion Projekt vorgeschlagen wird.
Andere Pfade beschäftigen sich mit verschiedenen Wegen, dem Trägheitseinschluss und immer noch exotisch ist die kalte Fusion, die neuerdings eine gewisse Förderung der EU bekommt. 



Doch wozu Fusionsreaktoren erforschen, wenn es funktionierende Kernreaktoren gibt, insbesondere neue Ansätze wie der Flüssigsalzreaktor auf Thorium Basis scheinen sehr vielversprechend. Thorium ist ebenfalls eine Substanz, die in derart großen Mengen in der Erdkruste existiert, dass man zumindest für weitere tausend Jahre genügend Brennstoff hat, selbst wenn man die gesamte Energieversorgung der Erde darauf umstellt. 

Und in einigen Tausend Jahren haben wir mit Sicherheit neue Lösungen für die Energiegewinnung gefunden, die völlig überraschend aus heutiger Sicht sind. 
Ein Turmbau zu Babel erreicht nicht den Himmel, damals, vor einigen tausend Jahren, war die Technik nicht so weit, heute Nutzen wir Raketen, ein völlig anderer Ansatz.

Daher appelliere ich an die Politik, gebt den vielen Ideen eine Chance und setzt nicht das ganze Geld auf eine Karte, 20 Milliarden für den ITER sind zu viel.
Doch solange das Versprechen der Forscher kommt, in 30 Jahren sind wir am Ziel, wird kein Politiker es wagen, das Projekt zu beenden, da er in 30 Jahren niemanden mehr Rechenschaft schuldig ist. 

Anmerkungen

* hier ist die Kraft, die die Atomkerne zusammenhält, wörtlich gemeint
** ich erinnere mich an meine Zeit am IPP, als ich die Temperatur des Plasmas mithilfe der Thomson Streuung messen sollte, viel Energie des Plasmas geht durch hoch angeregte Atome wie Eisen verloren, die leicht in das Plasma eindringen und extreme Kühlwirkung haben.
# Es gibt ein goldenes Vlies und einen heiligen Gral, ich nehme mal goldenen Gral, den gibt es nicht.
[1] Nuclear Engineering and Technology 41(4):455 · May 2009
Lesenswert: Für immer ein Traum (taz)

Montag, Juli 20, 2020

Todesfälle COVID-19 in Deutschland unklar

Wie viele Menschen sind im Juli an Corona gestorben?

Wie viele Menschen sind in Deutschland im Juli (bis zum 20. Juli) in Deutschland verstorben? Das erscheint als einfache Frage, aber die Datenlage ist sehr merkwürdig.
Ich beziehe mich vollständig auf Daten des Robert Koch-Instituts (RKI), die entsprechenden Daten können hier abgerufen werden.

Der Lagebericht

Zunächst findet man die Tagesmeldung:

Der tägliche Lagebericht des RKI

Leicht kann man sehen, es sind bisher (20.7.2020) 9086 Menschen an Corona in Deutschland verstorben, und das sind zwei mehr als gestern. Soweit so gut, aber jetzt gehen wir den Bericht mal weiter nach unten:

Tote im Intensivbett

Und da findet man die Lage auf den Intensivstationen. Dort sind bisher, wenn es stimmt, 3729 Menschen an Corona verstorben. Interessanterweise kommt weniger als die Hälfte, die tödlich erkrankt sind, auf die Intensivstation, was mich sehr verwundert. 
Aber dafür kann es ja irgendwelche Gründe geben.

Wesentlich merkwürdiger ist, dass am 20.7. 2020 gegenüber den Vortag 25 Menschen verstorben sind! Vergleicht man das mit der Meldung oben, ist das ein Faktor 10.
Dieser Diskrepanz bin ich jetzt mal nachgegangen und habe mir alle Berichte seit Anfang Juli angesehen. Die relevanten Zahlen finden sich in der folgenden Tabelle:

Alle relevanten Daten und die jeweils berechneten Todesfälle. Bemerkenswert auch die vielen "Auferstehungen", etwa 14 am 6. Juli 2020.

Zwischen 30. Juni 2020 und 20. Juli sind laut der Überschrift des Lageberichts 113 Personen verstorben. Erfreulicherweise wurde die Tagesdifferenz in der 3. Spalte auch jeden Tag richtig berechnet. 

Aber bei den Verstorbenen in der Intensivstation ist es sehr merkwürdig, dort sind im gleichen Zeitraum nur 35  Menschen verstorben, zumindest wenn man die Differenz zwischen 30. Juni und 20. Juli berechnet. Noch merkwürdiger wird es, wenn man die täglichen Angaben der "Änderungen zum Vortag*" ansieht, die laut Institut schwanken können. Aber wieso es jede Woche oft 10 "negative" Tote gibt, das kann man nur sehr schwer nachvollziehen und senkt die Glaubwürdigkeit der Angaben enorm. Leider gibt es für das Wochenende überhaupt keine Angaben, hier kann man dann die Differenz suchen.

Fazit

Für mich ist das alles unverständlich, denn die Glaubwürdigkeit jeder Corona-Maßnahme steht und fällt mit guten Daten, dass es selbst nach vier Monaten keine nachvollziehbaren Daten gibt, ist für ein Land wie Deutschland erschreckend.

Montag, Juni 15, 2020

Ein Fehler riesiger Schaden

Ein Fehler kann riesigen Schaden anrichten

Leider kennen wir das alle, ein kleiner Fehler und es gibt einen großen Schaden, man stolpert mit der Vase und es bleiben nur Scherben. Schlimmer wird es, wenn man mit dem Auto fährt, kurze Unaufmerksamkeit und ein Unfall passiert, möglicherweise sogar mit Personenschäden. Noch schlimmer, wenn ein Pilot mit hunderten von Passagieren die Lage falsch einschätzt oder gar absichtlich ein Unglück verursacht.
Geht das gut? Eine instabile Situation kann fatale Folgen haben.

Aber wo liegen die monumentalen Fehler?

Coronavirus

Viele haben gerade Zeit, diesen Blog zu lesen, weil ein Virus das Leben vieler Menschen auf der Welt gefährdet und bereits eine halbe Million Menschen gestorben sind.
Doch schauen wir an den Anfang der Geschichte:
Der chinesische Arzt Li Wenliang beobachtete ende 2019 die ersten sieben Fälle von Covid-19 in seiner Klinik und meldete dies den Behörden, die Gesundheitskommission der Stadt Wuhan verbot aber den Bericht und eine frühzeitige Bekämpfung, die damals sicher möglich gewesen wäre, unterblieb. Ich kenne nicht den Namen der Person, die dafür verantwortlich zeichnet, aber der Fehler hat unvorstellbares Leid, wirtschaftlichen Schaden und eine unabsehbare Veränderung unseres Lebens verursacht.

Tschernobyl und der Nachteinsatz

Anatoli Stepanowitsch Djatlow führte in der Nacht zum 26. April 1986 ein Experiment am Reaktor des mit Grafit moderierten Kernreaktors in Tschernobyl durch. Er musste aufgrund einer zusätzlichen Stromnachfrage Stunden auf den Beginn des Experiments warten. Tief in der Nacht, die Konzentration war schon schlecht wurde das Experiment gestartet, einige Sicherheitsvorkehrungen wurden abgeschaltet und das Schicksal nahm seinen Lauf. 
Es kam zur größten Kerntechnischen Katastrophe in der Geschichte der Menschheit, ca. 4000 Menschen starben direkt oder später an den Folgen der Strahlung. 
Das ist aber erst der Anfang der Geschichte, aufgrund des Unfalls wuchs weltweit die Sorge, dass so was auch an anderen Orten geschehen könnte. Viele geplante Kernkraftwerke wurden nicht mehr fertiggestellt, Kohlekraftwerke übernahmen die Energieversorgung, nicht zuletzt in China und in Deutschland. Damit mussten aber aufgrund der Staubbelastung vermutlich eine Million Menschen sterben.
Da aber diese Kraftwerke enorme Mengen an CO2 in die Atmosphäre blasen, kann es sein, dass der Schaden noch weitaus größer wird. Ich will jetzt nicht die Klimakatastrophe herbeireden, aber das Risiko, das durch die ungezügelte Freisetzung von CO2 entsteht ist die globale Gefahr!

Absichtliche Katastrophen

Es ist schwer einzuschätzen, welche Folgen ein Fehler hat, es ist klar, wenn jemand mit Absicht eine Störung unserer Zivilisation versucht, kann die Kettenreaktion außergewöhnlich schwerwiegende Folgen haben. Wobei wir nie wissen, ob es sich nur um den letzten Tropfen, der das Fass zum Überlaufen brachte, handelte, oder ob jemand wirklich einfach einen Kipppunkt des Systems fand.
Das gravierendste Beispiel ist für mich Gavrilo Princip, der durch sein Attentat auf den österreichischen Thronfolger Erzherzog Franz Ferdinand den Ersten Weltkrieg auslöste und letztendlich damit auch den Zweiten Weltkrieg verursachte. 
In der Folge des Ereignisses kamen vermutlich mehr Menschen ums leben, als je durch eine einzelne Tat das Leben verloren.  

Positive Taten

Stanislaw Jewgrafowitsch Petrow stufte am 26. September 1983 als leitender Offizier in der Kommandozentrale der sowjetischen Satellitenüberwachung einen vom System gemeldeten Angriff der USA mit nuklearen Interkontinentalraketen auf die UdSSR korrekt als Fehlalarm ein (Quelle: Wikipedia).
Hätte er die Meldung ungeprüft und fehlerhaft weitergeleitet, hätte es leicht zum dritten Weltkrieg mit unabsehbaren Folgen für die menschliche Zivilisation kommen können. Sicherlich gibt es ähnliche Taten, die geheim gehalten wurden oder nicht bekannt wurden, aber für mich ist Herr Petrow einer der größten Helden des 20. Jahrhunderts.

Die Welt ist viel instabiler als viele denken

Diese wenigen Beispiele Zeigen, was einzelne Entscheidungen bewirken können. Dass eine Handlung derart fundamentale Auswirkungen haben kann, ist ein wichtiger Hinweis, wie labil unsere Zivilisation ist. Möglicherweise gibt es einen weiteren Fehler, den wir uns im Moment nicht vorstellen können, oder an den wir nicht denken, der noch schwerwiegendere Folgen als die oben aufgeführten hat. 
Vielleicht ist es nicht eine Pistolenkugel, sondern ein Computervirus, eine Systemstörung im Stromnetz, eine politische Kleinigkeit, ein Feuer oder eine Krankheit einer Pflanze, ein Absturz oder ein Satellit, ein Programmfehler oder eine Falschmeldung, erfinden Sie einfach eine weitere Idee.

Zum Weiterlesen






Samstag, Mai 23, 2020

Corona Ranking

Corona Ranking: Aktive Fälle

Erfreulicherweise haben die vielen Maßnahmen zum Eingrenzen der Corona-Ausbreitung in Deutschland Wirkung gezeigt.
Dies ist einer sehr vernünftigen Bevölkerung und auch einer entschlossen handelnden Regierung zu verdanken. Wo genau steht Deutschland im internationalen Vergleich, genau diese Frage will ich hier beantworten.

Aktive Fälle

In den allermeisten Ländern der Welt werden die "Aktiven Fälle", also jene die erkrankt sind, erfasst. Leider nicht in England genaugenommen in UK. Interessant ist die Frage, in welchen Ländern gibt es noch viele aktive Fälle bezogen auf tausend Einwohner. Kleine Länder, mit weniger als eine Million Einwohner habe ich nicht berücksichtigt, weiterhin habe ich Länder die weniger als ein Prozent der Bevölkerung getestet haben, auch weggelassen. 
Hier das Ranking nach "Aktiven Fällen" pro 1000 Einwohner.
Die Hitliste wird angeführt von Qatar, Belgien und Schweden haben in Europa die meisten aktiven Fälle:
Top 9
Und die gesamte Liste:
Deutschland ist auf Platz 48 (0,14 Promille)was sehr erfreulich ist, Schweden liegt mit Platz 8 wesentlich ungünstiger. 

In Deutschland ist der Wert mit 0,14 Promille aktive erkrankte Menschen sehr erfreulich und wir liegen auf Rang 48, andere Länder, wie Schweden, dort sind noch 2,4 Promille krank, stehen noch immer schlecht da. Noch etwas schlimmer ist es in den USA (3,46 Promille).

Aktive bezogen auf alle Fälle 

Manche Länder hatten das Glück oder Pech, besonders früh Fälle zu haben und haben daher vielleicht nicht schnell genug reagiert und damit doch sehr viele Coronafälle bekommen. Daher vergleiche ich jetzt die aktiven Fälle, die es noch gibt, mit allen Fällen, die schon mal aufgetreten sind. Das zeigt am besten, wie erfolgreich ein Land im Zurückdrängen der Krankheit ist.
Ich dividiere also "Aktive Fälle" durch alle bekannten Fälle und erhalte wieder ein Ranking:
Deutschland hat fast vollständig die Krankheit zurückgedrängt. Fast alle Länder sind da noch nicht so weit.

Hier liegt Deutschland außerordentlich gut, auf einem der letzten Plätze (77)! Das ist hocherfreulich, weil es bedeutet, dass wir, obwohl es viele Fälle gab, heute (23. Mai 2020) kaum mehr welche, im Vergleich zu allen, haben. Schweden liegt auf einen erschreckenden Platz, unter allen Industrienationen hat es sich am wenigsten um die Eindämmung der Corona-Seuche gekümmert!

Datenquelle: Worldometer




Sonntag, April 26, 2020

Kleines Paradies

Ein kleines Paradies im Garten

Wir sind ja im Moment gezwungen, das kleine Glück in unserer Umgebung zu suchen. Eine Fernreise in die Tropen verbietet sich, das Leben in einer Biosphäre auf dem Mars ist noch in weiter Ferne, also habe ich die Version für kleines Geld umgesetzt. Jeder der 20 m² Rasen hat kann es für unter 1000 Euro nachbauen.

Außenansicht des Gardenigloo mit Planschbecken und Isolation

Eine geodätische Halbkugel: Der Gardenigloo 

Wie schon vor langer Zeit in meinem Blog beschrieben, habe ich mir einen Gardenigloo gekauft, das ist eine transparente Plastikkuppel die fast wie ein platonischer Körper, genaugenommen ein Dom basierend auf einen Pentakisdodekaeder  1. Frequenz, aufgebaut ist. 

Das entscheidende der Gartenkuppel ist, dass man darin wind- und wettergeschützt ist und daher sehr angenehm bei unterschiedlichen Wetterlagen die Zeit verbringen kann. Besonders reizvoll ist es, wenn man den Innenraum als tropisches Bad gestaltet, was ich hier näher beschreiben will.

Die Bananenstaude verspricht tropische Gefühle.

Die Inneneinrichtung mit Pflanzen

Der Innenraum bietet eine Grundfläche von 10 m², also nicht wirklich viel, aber damit auch die Chance, dass man den Raum ohne große Mühe selbst gestalten kann. Ich habe drei Pflanzen gewählt, die mich am besten an den Süden erinnern: 
  • ein Zitronenbäumchen
  • ein Feigenbäumchen
  • eine japanische Bananenstaude mit mehreren Trieben
All diese Pflanzen sind mehr oder weniger Frostempfindlich, daher muss man sehen, wie man diese Pflanzen vor Frost schützt. Eine Elektroheizung verbietet sich für mich aus ökologischen Gründen, daher habe ich versucht kreativ zu werden.
Die Zitrone trägt Früchte und blüht gleichzeitig

 Da es im Innenraum bei Sonne sehr warm wird, könnte man meinen, das würde genügen, um über die Nacht zu kommen. Aber ich wohne im Schwarzwald 850 Meter über dem Meer, da können auch im April die Nächte noch frostig werden, insbesondere, wenn es eine klare Nacht gibt. Die Folie hält übrigens kaum Infrarotstrahlung zurück, anders als Glas!

Das Zitronenbäumchen trägt echte Zitronen
Zunächst habe ich es mit drei schwarzen Kunststoffkanistern versucht, diese mit insgesamt 60 Liter  Wasser gefüllt und in die Sonne, innerhalb der Kuppel, gestellt. Das Wasser wird warm, vielleicht 30 Grad, aber in der Nacht genügt das leider nicht, um den Frost fernzuhalten.

Die Lösung: ein kleiner Pool

Auf Anregung meiner Kinder und eines alten Blogartikels von mir, Hallenbad für Jedermann, kam ich auf die Idee in den Gardenigloo ein größeres Planschbecken zu stellen. Durchmesser zwei Meter und gerade noch genügend Platz für die Pflanzen, die Stühle und ein kleines Tischchen. Nachdem das Becken gefüllt war, bemerkte ich, dass das Wasser doch eher kalt blieb.

Unter den Bananenblättern ein kleines Tischchen mit Thermometer

Da der "Teich" im Igloo langweilig war, habe ich einen solarbetriebenen Springbrunnen gekauft, für 27 Euro inklusive Solarzelle wirklich nicht teuer.

Der Springbrunnen steht auf einen Eimer, weil das Wasser tiefer ist.

Jetzt passierte das überraschende, das Wasser das durch die sehr warme Luft in Igloo, die Luft ist bis zu 40 °C warm, sprühte, erwärmte sich, da die kleinen Wassertropfen eine riesige Oberfläche haben und nahezu perfekt die Energie mit der Luft austauschen. Die Luft kühlte sich auf angenehme, tropische 32 °C ab und das Wasser erwärmte sich auf 27 °C.
Damit hatte ich vier Probleme gelöst:
  • Das Wasser hat jetzt die perfekte Temperatur für ein Bad
  • Die Luft ist nicht mehr so heiß
  • In der Nacht kühlt die Luft im Innenraum nicht mehr so stark ab, kein Frost
  • Die Pflanzen mögen die feuchte Luft
Und nicht zuletzt ist es natürlich nett, wenn das Wasser plätschert.

Die mitgelieferte Solarzelle betreibt den Springbrunnen.

Sauberes Wasser

Und es gibt noch einen überraschenden Vorteil. Jeder der schon mal einen kleinen Pool aufgestellt hat, weis, dass nach einer Woche das Wasser nicht mehr sehr appetitlich ist, zumeist wird es grün von vielen Algen. Ganz anders mit dem Springbrunnen, das Wasser wird stark mit Sauerstoff angereichert und offensichtlich fühlen sich die Algen und Bakterien darin nicht so wohl, der Effekt ist fast wie Chlorieren von Badewasser, aber mit dem großen Vorteil, dass es nicht unangenehm riecht und ökologisch völlig unbedenklich ist.

Einfach genießen

Das kleine Paradies ist jetzt fertig, es ist tropisch warm und man schlüpft gerne in die Badehose, auch wenn es außerhalb unter 20 °C hat. Wenn es mir dann warm genug ist, steige ich in das Becken, lasse mich vom Springbrunnen abfrischen und lege mich in das Wasser. Über mir die Bananenblätter, vor mir die Zitrone, leises plätschern des Brunnens und ich fühle mich sehr entspannt. 

Ein 360° Panorama aus dem Inneren der Tropeninsel.

Wenn ich aus dem Wasser steige, ist die Luft so warm, dass man sich nicht abtrocknen muss, sondern die Kühle der verdunstenden Tropfen geniest.
Was will man mehr an Urlaub? 

Optimierung der Isolation

Da es im Schwarzwald wirklich kalt wird, habe ich noch Rettungsfolie auf der Nordseite Igloohaut angebracht, diese Folie wirft die Wärme optimal zurück und sichert damit zusätzlich, dass die Pflanzen in der Nacht geschützt sind. 

Die Feige steht vor der Rettungsfolie, Frostgefahr!

Im Hochsommer werde ich die vermutlich entfernen, wenn es wirklich frostsicher ist.

Quellen:

[1] Den Gardenigloo kann man hier bestellen, ich weise darauf hin, dass ich keine Provision der Firma bekomme oder sonst irgendwie mit dem Unternehmen zu tun habe.

Dienstag, April 07, 2020

Corona der Wendepunkt

Coronakrise: Auf der Suche nach dem Wendepunkt 

Vor langer Zeit hat jeder in der Schule den Begriff des Wendepunkts kennengelernt, das war irgendwas in Mathematik. Der Wendepunkt ist der Zeitpunkt, an dem das exponentielle Wachstum in einen Rückgang übergeht. Ab diesen Zeitpunkt ist die Gefahr gebannt, wenn auch noch nicht vorüber. Haben wir diesen Punkt schon erreicht?

Wo ist der Wendepunkt? 

Bei der Coronainfektion wächst, wie bei jeder Infektionsausbreitung, zunächst die Zahl der neu Infizierten exponentiell. Das bedeutet, dass im Verhältnis zu den bereits Infizierten ein fester Prozentsatz pro Tag hinzukommt. Aus 1000 Infizierte am ersten Tag werden, bei 30% Wachstum am Tag, 1300 Infizierte am zweiten Tag und am nächsten Tag werden die 30% auf die 1300 Infizierten gerechnet, also kommen weitere 390 Infizierte dazu. Am dritten Tag haben wir also 1690 und so geht es rasend weiter, am nächsten Tag hat sich die Zahl schon gegenüber dem Anfang verdoppelt.


Bild 1: Meine Annahmen für den Eingriff in das Sozialverhalten.
Eins = keine Änderung, zwei = Halbierung der Kontakte
Es gibt in dieser Situation nur zwei Wege, wie die Ausbreitung langsamer werden kann: Entweder es gibt keine Menschen mehr, die noch angesteckt werden können, dann ist die sogenannte Herdenimmunität erreicht oder man unterbindet die Ansteckung durch Beschränkung der sozialen Kontakte. Noch schöner wäre ein Impfstoff, aber den haben wir nicht. 

Die Reduktion der sozialen Kontakte (Bild 1) wird ab 5. März im Modell eingerechnet und man sieht, in Bild 2, wie die rote Linie der Neuinfektionsrate rasch zurückgeht. Dabei nehme ich an, dass die Maßnahmen bis Ende März alle wirksam wurden und bis Ende Mai alle eingehalten werden.

Um zu erkennen, welche Wirkung die Einschränkungen der Kontakte haben, genügt es nicht einfach die Zahl der Infizierten zu zählen, selbst die Zahl der Neuinfizierten gibt uns nicht direkt Auskunft, man muss wissen wie sich das Wachstum in Prozent verändert. Das nennt der Mathematiker die 2. Ableitung. 

Bild 2: Kurvenverlauf der bekannten Infektionsfälle (rote Punkte), Prognose (blaue Linie)
täglicher Zuwachs (rote Linie), wir sind immer noch am Anfang.
Selbst bei nahezu perfekter Isolation wird es immer noch neue Fälle geben, wie kommen wir da zu einem Rückgang? Das ist möglich, weil Menschen nach einiger Zeit wieder gesund werden und zum Glück danach auch immun gegen die Krankheit sind. Obwohl die genauen Zahlen nicht bekannt sind, nehmen wir vereinfacht an, dass 10% pro Tag gesund werden. Dann ist der Wendepunkt erreicht, wenn weniger als 10% neue Erkrankungen pro Tag hinzukommen. Dieser erste Wendepunkt wurde Ende März erreicht. Allerdings wächst die Zahl der Infizierten noch weiter an, vermutlich bis 25. Mai, um dann rasch zurückzugehen.

In der Analyse sieht man dies als blaue Kurve, die optisch einer Glockenkurve ähnelt, auch wenn ein anderer mathematischer Zusammenhang dahinter liegt. Hinweis, ich habe diesmal die Skala linear gewählt, damit die Kurvenform leichter zu erkennen ist.

Wo steht Deutschland?

In Deutschland wurden relativ früh viele Tests durchgeführt und viele Einschränkungen umgesetzt. Daher sind die Krankenhäuser noch nicht am Limit und können alle Patienten gut versorgen. 
Dafür muss man auch allen Mitarbeitern in den Krankenhäusern sehr dankbar sein!

In der Statistik zeigt sich das, wenn man die Infektionsfälle in den Ländern mit den Todesfällen vergleicht (jeweils auf eine Million Einwohner bezogen).

Deutschland hat bemerkenswert wenig Todesfälle aufgrund des Coronavirus. (Datenquelle: Worldometers)
Hinweis: in der ursprünglichen Kurve war Portugal falsch eingetragen.

Die Größe der Blasen gibt an, wie viele Tests durchgeführt wurden, Länder, die viel testen haben natürlich eine geringere Dunkelziffer. Aber Italien hat auch viel getestet. Die USA liegen ähnlich niedrig wie Deutschland, es ist also aktuell nicht sinnvoll, dorthin mit dem Finger zu zeigen, das Land ist eben viel größer und daher sind die absoluten Zahlen auch erschreckender.

Wie hoch ist die Mortalität?

Die Mortalität und die Zeit zwischen Corona Diagnose und Tod kann man mit den vorhandenen Statistiken abschätzen.
Dafür habe ich die Änderung der Neudiagnosen und die Änderung der Sterbefälle in eine Grafik eingetragen. Geht man davon aus, dass ein prozentualer Rückgang der Neudiagnosen nach einiger Zeit einen gleichen Rückgang der prozentualen Zunahme der Todesfälle bewirkt, findet man die restlichen Tage, die ein Diagnostizierter hat, bis er verstirbt. 

Auswertung des Rückgangs der Infektionen und der Todesfälle
Nimmt man für die Überlebensdauer 13 Tage an und verschiebt die Kurve entsprechend dann liegen die beiden Kurven fast übereinander. Jetzt kann man in die Datensätze gehen und nachsehen, wie viel Menschen vor 13 Tagen infiziert waren und erhält die Letalität (Fatality Rate) der Krankheit. Bei meinen Rechnungen erhalte ich für eine Person, die Corona positiv diagnostiziert wurde, eine Sterblichkeit von 3,7%.
Allerdings hat diese Betrachtung die Dunkelziffer nicht berücksichtigen, da ich diese normalerweise mit 3,1 annehme, kann man eine Letalität von 1,2% abschätzen, was auch im Bereich anderen Quellen liegt.

Mittelfristige Entwicklung

Wenn der Verlauf so weitergeht, können wir die Corona-Pandemie in Deutschland unter Kontrolle halten.
Unter den oben beschriebenen Annahmen erhält man folgenden Verlauf, hier wieder in der logarithmischen Darstellung:

Fortschreibung der Entwicklung, wenn die Menschen im Herbst wieder sorglos werden,
kann es im Winter eine 2. Welle geben
Die Prognose der Entwicklung ist natürlich hochspekulativ, da wir weder wissen, wie sich die Menschen nach mehreren Monaten "Shut Down" verhalten, noch wie unsere Politik die weitere Entwicklung begleitet.

Quellen

  • Sehr gute Informationen findet man bei der University of Oxford
  • Weitere Informationen und Quellen in den andern Blogbeiträgen:

Dienstag, März 31, 2020

Corona, das Drama der Zahlen

Corona und die Zahlen

Seit Ende Januar 2020 beobachte ich die Zahlen der Corona-Ausbreitung und leider seit einigen Wochen auch die vielen Todesfälle. Als Physiker habe ich gelernt aus Zahlen Zusammenhänge herauszulesen und so entstand eine interessante Modellrechnung. Leider kann aber so ein Modell nur so gut arbeiten, wie die Datengrundlage ist, auf die ich heute etwas näher eingehe.


Echtzeitinformationen aus verschiedenen Quellen (Site aus Südkorea)

Wo gibt es Daten?

Wenn man die Websites der einschlägigen Zeitungen, ob FAZ, Zeit, New York Times oder Tagesspiegel online aufruft, immer findet man verschiedenste Zahlen zur Ausbreitung. Doch worauf basieren diese? Als Quelle wird oft die Johns Hopkins University angegeben und in Deutschland das Robert Koch-Institutes (RKI). Doch keiner der beiden erhebt die primären Daten, in Deutschland sammeln die Gesundheitsämter die Daten und geben sie weiter.

Wir brauchen möglichst zeitnah Daten, damit die Politik, und auch jeder für sich, die richtigen Entscheidungen treffen kann. Normalerweise arbeiten viele mit Quartalszahlen, aber das ist in einer Situation in der sich die Zahlen oft um 30% pro Tag ändern, völlig sinnlos.
Seit etwa einer Woche gibt das RKI immer die Daten, mit Stichpunkt Mitternacht, um ca. 10 Uhr vormittags bekannt. Diese Zahlen verfolge ich bevorzugt und dachte immer, es wäre einfach, im Wesentlichen zwei Zahlen, neu erkannte Fälle und Todesfälle, nach Berlin zu übermitteln. Leider lese ich dann auf der Website Informationen wie:

*Am 28.3.2020 wurden keine Daten aus Baden-Württemberg, Hessen und dem Saarland übermittelt.(Website RKI)
Probleme aus andere Bundesländer, wie NRW, Sachsen-Anhalt usw., wurden auch schon gemeldet.

Veränderung der Todesfälle (Daten: RKI). Der Trend sah positiv aus,
aber die Ursache am 28. und 29. März waren Übermittlungsfehler!

Grafisch dargestellt sieht man das Problem: Scheinbar fällt am 29.3 das Wachstum schon fast auf 10% (Was sehr gut wäre) um dann am 30.3 wieder Richtung 30% zu deuten, was schauerlich ist.

Was zunächst nach einer lässlichen Verfehlung klingt, verursacht einen Sachschaden von mehreren Milliarden Euro! Wie das?

Nehmen wir mal an, die Entscheidung für das Ende des Shut-Down in Deutschland verzögert sich um einen Tag, weil man nicht sicher war, ob es wirklich einen signifikanten Rückgang der Infektionen gab, mangels valider Daten. Ein Tag Shut-Down dürfte in einem Land mit einem Bruttosozialprodukt von 4000 Mrd. € pro Jahr oder 20 Mrd. € pro Werktag mindestens 10 Mrd. € kosten!

Und hier wird nicht eingegriffen, wenn der Mitarbeiter in Stuttgart oder Düsseldorf gerade keine Lust hat zwei Zahlen einzutippen? Niemand frägt nach oder ruft an! Nein, wir sind nicht am Tag 1 der Coronakrise, seit über einem Monat haben wir ein ernstes Problem.

Ich habe noch nie erlebt, dass derart fahrlässig mit dem Geld unserer Volkswirtschaft umgegangen wurde.


Wo stehen wir?

Ich versuche diese Daten vom RKI jeden Tag zu nehmen und in meine Rechnung einzubinden. Inzwischen greife ich manchmal auf plausiblere Daten anderer Quellen zu, etwa Worldometer, die immerhin ihre Quellen verlinken.

Entwicklung der Fallzahlen und Prognose.
Die Zahl der gemeldeten Infektionen und der Todesfälle liegen weiterhin genau auf den Kurven meines Rechenmodells.
Neu ist, dass ich zwei Varianten für die weitere Entwicklung der Todesfälle auftrage. Ein "worst case" bei dem 90% der Patienten, die keine Versorgung in der Intensivstation bekommen versterben, obere gestrichelte graue Linie und den optimistischen Fall, dass doch nur 30% dieser Patienten versterben, durchgezogene, graue Linie (Achtung: log. Skala).
Das Modell berücksichtigt bereits die Maßnahmen in Deutschland, was sich insbesondere darin zeigt, dass die Zahl der Neuinfektionen seit einer Woche deutlich weniger stark zunehmen (Rote Quadrate, tatsächliche Fallzahlen und gestrichelte Linie, Prognose des Modells)

Flatten the Curve

All die aktuellen Maßnahmen sollen dazu dienen, die Kliniken nicht zu überlasten, auch wenn sie nicht genügen, damit die Kliniken nicht überlastet werden, aber sie dämpfen die Entwicklung erheblich und vermeiden damit viele Todesfälle! Doch wie geht das weiter?

Eine kleine Abschätzung:

In Deutschland leben 80 Mio. Menschen, von denen vermutlich längerfristig 60 Millionen infiziert werden. Davon müssen 2,5% über 14 Tage lang beatmet werden, zumeist ältere Mitbürger.
In der Summe sind das 1,5 Mio. Menschen. Verteilt man das gleichmäßig auf die 10.000 Intensivbetten, braucht es sechs Jahre kontinuierlicher Versorgung oder mit anderen Worten 6 Jahre völligen Shut-Down. Dass das Unrealistisch ist, sollte jedem klar sein. 
Okay, als Erleichterung kommt vielleicht in einem Jahr ein Impfstoff, so sind die 6 Jahre nur Theorie, unklar ist aber, welches Kriterium angewendet werden soll, all die eingeleiteten Einschränkungen wieder aufzuheben. Man ist praktisch sofort wieder bei einer völligen Überlastung der Kliniken.

Ich wünsche mir, dass man genauer nach Südkorea oder Taiwan schaut und auch Alternativen, wie Handy-Ortung und Mundschutz, als wichtige Maßnahme zu ergreift.

Nützliche Quellen zum Weiterlesen

Weitere Quellen auf meinen anderen Posts "Corona Update"

Sonntag, März 22, 2020

2. Corona Update

Coronavirus Ausbreitung unter der Lupe

Nach dem überwältigendem Interesse an meinen ersten zwei Beiträgen, Ausbreitung in Deutschland und Coronavirus Update, bin ich motiviert, einige kluge Fragen aufzugreifen, die von Lesern gestellt wurden. Vielen war nicht klar, was ich genau rechne, manche wollten mehr über die Quellen wissen und einige fanden, dass ich Panik mache. Ich hoffe, das kann ich jetzt alles aufklären.

Wie funktioniert die Rechnung?

Die Rechnung für die Entwicklung der Fallzahlen basiert auf einige einfache Annahmen, die im folgenden Bild dargestellt sind.

Ablauf einer Infektionswelle, gilt auch für andere Infektionskrankheiten. (Zum Vergrößern anklicken, Darstellung Heindl)

Am Anfang gehören alle der Gruppe der Nichtbetroffenen an. Davon infizieren sich zunächst einige, etwa im Ausland, und werden zu Neue Fälle, diese werden jetzt immer für jeden Tag neu gerechnet. Die neuen Fälle kommen jetzt in die Gruppe Infizierte, die dadurch zunächst wächst.
Das Problem beginnt mit der Ansteckung durch die Infizierten, die Rückkopplung beginnt. 

Diese Ansteckungsrate hängt empfindlich vom Verhalten ab!

In meiner Rechnung habe ich bisher 2,15 Ansteckungen pro Person innerhalb der sechs Tage gerechnet in der die Person ansteckend ist. In der Literatur findet man unterschiedliche Angaben, etwa in nature [1], dort wurden die ersten 400 Fälle in China ausgewertet hat, die Ansteckungsrate wurde mit 1,9 Neuansteckungen pro Infizierten ermittelt.
Da es gilt, die Ansteckungen niedrig zu halten, müssen verschiedene Eingriffe in das Alltagsleben erfolgen. Der Parameter Eingriffsfaktor beschreibt das als Zahl. Der Wert 1 bedeutet, es bleibt alles wie es ist, der Wert 2 bedeutet, die Zahl der Ansteckungen wird halbiert, Zwischenwerte sind natürlich möglich. In einer Studie des Imperial College [2] in London wurden verschiedene Werte für unterschiedliche Maßnahmen analysiert. Dabei wurde auch berücksichtigt, dass sich nicht alle an die Regeln halten. So bring Schulschließung fast eine 20% Verminderung der Ansteckungen, in meiner Rechnung würde der Eingriffsfaktor dann auf 1,2 wachsen.

Einfluss verschiedener Maßnahmen auf die kritisch Erkrankten, zu beachten, hier wird ein linearer Maßstab verwendet, mit keiner einzelnen Maßnahme gelingt es, die Zahl so weit zu drücken, dass die Betten reichen. Quelle: Imperial College [1]

Für das Verhalten habe ich in meiner Simulation bis zum 7. März den Wert 1 angesetzt und erhöhe ab dann den Wert täglich um 0,05, sodass am 17. März bereits der Wert 1,5 erreicht ist schließlich am 27. März der Wert 2 erreicht wird, der dann aber auch dort verharrt. Bis im Sommer, ab dem 13. Juni der Wert langsam wieder sinkt, täglich um 0,01, und am 20. September wieder den Wert 1 annimmt. Mir ist klar, dass das höchst spekulativ ist, aber ohne Verhaltensänderung würde die Rechnung auch keinen Sinn ergeben. Zudem glaube ich eben, dass sich das Verhalten graduell verschieben wird.  

Bekanntlich werden nicht alle Infizierte gemeldet (gem. Fälle), die sind also eine Untermenge von Infizierte. Eine Dunkelziffer kann man sehr schlecht abschätzen, Faktoren von 1,5 bis 5 sind verbreitet. Für 5 spricht, dass vermutlich nur 20% so starke Symptome aufweisen, dass sie einen Arzt besuchen und damit den Gesundheitsbehörden bekannt werden. Andererseits wurden auch viele in Deutschland untersucht, die im Kontakt mit Infizierten standen (aktuell lese ich 200.000 Tests wurden durchgeführt), sodass die Zahl eher bei 1,5 liegt. Ich habe den Faktor mit 3 geschätzt und so in meinen Rechnungen verwendet. Letztendlich spielt das aber keine so große Rolle, da bemerkenswerterweise nach 2 Tagen die Differenz zwischen den Faktoren (3 statt 5) bereits wieder aufgeholt ist. 

Interessant ist auch, dass die Umstellung der Berichte des Robert-Koch-Instituts, das bis 20. März die Fälle bis 15 Uhr bekannt gegeben hat, diese jetzt auf Mitternacht (0:00) umgestellt hat, das bewirkt eine einmalige Steigerung der Infiziertenzahl um beachtliche 14%! Dieser Effekt wurde in die verwendeten Daten eingerechnet.

Etwa 80% der Infizierten verlassen nach sechs Tagen das Geschehen und kommen in die Gruppe ohne Symptome genesen, weitere 15% von Personen mit leichten Symptomen zähle ich auch dazu, da diese zwar "Grippe" haben aber nicht in Lebensgefahr sind. Somit kommen insgesamt 95%, mehr oder weniger direkt in die Gruppe der als Immun bezeichneten Personen. 

Die Problemgruppe Intensivbedarf

Der Literatur kann man entnehmen, dass 2,5% bis 5% der Corona COVID-19 Patienten so schwere Atembeschwerden haben, dass sie künstlich beatmet werden müssen. Dazu kommen die Patienten in das Intensivbett und genesen hoffentlich. Die Zahlen hängen hier sehr stark vom Alter und von den Vorerkrankungen ab.
Sterblichkeitsrate bei Corona, abhängig vom Alter. (Quelle: DW)
Dies in der Rechnung abzubilden ist schwierig, da ich keine Altersverteilung nutze, ich nehme daher für den Faktor Sterblichkeit 1,4% von allen Infizierten an, wohl wissend, dass zwischen 0,7% und 5% in der Literatur erwähnt werden.
Viel schlimmer sieht es aber für Patienten aus, die Unbetreut trotz Intensivbedarf bleiben. Dort nehme ich an, dass 30% nicht überleben, möglicherweise ist es aber viel schlimmer. Nochmals, ich will keine Panik verbreiten, aber auch keinen unbegründeten Optimismus.
Wie lange bleibt nun ein Patient im Intensivbett? In meiner Rechnung nehme ich an, dass täglich 20 Prozent den Pfad "genesen" nehmen, mithin im Schnitt etwa 4 Tage im Intensivbett verweilen. Das ist auch optimistisch, mir sind schlechtere Zahlen von einem Arzt zugetragen worden.
Am Ende steht die Summe aller Todesfälle, ob mit oder ohne Intensivbehandlung. Je nach Geschwindigkeit der Ausbreitung können das 0,2 bis 3 Millionen in Deutschland werden, bei so vielen Unbekannten in der Rechnung ist das nicht verwunderlich.

Anpassung der Rechnung an die Fakten

All die oben beschriebenen Vorgänge gehen in meine Rechnung ein, die ich mit einer Tabellenkalkulation durchführe (Google Docs). Dabei berechne ich für jeden Tag die Situation und die daraus folgende Änderung, was nicht viel mehr als einfache Addition und Multiplikation erfordert. Als Zeitraum habe ich ein Jahr gewählt, beginnend mit dem 18. Februar 2020, für den ich zwar keine Zahlen besitze, allerdings von den bekannten Zahlen am 28. Februar zurückrechne, was aber eher rechentechnische Gründe hat, damit ich problemlos auf zurückliegende Felder zugreifen kann.

Die Darstellung der Ergebnisse erfolgt bei mir fast immer auf einer logarithmischen y-Skala! Das ermöglicht es viel besser, Trends und große Zahlenunterschiede zu erkennen. So liegt die Zahl der Todesfälle um fast den Faktor unterhalb der Zahl der Infektionen, könnte also bei linearer Darstellung nicht sinnvoll dargestellt werden. Weiterhin erscheint ein exponentielles Wachstum als Gerade, und gerade damit haben wir es in diesem Thema oft zu tun.

Hier ein Ausschnitt aus meinem Rechenmodell, das bis 15. Mai extrapoliert. Es scheint so, als zeigen die Maßnahmen der Politik bereits Wirkung, die Datenpunkte liegen seit 10 Tagen mit einer Abweichung kleiner 3% auf der Prognosekurve. Da die Prognose eine Abschwächung wie oben beschrieben enthält, gibt es offensichtlich einen Rückgang der Infektionsrate!

Mögliche Entwicklung der Coronazahlen in Deutschland.
(Eigene Analyse basierend auf verschiedenen Quellen, Parameter siehe Anmerkungen)

Wenn die Entwicklung so weitergeht, das bedeutet, die Einschränkungen noch weiter bis 27.3. verschärft werden, wir haben erst die Hälfte des Wegs, dann könnten die Zahlen noch unter Kontrolle gebracht werden. Da ich keine Ahnung habe, wie lange die Menschen eine so hohe Isolierung ertragen, habe ich die Fortsetzung der Entwicklung nicht aufgetragen.

Zum Vergleich, die mögliche Entwicklung der Coronazahlen mit linearem Maßstab an der vertikalen Achse.


Nach einem Jahr würde das Modell auf 1,5 Millionen Tote führen, das sei angemerkt, kann ich aber nicht als seriöse Prognose behaupten.

Quellen:

  1. Imperial College London Studie PDF. Hier wird für GB eine genaue Analyse der Ausbreitung gerechnet.
  2. Aktuell: Studie über Wuhan in nature PDF
  3. Deutsche Welle Daten aus China.
  4. Eine sehr lesenswerter englischer Beitrag von Tomas Pueyo, deutsche Übersetzung
  5. Ein Tool von Prof. Eichner 
  6. Schweizer Qualität bei der Simulation: Covid-19 Simulator
Weitere Quellen siehe Blogpost Coronavirus Update (Germany auswählen)

Der neueste Blogpost: Das Drama der Zahlen

Anmerkung:

Zur Dokumentation die verwendeten Parameter:
Ausgangsbevölkerung: 80.000.000
Ansteckung: 2,70
Dauer [d]: 6
Letalität: 1,40%
Intensiv: 5,0%
Dunkelziffer: 3
Intensivbetten: 10000
Eingriffsfaktor: tagesaktuell
Tod-kein-Intensiv: 30%
Genesungsrate I pro Tag: 20,00%
Dauer Infekt bis Tod: 12
Dauer bis Intensiv: 10