Donnerstag, Dezember 25, 2014

Das Bigg, oder eine neue Einheit für Daten

Giga, Tera, Peta wer kennt schon den Unterschied?

Das extrem schnelle Wachstum der Massenspeicher in der IT verursacht ein Problem, das bisher wenig Beachtung fand. Es gibt keine Einheit für große Datenmengen!
Jetzt werden aber gleich alle Nerds laut aufschreien und sagen:
GigaByte 10^9
TeraByte 10^12
PetaByte 10^15
und so weiter. Aber genau das ist das Problem, fragen Sie mal einen X-beliebigen Nomalanwender, was ein TeraByte ist, er wird mit den Achseln zucken und sagen: sehr viele Daten.
Selbst meine Studenten in der Wirtschaftsinformatik sind da oft hilflos.

Keiner zählt Sekunden

Zurück zu anderen Einheiten, die sehr wohl unterschiedliche Basisgrößen kennen. Etwa die Zeit, wer feiert schon die GigaSekunde? Das ist der Geburtstag mit 31 Jahren und etwa acht Monaten. Es ist also durchaus sinnvoll nicht einfach eine riesigen Vorfaktor mit einem festen Begriff zu belegen. Bei der Zeit nennen wir 31536000 Sekunden ein Jahr, das ist zwar keine besonders sinnvoller Faktor, aber aufgrund des 60er Systems der Babylonier hat es sich so eingebürgert. 
Wer feiert schon den den 31,7 Jahre Geburtstag, es ist das Fest der ersten GigaSekunde!
Ein weiteres Beispiel ist die Masse, obwohl das Gramm eigentlich mal die Basiseinheit war (das kg ist aus technischen Gründen der Referenzwert, da man ein kg bequem wägen kann), verwendet man im Alltag häufig die Tonne als Basiseinheit. Ein Vielfaches kann dann schon mal MegaTonne genannt werden. Jedenfalls berechnet niemand die Masse eines Schiffs in Gramm.
Bei der Entfernungsmessung ist die ursprüngliche Basiseinheit der Abstand zwischen Nordpol und Äquator, der per Definition 10.000.000 m oder einen Giga-cm beträgt. 
Die Definition des Meters beruht auf dem Abstand Nordpol zu Äquator
Wer aber wirklich große Entfernungen angeben will, der spricht nicht von Kilometern oder Megametern sondern von Lichtjahren, was nichts anderes als 9,461 Petameter ist. Und Astronomen können schon mal von Millionen oder Milliarden Lichtjahren sprechen. 
Dieses Konzept findet man fast in allen Wissenschaften, von der Energie (1 eV = 1,6E-19 J, 1 kWh = 3,6MJ), über die Elektrotechnik mit einer Ladung, der Chemie mit den Massen und vielen anderen.

Die Informatik ist noch Neuland

In der Informatik wächst die Datenmenge seit etwa fünfzig Jahren exponentiell an, vermutlich hat Google 10 Exabyte an Daten gespeichert, vor 40 Jahren war ein Gigabyte noch exotisch. 
1 Bigg = 1 TByte
Mit einer neuen handlichen Einheit für große Datenmengen wird das einfacher, ein Bigg sind einfach 10^12 Byte oder ein TeraByte. Ein Terabyte kann etwa die Textdaten einer großen Bibliothek speichern, ein Bigg dürfte für viele Menschen ausreichen um all ihre Musik, die sie jemals hören, aufzunehmen. Vermutlich entspricht ein Bigg auch der Datenmenge, die ein menschliches Gehirn abgespeichert hat. 
Definition von 1 Bigg

Google hat dann einen Speicher von 10 MegaBigg, weltweit wird vermutlich ein GigaBigg an Daten jedes Jahr produziert. Schnell gewöhnt man sich daran, dass einige Computer nur wenige MilliBigg Hauptspeicher haben. 
Auf eine aktuelle Bluray Disk kann man 0,1 Bigg abspeichern.
Wer eine schnelle Internetverbindung (50 Mbit/s) hat, kann pro Tag 0,5 Bigg downloaden. Eine Glasfaser kann etwa 1 Bigg/Sekunde übertragen.
Man bemerkt sofort, dass unsere alltäglichen Datenmengen wieder mit handlichen Größen bezeichnet werden können.

Verständnis durch richtige Einheit

Die Informatik wandelt sich zu einer Wissenschaft über Wissen. Die bisher verwendeten Einheiten, Bit und Byte, beschreiben zwar die Atome der Informatik sehr gut, aber Wissen wird vermutlich eher in Bigg transportiert als in Bytes. 
Damit ist es auch wesentlich einfacher mit dem Nichtinformatiker über Information zu sprechen. Er kann sich sicherlich nicht vorstellen, was ein Petabyte ist, aber das Wissen von tausend Menschen, ein KiloBigg, kann man vielleicht leichter vermitteln.

Ein Ed = ein Bigg?

Letztendlich könnte man auch zu Ehren von Edward Snowden die Einheit Bigg auch als ein Ed bezeichnen


Montag, Dezember 15, 2014

Grenzen der Erkenntnis

Was wir nicht wissen können

Für die Menschen gibt es Grenzen der Erkenntnis. Doch wo liegen die wirklichen Grenzen, die zu überschreiten niemals möglich sein wird?
Zuerst sollte man sehr vorsichtig sein, endgültige Grenzen festzuschreiben, aber es ist trotzdem hilfreich, einige Grenzen zu betrachten, über die wir nach dem Stand der Physik niemals hinausgehen können. Diese will ich kritisch betrachten.
Die Grenzen unserer Welt

Die Vergangenheit

Geht man in der Zeit zurück, dann kann jeder bis in seine eigene Kindheit zurücksehen, das sind wohl maximal 100 Jahre. Das Davor kennen wir nur von anderen Beobachtungen und Erzählungen. Aus der Physik und den Beobachtungen der Astronomie kann man sehr genau einen Zeitpunkt rekonstruieren, der am absolutem Anfang unseres Universums stand. Es ist der Urknall, ein Ereignis, in dem bei unendlich hoher Temperatur unser Universum seinen Anfang nahm. Die beste Einschätzung sagt, dass dieser Zeitpunkt 13,798 ± 0,037) Mrd. Jahre zurückliegt [1]. 
Da es zum Zeitpunkt des Urknalls unendlich hohe Temperaturen gab, ist alle Information, die davor existiert haben könnte, vernichtet. Erstaunlicherweise besitzen wir aber für einen Zeitpunkt, der nur 0,000 000 000 000 000 000 000 001 nano Sekunden nach der Geburt des Universums liegt, bereits Informationen, Siehe folgende Abbildung.
Erstes Bild des Universums, sehr kurz nach dem Urknall, Bildquelle: Harvard-Smithsonian Center for Astrophysics
Das Erste Bild, wenn auch noch unscharf, soll die Störung der Quantenfelder durch Gravitationswellen darstellen. Wie die Welt eine Nanosekunde früher ausgesehen hat, werden wir nie auf einem Bild sehen, es ist allerdings nicht auszuschließen, dass es schlüssige Theorien geben wird, die die Ursache des Urknalls erklären. Allerdings bin ich mir sicher, dass darin das Wort "Gott" nicht vorkommen wird.

Die Zukunft

Auch wenn jeder halbwegs fähige Sciencefiction-Held in die Zukunft reisen kann, so wird uns diese Form der Reise auch in Zukunft verboten bleiben. In der heutigen Vorstellung würde ein sehr fundamentales Problem, das der Kausalität, völlig zerstört. Die berühmte Frage, könnte ich durch eine Zeitreise Ereignisse beeinflussen, und bereits etwas zu sehen ist eine massive Einflussnahme in der Quantenphysik, führt auf paradoxe Probleme. 
Es liegt daher in unserer Logik, dass eine Zeitreise, die eine Kommunikation mit der Vergangenheit ermöglicht, unmöglich ist. Wir werden also weiter gemeinsam eine Zeitreise durchleben, allerdings synchronisiert. Genaugenommen über den Ereignishorizont synchronisiert, für alle die mit der Relativitätstheorie argumentieren.
Allerdings gibt es eine Theorie, die Vielweltentheorie nach Hugh Everett, die keine Kausalität erfordert, allerdings auch keine Kommunikation erlaubt und ohne Kommunikation ist es eben langweilig.

Entfernung

Wie weit kann man eigentlich sehen? Mit bloßem Auge kann man in der Nacht die Andromeda Galaxie sehen, und die ist 2,5 Millionen Lichtjahre entfernt. Das ist aber nicht das Ende des Universums, denn mit Teleskopen kann man erheblich weiter hinausschauen. 
Die Andromeda Galaxie, das entfernteste Objekt, das man mit bloßem Auge sehen kann.
Das Limit für Teleskope liegt dort, wo das Licht vor 13 Milliarden Jahren gestartet ist, also zu Beginn des Universums. Die Orte die man dabei sieht haben sich von uns wegbewegt, da es eine Expansion des Universums gibt, diese Orte liegen heute 42 Milliarden Lichtjahre weit von uns entfernt. Alle Orte, die noch weiter entfernt sind, liegen hinter einem unüberbrückbaren Horizont, jenseits dem wir niemals etwas sehen können.

Quantenmechanik

Auch in der Richtung von kleinen Strukturen gibt es eine Grenze, die nicht in der gleichen Art erscheint, wie wir es aus dem Alltag gewohnt sind. Die Quantenmechanik besagt, dass verschiedene Größen, wie Ort und Impuls, nur bis zu einem kleinstem Wert, dem Planckschen Wirkungsquantum, h = 6,6 E-34Js, genau gemessen werden können. Es gibt also nicht das Kleinste, sehr wohl aber das genaueste, eine Unsicherheit der Messung bleibt immer vorhanden. 
Im Alltag mag das wenig stören, aber für viele Vorgänge, die inzwischen für die Geräte des Alltags eine große Rolle spielen, angefangen beim Smartphone, spielt das eine erhebliche Rolle und beschränkt uns immer in der Verkleinerung. Kleiner wie Atome geht eben nicht, um es vereinfacht zu sagen.

Grenzen der Innovationen

Obwohl uns die Welt in eine merkwürdige Box eingesperrt hat, können wir uns zumindest in dieser Box frei bewegen und uns viele spannende Sachen ausdenken und umsetzen. Insofern stellt die Box keine schreckliche Einengung dar, andererseits ist es schon ein komisches Gefühl, Gefangener in dieser Welt zu sein.
Diese Betrachtung habe ich ohne viel Hintergrundliteratur angestellt, sollte jemand das "Box"-Problem besser aufbereitet haben, freue ich mich über Hinweise.

Quellen:

[1] Planck 2013 results, arXiv:1303.5062v1 [astro-ph.CO] 20 Mar 2013

Sonntag, November 02, 2014

Nachhaltig oder Innovativ?

Nachhaltigkeit ist nicht Innovativ

Eines der Hypeworte in Deutschland ist in den letzten Jahren Nachhaltigkeit. Es liegt inzwischen weit vor Innovationen, zumindest wenn man auf das Ranking bei Google schaut, das die Häufigkeit [1] der Suche analysiert, siehe Graphik. 
Google Anfragen zu Nachhaltigkeit und Innovationen in Deutschland [1]
Nachhaltigkeit wurde vor dreihundert Jahren in der Forstwirtschaft von Hans Carl von Carlowitz eingeführt. Es sollte dereinst dazu dienen, dass genau so viel Bäume geschlagen werden wie nachwachsen. Der Erfolg ist bekannt, heute werden zumindest genau so viele Fichten gepflanzt wie geschlagen. Das Konzept im Bereich der Forstwirtschaft ist im Wesentlichen sinnvoll. Ähnlich wie bei einem Brunnen, dort sollte man auch nicht mehr abpumpen, als nachläuft, ähnlich beim Fischfang, auch dort sollte man nicht mehr fangen als nach-wächst. Allerdings stellt sich die Frage ob man das Prinzip Nachhaltigkeit über alles andere erheben soll?

Problem Nachhaltigkeit

Nachhaltigkeit bedeutet nämlich, dass alles exakt so bleibt wie es immer schon war. Und vor dreihundert Jahren konnte man sich sicherlich nicht die technischen Revolutionen vorstellen, die inzwischen eingetroffen sind. Was ist eine nachhaltige Dampfmaschine? Sollen wir immer genau so viele Dampfmaschinen bauen, wie bereits in Betrieb sind? Sollen wir nur so viele Computer, Autos, Häuser und Solarkraftwerke bauen wie jedes Jahr abgerissen werden?
Jeder versteht sofort den Unsinn. 
Nachhaltigkeit kann sich daher nur auf einige natürliche Kreisläufe beziehen, wie ein Wald, der Boden, das Wasser und andere vergleichbare Ökosysteme. 
Was aber soll ein Nachhaltigkeitsbeauftragter an einer Hochschule?
Die Zahl der Studenten konstant halten, dafür sorgen dass jeder Professor, der ausscheidet durch einen Neuen ersetzt wird? Ja es gibt Nachhaltigkeitsbeauftragte an Hochschulen, und die Stellen verschlingen selbstverständlich Geld. 

Lieber Innovationen

Meine provokante These lautet: "Innovationen sind viel besser als Nachhaltigkeit".
Auf einem Planeten, der sieben Milliarden Menschen ernähren soll und allen ein akzeptables Leben ermöglichen soll, kann man dies nur erreichen, wenn bestimmte Sachen in größerer Zahl produziert werden als bisher. Dabei wird jedes Unternehmen versuchen, die Sachen derart zu produzieren, dass möglichst wenig Kosten entstehen, möglichst wenig Energie, Rohstoffe, und Maschinen verbraucht werden. Und wie erreichen das die Unternehmen?
Innovationen ermöglichen wirtschaftliche Lösungen. 

Zielgröße für Nachhaltigkeit fehlt

Stelle ich hingegen die Frage der Nachhaltigkeit, dann werde ich als Unternehmen kaum Fortschritte erzielen. Das liegt einfach daran, dass es keine Zielgröße gibt. Keiner kann auch nur annähernd die Wirkung eines Produkts im Bezug auf die Veränderung des Planeten Erde in relativer Wertigkeit angeben. So benötigt die Produktion einer Solarzelle viel Wasser, Energie und Maschinenleistung. Andererseits kann eine Solarzelle Solarenergie in Strom umwandeln. Wozu? Damit in Las Vegas die Spielautomaten klappern, ein Brunnen in der Sahelzone leergepumpt wird oder ein Mitbürger seine Spülmaschine fast leer laufen lassen kann?
Das einzige, was solide festgehalten werden kann, ist der Herstellungspreis der Solarzelle und die Bereitschaft für Strom einen Preis zu zahlen. Das sind aber genau nicht die Zielgrößen der Nachhaltigkeit.

Kosten der Umweltschäden beziffern

Es bleibt aber doch das Gefühl, der reine Markt ist nicht Nachhaltig. Das ist richtig, ein unendliches Wachstum gibt es nicht, aber niemand kennt die Grenzen, auch nicht der "Club of Rome", der sich bekanntlich massiv geirrt hat. Ist schon ein Rohstoff ausgegangen? Nein, nur die Preisgewichte haben sich, eher geringfügig, verschoben.
Schwer ist es auch, für ein Produkt ein Limit zu bestimmen, Anfang der neunziger Jahre hat die Telekom behauptet, in Deutschland benötigt man nur 100.000 Handys. Inzwischen gibt es mehr als Einwohner und das weltweit!

Vermutlich hatte Michael Braungart beim TEDxMünchen ähnliche Gedanken,
gewöhnungsbedürftig aber hörenswert

Andererseits ist die CO2 Emission in Deutschland gesunken, das war Glück, es lag nur an der Wiedervereinigung, der Stromverbrauch ist hingegen seit 40 Jahren hierzulande nahezu konstant.

Es kann durchaus sinnvoll sein, Substanzen, die Umweltschädlich sind mit einer hohen Abgabe zu versehen oder zu verbieten. So würde eine CO2 Steuer schnell wirken, allerdings gelingt es der Politik hier nicht einfachste Regeln einzuhalten, es werden einfach CO2 Zertifikate verschenkt.
Allerdings ist es alles andere als einfach, selbst in einem so umfangreich erforschtem Gebiet wie dem Klimawandel auch nur ansatzweise die Kosten des CO2 Ausstoßes zu beziffern oder gar einen Konsens zu finden.

Fazit: 

Die Kosten für Solarzellen und Windkraftwerke sind aufgrund der vielen Innovationen, die Patentzahl steigt seit 20 Jahren exponentiell in diesen Bereichen [2], derart stark gefallen, dass inzwischen Solarenergie an sehr vielen Orten günstiger ist als ein Kernkraftwerk und an vielen Orten sogar günstiger als ein Kohlekraftwerk ist. Damit wird ohne jedem Nachhaltigkeitsbeauftragten die umweltfreundliche Solarenergie schmutzige, alte Stromerzeugung ablösen. 
Ich denke das ist mehr als nur ein Sonderfall, das ist ein Prinzip: Innovationen sind besser als Nachhaltigkeit!

Quellen:

[2]Cheng Zheng a, DanielM.Kammen, An innovation-focused roadmap for a sustainable global
photovoltaic industry, Energy Policy 67(2014)159–169

Dienstag, Juni 24, 2014

Cold Fusion Fatamorgane oder Fakt

Cold Fusion (LENR) als wissenschaftliches Problem

Im Jahr 1989 gab es neben den Revolutionen in Osteuropa eine Beobachtung von Pones und Fleischmann, die weit über das Datum hinausreichen könnte. An einer Palladium Kathode entstand überschüssige Energie bei der vermuteten Verschmelzung von Deuterium. Diese Beobachtung wurde am 23. März 1989 in einer Pressekonferenz bekanntgegeben. 

Warum ist diese Beobachtung von so großer Bedeutung

Spätestens seit den Abwürfen der Atombomben ist jedermann bekannt, dass die Kernenergie extrem große Energie freisetzten kann aber auch zerstörerisch wirken kann. Im Rahmen "Atoms for Peace" wurde mit dem Bau von Kernreaktoren erfolgreich versucht, aus Uran Energie in großer Menge zu produzieren. Letztendlich hat diese Technologie erhebliche Nebenwirkungen, insbesondere entstehen langlebige, radioaktive Substanzen (Endlagerproblem), der Reaktor kann schmelzen (Super-GAU) und die Technologie ist prinzipiell für die Entwicklung von Kernwaffen geeignet (Proliferation). Daher wurde der Ausbau der Kernenergie in Form von Kernspaltung weltweit praktisch eingestellt.

Der Wendelstein Fusionsreaktor in Garching, an dem ich in meiner Jugend auch einige Kabel gezogen habe.
Die Energie der Atomkerne kann aber auch durch verschmelzen von Wasserstoff, genauer gesagt Deuterium, einem Isotop von Wasserstoff, erfolgen. Das Abfallprodukt ist Helium, ein völlig harmloses Gas. Diesen Weg versucht man seit über fünfzig Jahren in der Kernfusion zu gehen, leider bisher ohne sichtbaren Erfolg. Die wesentlichen Probleme liegen dabei in der extrem hohen Temperatur, mehrere 10 Millionen Grad Celsius, den aufwendigen Reaktorbau mit erheblichen Problemen durch Neutronen und damit Radioaktivität sowie Probleme die Energie, wenn sie denn entsteht, abzuführen.

Der absolute Königsweg wäre ein Katalysator, der zwei Deuteriumatome zu Helium verschmilzt, dabei Wärmeenergie abgibt, aber keine radioaktive Strahlung emittiert. Genau das wäre Kalte Kernfusion, die perfekte Energiequelle. Da Deuterium in sehr großere Menge in normalem Wasser vorkommt, gibt es nach menschlichen Maßstäben keinerlei Resourcenproblem, kein Abfallproblem, keine Größenbeschränkung der Reaktoren, diese könnten von wenigen Watt bis Gigawatt reichen, mithin die perfekte Energiequelle!
Mit einer derartigen Energiequelle wären alle klassischen Energiequellen, von Kohle über Öl aber auch Wind- und Solarenergie nicht mehr notwendig. Inklusive der Infrastruktur wie Stromnetze, Tankstellen, Speicher und ähnliches. 

Das Beobachtungsproblem

Die moderne Wissenschaft arbeitet nach einem einfachen Prinzip, jemand macht eine Entdeckung, veröffentlicht diese Entdeckung, andere bauen das Experiment nach und bestätigen oder wiederlegen die Beobachtung. Im Fall der kalten Kernfusion ist der Ablauf leider schwieriger. Das liegt zum einem daran, dass die Wissenschaftler Pones und Fleischmann zunächst nicht den klassischen Weg der Publikation gegangen sind, da ihnen die Meldung zu wichtig erschien, haben sie den Weg der Pressekonferenz gewählt. Das hat nicht bei wenigen den Geschmack des Unseriösen hinterlassen.

In der zweiten Phase, dem Überprüfen des Experiments gab es dann weitgehend einstimmig die Meinung, der Vorgang ist so nicht reproduzierbar. Es fehlt an der, zumindest damals, erwarteten Neutronenstrahlung und insbesondere der Wärmeentwicklung. Innerhalb weniger Monate war das Thema damit erledigt und könnte eigentlich im Archiv der Wissenschaftsgeschichte verschwinden.

Als besonders problematisch muss man bewerten, dass das Department of Energy (DOE) noch im Herbst 1989 in einem Bericht [1] eine weitere starke Förderung der Untersuchungen nicht empfiehlt, insbesondere, da keine radioaktive Strahlung gefunden wurde. Obwohl offensichtlich mehrere Experimente eine Wärmeentwicklung hatten, konnten die dazu passenden Reaktionsprodukte, insbesondere Neutronen und Gammastrahlen, nicht gefunden werden.

Es liegt damit ein tückisches Problem der Wissenschaft vor, einerseits kann man niemals ein Experiment widerlegen, nur indem man es nicht selbst reproduzieren kann, sondern nur zeigen, dass man es nicht reproduzieren kann. Das entspricht, in einer Abwandlung, dem Popperschen Prinzip, dass man eine Theorie zwar falsifizieren aber nicht verifizieren kann.

Warum Kalte Kernfusion unmöglich sein sollte

Die Kernphysik und die Festkörperphysik, beide basierend auf der Quantenmechanik, sind weit entwickelte Theorien der Physik. 
Für die Beurteilung der kalten Kernfusion spielen dabei folgende Tatsachen eine wichtige Rolle.
  1. Atomkerne sind positiv geladen und stoßen sich daher ab. Für eine Fusion muss diese Abstoßung überwunden werden, dazu ist eine Energie notwendig, die einer Temperatur von etwa 100 Millionen Grad entspricht. 
  2. Bei einer Fusion von Deuterium zu Helium entsteht eine Energie von 27 MeV, die als Gammastrahlung frei werden sollte. Eine derartige Strahlung wurde nie beobachtet.
  3. Chemische Katalysatoren können die Energiebarriere absenken, allerdings liegen die Änderungen im Bereich der chemischen Bindungskräfte, diese sind millionenfach kleiner als die Kernkräfte.
Das Verhalten der Materie, insbesonderes in Kristallen, ist alles andere als einfach zu verstehen. Immer wieder tauchen Effekte auf, mit denen Physiker nicht gerechnet haben. Als zwei Beispiele seinen der Mößbauer-Effekt und die Entdeckung der Hochtemperatur Supraleiter genannt. Beim Mößbauer-Effekt gibt der Atomkern bei einem Gammazerfall den Impuls direkt an das Kristallgitter ab, erwartet hätte man, dass der Atomkern davon fliegt. Überraschenderweise konnte Rudolf Mößbauer, der Entdecker des Effekts, eine theoretische Beschreibung finden, die den Effekt erklärt. 
Hochtemperatur Supraleiter sind weit oberhalb der Temperatur, die theoretisch das Limit der bekannten BCS-Theorie erlaubt, ohne elektrischen Widerstand. Der genaue Grund ist immer noch nicht vollständig geklärt.

Beobachtete Fakten

Heliumentwicklung

Bemerkenswerterweise beginnt die Beobachtung der Kalten Fusion bereits im Jahre 1926! Die deutschen Wissenschaftler Fritz Paneth und Kurt Peters berichten über die Verwandlung von Wasserstoff unter Zuhilfenahme eines Palladium-Katalysators zu Helium [3]. Dabei gehen sie sehr genau auf mögliche Fehlerquellen ein und berechnen auch die Wärmeentwicklung. Zudem untersuchen sie, ob es zu radioaktiver Strahlung kommt, die jedoch nicht erfolgreich nachgewiesen wird. Es sei angemerkt, dass dies noch vor der Etablierung der Quantenmechanik geschah. Aufgrund der geringen Heliummenge, 10E-7 cm³, wird eine wirtschaftliche Umsetzung zur Helium-Produktion nicht weiter verfolgt. Dieser Artikel ist insofern unverfänglich, da er offensichtlich keine Interessen, außer reiner wissenschaftlicher Berichterstattung, enthält.

Wärmeentwicklung

Lässt man das Experiment von Pones und Fleischmann zunächst unberücksichtigt, so finden sich in der Literatur zahlreiche Hinweise, dass es an Palladium-Kathoden zusammen mit Deuterium eine ungewöhnliche Wärmeentwicklung gibt, ich zitiere aus dem Bericht der Europäischen Kommission:
"The main task was to demonstrate, on the basis of signals well above the measurement uncertainties and with a cross check, the existence of the excess of heat production during electrochemical loading of deuterium in palladium cathodes. The target was achieved and the existence of the effect is no longer in doubt." [2] Hervorhebung vom Autor.
Diese Aussage ist schon sehr bemerkenswert, insbesondere scheint klar zu sein, dass es definitiv eine Wärmeentwicklung gibt. Der Grund für die Wärmeentwicklung kann aber aufgrund der Wärmemenge nur nuklearen Ursprungs sein.

Materialauswurf

Das Auftreten von Materialauswürfen in Palladium, das mit Deuterium geladen wird, ist eine weitere, merkwürdige Beobachtung [4]. Untersucht man unter dem Elektronenmikroskop eine Palladium-Kathode, wie es Jacques Ruer durchgeführt hat, an der es zu ungewöhnlicher Wärmeentwicklung kam, sieht man eindeutig kleine Krater. Siehe Bild.
Mikrokrater auf einer Palladiumoberfläche nach Kalter Kernfusion [4]
Wie diese Krater genau entstehen ist unklar, eine Abschätzung in seinem Artikel geht aber von punktuell hohen Temperaturen, bis zu 20.000°C aus. Es fällt sehr schwer, sich einen Effekt vorzustellen, der durch einfache chemische Reaktion eine derartige Energiedichte hat. 

Neutronen

Die Beobachtung von Neutronen ist ein notorisch schwieriges Problem, da Neutronen neutral sind und daher keine Ionisierung verursachen. Will man daher Neutronen beobachten, muss man eine Kernreaktion der Neutronen beobachten. Beispielsweise ein Kohlenstoff-12 Kern, der nach Einfang eines Neutrons in drei Alfa-Teilchen zerfällt. Dafür gibt es spezielle Detektorsubstanzen, etwa CR-39. 
Nachweis von Neutronen bei der Kalten Kernfusion, Quelle: P.A. Mosier Boss [5]
P.A. Mosier-Boss hat einen CR-39 Detektor an einer Palladium Kathode montiert und nach zwei Wochen mehrere Neutronen mit einer Energie oberhalb von 9,6 MeV beobachtet. Das kann man in der obigen Grafik erkennen: Man sieht immer einen Punkt, aus dem drei "Ausbuchtungen" hervorgehen, das sind die drei Alfa-Teilchen. Die beiden linken Spalten kommen aus einem Experiment mit Kalter Kernfusion, die rechten zwei Spalten zeigen die gleiche Detektorsubstanz, die in einem Beschleuniger Neutronen gemessen hat. Offensichtlich ist kein Unterschied zu erkennen, damit gibt es Neutronen bei der Kalten Kernfusion. Allerdings ist der Neutronenfluss extrem gering, es muss sich um einen Nebenzweig der Reaktion handeln.

Probleme für die Physik

Folgt man den bisherigen Beobachtungen, und es fällt mir sehr schwer, all diese Experimente mit dem schlichten Wort "Betrug" abzutun, so gibt es offensichtlich ein Phänomen, das aktuell nicht verstanden wird.
 Dies ist in der Physik keineswegs ungewöhnlich, wie bereits angedeutet, auch die Hochtemperatur Supraleitung (HTSC), oder die genaue Arbeitsweise einer Lithiumbatterie sind nicht vollständig verstanden. Bemerkenswert ist der überraschende Widerstand der Wissenschaftler gegenüber dieser Entdeckung. Warum werden von nature und Science keine Paper angenommen, die sich mit der Kalten Kernfusion beschäftigen und positive Resultate liefern? Negative Resultate werden regelmäßig angenommen.
Für ein Forschungsprogramm wäre es wichtig, die zentrale Frage, wie läuft die Reaktion genau ab, zu klären. Mit den heutigen technischen Ressourcen, man war in der Lage das Higgs Teilchen nachzuweisen, fällt es mir sehr schwer zu glauben, dass dies nicht rasch gelingen könnte wenn man nur will. 
Es gibt inzwischen einige gute theoretische Ansätze, etwa von Peter Hagelstein am MIT, der versucht die Energieübergabe von 27 MeV an das Kristallgitter zu klären. Wer sich dafür interessiert, kann das MIT Colloquium Cold Fusion/LENR IAP im Internet ansehen (Man beachte die Rednerliste).

Konsequenzen

Bei der Durchsicht der Rohstoffpreise ist mir aufgefallen, dass der Palladiumpreis seit einiger Zeit unabhängig vom Gold- und Platinpreis ansteigt. Als Erklärung war ich auf die Kalte Kernfusion gestoßen. Siehe Blogbeitrag.
Als sehr skeptischer Wissenschaftler habe ich dann einige mir zugängliche Papers zum Thema gelesen und bin inzwischen überzeugt, das das Phänomen der Low Temperatur Nuklear Reaction (LTNR) existiert. 
Dies bedeutet aber, dass die Energieversorgung möglicherweise in Kürze eine völlig andere Richtung nehmen kann, als alle bisher geglaubt haben. 
Ich will an dieser Stelle bewusst keine zu große Euphorie streuen, da viele Aspekte unklar sind:
Kann man preiswerte Palladiumreaktoren bauen?
Wird der Katalysator so rasch zerstört, Kraterbildung, dass ein Einsatz letztendlich unwirtschaftlich ist?
Gibt es Unternehmen, die bewusst die Entwicklung der Kalten Fusion bremsen?

Offensichtlich gibt es einen massiven Forschungsbedarf, da viele Fragen offen sind und der potentielle Nutzen beim Gelingen fast unermesslich wäre.

Hinweis:
Wer gegenteiliger Meinung ist, kann den Beitrag des öffentlich finanzierten Deutschlandfunks lesen. Sie finden den Artikel hier. Dort werden erstaunlicherweise im Jahr 2014 im wesentlichen nur Informationen aus dem Jahr 1989 zitiert, warum man nicht auf den aktuellen Forschungsstand eingeht, bleibt für mich ein Rätsel.

Quellen: 

[2] Europäische Kommission, Materials for Emerging Energy Technologies, 2012, Seite 23.
[3] Fritz Paneth and Kurt Peters (1926). "Über die Verwandlung von Wasserstoff in Helium". Naturwissenschaften 14 (43): 956–962.
[4] Jacques Ruer, Simulation of Crater Formation on LENR Cathodes Surfaces, J. Condensed Matter Nucl. Sci. 12 (2013) 54–68

Dienstag, Juni 17, 2014

Elektronisch Trampen

Mitfahrgelegenheit anbieten und erleben

Als junger Mensch bin ich sehr viel getrampt, man hat sich an eine geeignete Stelle am Ortsausgang gestellt und wurde nach etwa zehn Minuten mitgenommen. Erstaunlicherweise hing die Zeit nicht vom Verkehr ab, bei wenig Verkehr sind die Menschen hilfsbereiter, bei viel Verkehr denkt jeder wohl, das wird ein anderer übernehmen. Als ich dann viele Jahre später ein Auto hatte, habe ich fast alle Tramper mitgenommen die am Straßenrand standen. Es waren oft interessante Menschen und ich wollte auch etwas zurückgeben, das ich in der Jugend bekommen habe.

Internet und Mobilfunk

Die Welt hat sich inzwischen radikal geändert. Nur noch ganz selten sehe ich jemanden am Straßenrand mit herausgestreckten Daumen stehen*. Das mag zum einem daran liegen, dass viele zum 18 Geburtstag bereits ein Auto geschenkt bekommen, aber auch daran, dass es verschiedene Vermittlungen von Mitfahrern über Internet und passende Apps gibt. Daher habe ich das auch ausprobiert und will meine persönliche Erfahrung wiedergeben. 
Hinweis: Persönliche Erfahrung kann nur sehr begrenzt verallgemeinert werden, aber vielleicht geben die Leser passende Kommentare ab.
Moderne Kommunikation ermöglicht das elektronische Trampen

Anmeldung bei einer Online-Mitfahrseite

Inzwischen haben die erfolgreichen Websitebetreiber gelernt, dass ein Anmeldevorgang bequem funktionieren muss und ich kann nicht klagen. Meine erste Fahrt führt aus dem Schwarzwald nach München und zurück, geplanter Zwischenhalt ist Flughafen Stuttgart. Uhrzeit und Datum eingeben, fertig.
Kurze Zeit später, erste Anmeldung eines Mitfahrers, bald darauf wieder Abmeldung, hat sich das wohl anders überlegt. Bei Reiseantritt habe ich schließlich drei Hinfahrer und zwei Rückfahrer.

Die Reise

Da ich eine Dienstreise habe, muss ich natürlich auf eine gewisse Pünktlichkeit achten. Bei der ersten Abholung ist erst mal niemand da, aber per Handykontakt gelingt es, innerhalb von 15 Minuten doch noch fast pünktlich zu starten. 
Leichter Stau vor Stuttgart, Anruf im Auto, Ein Zusteiger am Flughafen steckt in der S-Bahn fest. Kurz darauf der zweite Zusteiger, offensichtlich gleiche S-Bahn. Ich toleriere jetzt 20 Minuten Verspätung am Flughafen. Dort ist zunächst auch niemand, aber per Handy klärt sich das und schon sehe ich eine Mitfahrerin im Sauseschritt auf mein Auto zulaufen. Der andere Mitfahrer hat wohl weniger Glück, will aber auch in einer Stunde kommen, so lange kann ich wegen meines Termins nicht warten, da höre ich natürlich keine Freude am anderem Ende der Leitung.
An der Zielraststätte, beide Mitfahrerinnen haben sich auf die gleiche Raststätte geeinigt und ihre Freunde per Handy umgelotst, klappt die Übergabe der Passagiere perfekt.

Die Rückreise

Den Rückreisetermin muss ich um zwei Stunden vorverlegen. Wieder hilft die moderne Kommunikation, am Smartphone die Daten in die App eingegeben, Anrufe bei den zwei Mitfahrern und perfekt pünktliche Mitfahrer am Wartepunkt. Ein indischer Student und ein deutscher Programmierer, da entwickeln sich sehr interessante Gespräche, man lernt sich untereinander kennen und erfährt eben Details, die nur im persönlichen Gespräch zu vermitteln sind. 
Auch mein zweiter Mitfahrer organisiert die Abholung von meinem Reiseendpunkt in Echtzeit über das Handy, so dass alle pünktlich nach Hause kommen.

Lohnt sich der Aufwand

Das Mitnehmen von anderen Menschen im leerem Auto ist nicht nur ökologisch sinnvoll, es kann auch Langeweile während einer langen Fahrt vertreiben. Allerdings muss man sich im klarem sein, dass es aus rein ökonomischer Sicht für den Fahrer eher ein Nullsummenspiel ist. Man ist sehr mit der Organisation der einzelnen Reisebegleiter beschäftigt. Insbesondere wenn man die Sache ernst nimmt und hilfsbereit sein will. 
Eindeutig wäre diese Form der Reise ohne der permanenten Verfügbarkeit von Internet und Mobilfunk kaum denkbar, zumindest wenn man eine gewisse Flexibilität bei der Reiseplanung erreichen will.
Bei längeren Reisen werde ich weiterhin den Zug nehmen, und in den Ausnahmefällen, in denen ich eine längere Autofahrt plane, werde ich wieder die Mitfahrt anbieten.
Automatische Vermittlung von Mitfahrten liegt zwischen Individualverkehr und öffentlichem Verkehr, damit ist es eine Innovation, die unser Leben verändern kann.

Wirkung des Internets auf die Fahrleistung: 
* Möglicherweise sieht man den hitchBot am Straßenrand, ein trampender Roboter in Kanada.

Sonntag, Juni 15, 2014

Warum steigt der Palladiumpreis?

Der Palladiumpreis steigt gegenüber Gold und Platin

Seit einiger Zeit stagniert der Gold und Platinpreis aber der Palladiumpreis steigt stark an. Als Ursache werden gerne die Streiks in Südafrika genannt, aber diese treffen auch andere Rohstoffe. Was hat Palladium, was Platin nicht hat?
Der Palladiumpreis hebt sich vom Gold und Platin Preis deutlich ab. (Quelle:  http://www.finanzen.net/charttool/)

Kalte Kernfusion mit Palladium möglich?

Palladium hat eine Eigenschaft, die es von allen anderen Metallen heraushebt, es kann bis zum 3000-Fachen des eigenen Volumen an Wasserstoff speichern [1]. Es eignet sich damit aber nicht als Wasserstoffspeicher für Autos, da es extrem teuer ist. Aber es gibt einen zweiten Effekt, der hier eine wichtige Rolle spielen könnte. Wenn sich die Wasserstoffatome zwischen die Platinatome "quetschen", dann kommen sich die Wasserstoffatome ungewöhnlich nahe. Und was passiert, wenn zwei Wasserstoffatome sehr nahe aufeinander treffen?
Bei normalen Wasserstoff geschieht nicht viel, verwendet man aber Deuterium, das ist chemisch identisch zu Wasserstoff, es hat jedoch zusätzlich ein Neutron im Kern, dann könnten aus zwei Deuteriumatomen ein Heliumatom entstehen. Diese Reaktion nennt man Kernfusion.
Bei der Kernfusion entsteht extrem viel Energie und kaum Radioaktivität. Diese Form der Kernfusion nennt man "Kalte Kernfusion", da bei moderaten Temperaturen die Reaktion stattfinden könnte. Ich sage bewusst könnte, da der endgültige Beweis noch aussteht.

Erstaunliche Experimente

Es gibt inzwischen einige Experimente, die deutliche Hinweise auf eine Energieproduktion liefern [2]. Dabei wird Palladium zu geeigneten Nanopartikeln konfiguriert. Man beobachtet dann über Wochen eine Wärmeproduktion und entsprechende Reaktionsgase wie Helium.  
Überschüssige Energie in vielen Experimenten. (Quelle: Stanford University [3])

Allerdings ist die "Branche" der Kalten Kernfusion* seit den ersten Experimenten von Fleischmann und Pons 1989 nicht immer vertrauenswürdig gewesen, da viele Experimente nicht wiederholbar waren.
Allerdings könnte das auch daran liegen, dass es eben nicht genügt, einfach Palladium in Wasser zu halten und Deuterium einzulagern. Möglicherweise spielen kleine Details der Mikrokonfiguration der Nanopartikel eine große Rolle. Und solange man diese Details nicht versteht ist es fast logisch, dass die Experimente schlecht reproduziert werden. Allerdings ist die Liste der positiven Messungen inzwischen zu lang um den Effekt völlig zu ignorieren.

Kalte Fusion aussichtsreicher als Fusionsreaktor

Nach meiner Ansicht ist die Kalte Kernfusion wesentlich aussichtsreicher als die extrem aufwendigen Fusionsexperimente die seit den Fünfzigerjahren laufen und praktisch null Ergebnis geliefert haben, außer, dass es eben nicht geht. Die Forschungsmittel die in die klassische Fusionsforschung gegangen sind, zählt man in Milliarden, für die Kalte Fusion wurden erst einige Millionen investiert. Und bereits diese Experimente haben wesentlich mehr Energie erzeugt als alle bisherigen Fusionsexperimente.
Der Anstieg im Palladiumpreis könnte also tatsächlich in diesen Experimenten begründet sein. Der Kapitalmarkt ist manchmal besser in seinem Urteil, als viele hierzulande glauben.

Fazit

Würde wirklich ein Pfad zur Kernfusion gefunden, der ohne extremer Infrastruktur auskommt, dann wären wirklich die Energieprobleme gelöst. Für mich eine sehr spannende Entwicklung, die ich weiterverfolgen werde.
Meine Ausführliche Analyse in einem weiterem Blogbeitrag zur Kalten Kernfusion (24.Juni 2014).

Hinweis: *Kalte Kernfusion wird im englischen Sprachraum low-energy nuclear reactions (LENR), genannt, das ist hilfreich wenn man nach Literatur sucht.

Visionärer Artikel mit Quellen: Cold fusion may have revolutionary potential, By Jed Rothwell LENR-CANR.org

Quellen:




Dienstag, Mai 13, 2014

Wo ist Strato-Base I ?

Eine Raumstation in der Stratosphäre

Die Menschheit betreibt sein 1961 bemannte Raumfahrt und seit zehn Jahren eine dauerhafte Raumstation, die ISS. Die ISS umkreist die Erde in 400km Höhe und dient zur Erforschung von, was eigentlich?
Die ISS dient zur Erforschung der Schwerelosigkeit und kostete bisher 100 Mrd.$. Das ist viel Geld!
Die ISS fliegt in 400km Höhe um die Erde. (Bild: NASA)

Stratosphäre als Forschungsplatz

Die Stratosphäre ist der Bereich der Atmosphäre, in dem es kein Wetter mehr gibt. Oberhalb von ca. 12 km gibt es kaum noch Luftfeuchtigkeit und keine aufsteigenden Winde. Das ist auch der Grund, warum in dieser Höhe die Passagierluftfahrt stattfindet. In einer Höhe von 20 km, immer noch Stratosphäre, hat man bereits einen hervorragenden Blick ins Weltall, da praktisch keine störende Luft und keine Bewölkung die Sicht behindert.
Diese ausgezeichneten Bedingungen führen dazu, dass regelmäßig Ballonmissionen in diese Höhen gesendet werden. Zudem gibt es ein Teleskop, das mit einem Jumbojet mit offener Seite in 12 km Höhe gebracht werden kann.
SOFIA Teleskop in einem Jumbojet (Bild Wikipedia)
Das Projekt ist wegen der Verwendung des Jumbojets derart teuer, dass es vermutlich nur sehr selten fliegen wird.

Strato-Base I

Da es viele Forschungsfragen gibt, die in der Stratosphäre ausgezeichnet bearbeitet werden können, ist es für mich unklar, warum es keine dauerhafte Basis in der Stratosphäre gibt. 
Eine Strato-Base würde wie ein sehr großes Luftschiff aussehen, dass über eine langes Seil aus Ultapolymer mit der Bodenstation verbunden ist. Über das Seil kann eine Gondel nach oben fahren um Personen und Gegenstände nach oben zu bringen. Die Kosten sind dabei minimal, der Strombedarf um eine Tonne Last in eine Höhe von 20 km zu befördern ist etwa 600 kWh (180€ bei deutschen Strompreisen), jedenfalls unvergleichlich billiger als ein Raketenstart!
An dem Luftschiff würde man die Oberfläche mit Solarzellen belegen, damit immer genügend Strom vorhanden ist, Nachts könnte Strom über eine Verbindungsleitung am Seil nach oben geliefert werden.

Aufgaben für die Forschung

Hier einige Themen, die Forschungsprojekte haben könnten:
  • Atmosphären-Physik: Kontinuierliche Untersuchung der Luftschichten von der Oberfläche bis 20 km Höhe, insbesonderes Wind, Ozon, Spurengase.
  • Astronomische Beobachtungen: Aufgrund der extrem geringen Wasserdampfkonzentration kann hervorragende Infrarotastronomie betrieben werden.
  • Erdbeobachtung: Veränderung der Vegetation, hochauflösend Wolken und Nebelbildung.
  • Höhenstrahlung: Direkte Untersuchung der Höhenstrahlung.
  • Sonnenbeobachtung: Erprobung von Solarzellen für zukünftige Energieversorgung aus der Stratosphäre.
  • Funktechnik: Verschiedene Mobilfunktechniken erproben.
Und viele weitere Themen, viele davon könnten direkt als Ersatz zu Experimenten in der ISS dienen.

Kosten einer Strato-Base

Der Aufwand für eine Forschungsstation in der Stratosphäre besteht im wesentlichen aus dem Trägersystem, ein Zeppelin, gefüllt mit Helium. Aufgrund der sehr großen Volumina wäre eine Konstruktion als Blimp, ein aufgeblasener Zeppelin vermutlich vorteilhaft. Zusätzlich werden Propeller benötigt um die Höhenwinde auszugleichen. 
Ein Blimp, so ähnlich würde Strato-Base aussehen.
Bei einer angenommenen Tragfähigkeit von 100 Tonnen für die erste Version sollten die Kosten für den Blimp, inklusive Seil, Motoren, Helium und Gondel unter 200 Millionen € liegen, das ist weit weniger als ein 1% der Kosten der ISS. 

Wo ist Strato-Base I

Bei genauer Betrachtung wundert man sich wirklich, warum noch niemand eine solche permanente Stratosphärenstation vorgeschlagen hat und warum es sie nicht gibt. Ich vermute, die Menschheit hat da einen blinden Fleck.

Weiterer Blogbeitrag:

Samstag, Mai 10, 2014

Innovativ schlafen

Am richtigem Ort schlafen

Immer wieder lese ich, dass Menschen ihre Ideen im Schlaf in Form von Träumen bekommen.
Da könnte etwas dran sein, zumindest ist der Mensch im Traum weniger durch die harte Realität limitiert und kann sich vieles erträumen.
Aber könnte man das nicht gezielt nutzen, indem man abwechslungsreich schläft. 

Ungewöhnliche Orte für den Schlaf

Wenn ich auf meine eigenen Erlebnisse zurückblicke, habe ich zumindest das Gefühl, doch an einigen ungewöhnlichen Orten übernachtet zu haben.
Zwanzig Jahre vor dem großen Vulkanausbruch des Eyjafjallajökull habe ich dort gezeltet. (Bild Webcam vodafon)

Hier eine kleine Liste
  • Hotelbett (Jugendherberge bis fünf Sterne)
  • Pension
  • Bed&Breakfast
  • Bei Freunden
bisher nicht so aufregend
  • Minipackzelt
  • Expeditionszelt im Himalaya
  • Zelt am Eyjafjallajökull
  • Privat in New York
schon besser
  • Bahnhofsbank in Glasgow
  • Auto in den Krokodilsümpfen von Florida
  • Kabine im Kreuzschiff
  • Jacht
noch extremer
  • Buddhistisches Kloster (Nepal)
  • Neben einer Bärenfalle (USA)
  • Hüttendorf vor der Räumung (Bayern)
  • Besetztes Haus
  • Berghütte ohne Strom
  • Einsame Schilfhütte am Meer
Ich will die Liste jetzt nicht vollständig aufzählen, aber mir fällt eben auf, dass ich schon an sehr ungewöhnlichen Orten mein Haupt zur Ruhe gelegt habe.

Kreative Ideen durch verlassen des Alltags

Möglicherweise ist das hilfreich ungewöhnliche Orte aufzusuchen, wenn man kreative Ideen entwickeln will. Jeden besonderen Ort den ich besucht habe und an dem ich übernachtet habe, glaube ich zu erinnern. Ungewöhnliche Erinnerungen sind oft der Ausgangspunkt für ungewöhnliche Gedanken. Es ist ein Ausbrechen aus der Alltagswelt, der Abstand zu Konventionen wird größer, jene Konventionen, die oft die Gedanken ersticken.
Auf der anderen Seite ist es vielleicht so, dass kreative Menschen dazu neigen, ungewöhnliche Orte aufzusuchen und daher ungewöhnliches erleben. Vermutlich gibt es sogar eine Rückkopplung zwischen den spannenden Reisen und den Wunsch, noch mehr zu erleben. Und damit verstärkt dieses Verhalten sich selbst.

Reisen könnte bilden

Klassisch wird immer davon ausgegangen, dass Reisen bildet, aber dabei wird wenig über die Umstände und Ziele gesagt. ich vermute, dass sehr unterschiedliche Reisen und Erfahrungen sehr zur Entwicklung beitragen. Und nicht zuletzt das ungewöhnliche Nachtlager.

Fazit

Ob es wirklich hilft an sehr vielen ungewöhnlichen Plätzen zu übernachten weis ich natürlich nicht, aber ich freue mich über Kommentare und Hinweise zu dem Thema. Und vielleicht habe ich den einen oder anderen dazu angeregt, mal seine eigenen zehn ungewöhnlichsten Orte der Nachtruhe zu erinnern.

Dienstag, April 15, 2014

3D-Drucker eine Innovation?

3D-Drucker die Revolution in der Produktion?

Inzwischen sind Drucker nicht mehr ein besonders bemerkenswertes Produkt, jeder hat einen Laser- oder Tintenstrahldrucker mit ausreichend gutem Schriftbild, das war vor 20 Jahren noch völlig anders.
Immer wenn eine 2D-Technik ausgereizt ist, taucht das merkwürdige Akronym 3D auf.
Aus dem Farbkino sollte bereits in den fünfziger Jahren das 3D Kino werden, der Fernseher wird seit Jahren 3D und ich erinnere mich an einen extremen 3D Hype im Internet, 2nd Life? Nein schon 2000 hat ein bekannter von mir mit einer 3D Firma für das Internet mindestens 30 Millionen (DM) verbraten.

Wozu 3D-Drucker

Ein 3D-Drucker kann Objekte in drei Dimensionen erzeugen. Das ist erst einmal eine bemerkenswerte Leistung, ich habe den ersten 3D-Drucker vor 25 Jahren in Zürich gesehen, wie er kleines Plastikspielzeug mit einem Laser erzeugt hat. Das war damals wirklich sensationell!
Ein etwas älterer 3D-Drucker! (Bildquelle: Wikipedia)
Aber welche Objekte kann man aus Plastik sinnvoll mit dem 3D-Drucker herstellen, wenn man bedenkt, dass etwa Legosteine eine extreme Genauigkeit benötigen, damit sie gut zusammenstecken? Sicher keine derartigen Spielsteine.
Eine Kaffeetasse benötigt zwar keine hohe Genauigkeit, aber ich bevorzuge Porzellan, da nur dieses völlig geschmacks- und geruchsneutral ist. Alles was mehr als 100°C erlebt, wie alle Objekte auf dem Herd, benötigen Metall, ebenfalls Fehlanzeige.
Sehr viele Objekte sind aus verschiedenen Materialien zusammengesetzt, nicht weil der Entwickler Langeweile hat, sondern weil verschiedene Materialien erst bestimmte Funktionen erlauben. Etwa ein Lautsprecher, ein Motor, eine Solarzelle usw. All diese Objekte kann man nur unter sehr hohem Aufwand in heimischen 3D-Drucker produzieren. Man bräuchte schon verschiedene Drucker, wie es letztendlich die Maschinen in modernen Fertigungsstraßen sind, eine Metaform von 3D Druckern.
Kleidung wäre noch am vernünftigsten, da dort individuelle Maße eine große Rolle spielen. Aber selbst in der Massenproduktion von Kleidungsstücken werden heute immer noch sehr viele Näherinnen (China...!) eingesetzt. Das Problem ist die extrem schwierige Handhabung von weichem Stoff.
Bleibt der Modellbau, dort ist es sicher praktisch, wenn man sehen will wie etwas aussieht, allerdings gibt es heute hochauflösende Bildschirme, die das Problem, inklusive der richtigen Farben, auch nicht schlecht lösen können.

Hype am Ende

Somit wage ich zu behaupten, dass der 3D-Druckerhype genau so versandet wie viele 3D-Hypes zuvor. Sicher werden weiterhin CNC Maschinen in den Fabriken Formteile fräsen, wie seit vielen Jahren, ohne jemals mit dem Label 3D-Drucker verkauft worden zu sein. Auch auf Jahrmärkten wird man weiterhin sein Antlitz mit 3D-Lasermaschinen in einen Glasblock verewigen können, aber nie werden Menschen neben dem Computer den 3D-Drucker haben, der morgens Designerbrötchen, Vormittags Fahrradschrauben, Mittags Gläser, Nachmittags Hängematten und Abends Nachthemden produziert, haben. 

Es ist ein schönes Märchen, das eben viele Menschen gerne hören.



Sonntag, März 30, 2014

Innovationen, die die Welt verändern

Was treibt Innovationen an?

Auf der Wümek Konferenz durfte ich den Eröffnungsvortrag halten. Es geht um die Grundlagen wie Innovationen entstehen und sich entwickeln.
Die Folien sind mit dem gesprochenem Text hinterlegt.

„Innovationen die die Welt verändern“

Wir leben in einer Zeit in der mehr Innovationen das Licht der Welt erblicken als je zuvor. Um zu verstehen was die großen Trends bei Innovationen sind und welche Innovationen relevant werden könnten, will ich einen Überblick geben wie diese Entwicklungen einzuschätzen sind.
Am Anfang sollte man sich im Klaren sein, dass es einem großen Unterschied zwischen Erfindung und Innovation gibt. Eine Erfindung ist eine technische Lösung die eine hohe Kreativität erfordert, neu ist und wirtschaftliche Verwertung erlauben könnte [1]. Allerdings werden sehr viele Erfindungen nie zu einer Innovation, es scheitert oft daran, dass diese Erfindungen nicht den Weg zum Markt finden, da entweder nicht genügend Kapital oder genügend Interesse für das neue Produkt vorhanden ist.
Eine Innovation ist nach Joseph Schumpeter “schöpferische Zerstörung [2]. Das bedeutet eine wirklich Innovation zerstört das Alte, so hat das Auto die Kutsche abgelöst, das Smartphone das einfache Mobiltelefon. Gerade diese Zerstörung ist es, die viele Menschen am technischen Fortschritt zweifeln lässt, da es weh tut wenn Altes verschwindet und Neues, noch unbekanntes, oft von anderen Herstellern, den Markt zu dominieren beginnt.

Warum immer wieder Innovationen?

Wir haben doch schon alles was wir brauchen. Wir wissen alles was man wissen kann.
Der europäische Kulturraum ist seit 500 Jahren nicht mit seinen geistigen und natürlichen Grenzen zufrieden, daher ist man seit der Renaissance immer wieder aufgebrochen, Neues zu entdecken, neue Länder, neue Naturgesetze und neue Produkte. Yuval Noah Harari nennt das “Die Entdeckung der Unwissenheit” [3]. Wir leben in einer Kultur ohne endgültige Wahrheit, alles darf angezweifelt werden. Es gibt keine Dogmen für die sichtbare Welt, ein nicht zu unterschätzender Vorteil für die Entwicklung unserer Wissenschaft.
Die gleiche Offenheit erleichtert es, neue Produkte im Markt zu etablieren. Besonders ausgeprägt, wenn das Neue den Menschen wirklich Vorteile bringt, höhere Lebensqualität, einfachere Fortbewegung, bessere Information, bessere Energiequelle, die bisherigen Triebkräfte aller Innovationen.

Die Basis für Innovationen

Jede Innovation enthält ein kleines Wunder.
Wir haben fast schon vergessen, wie wundersam unsere Welt ist. Da gibt es Blechkisten, die, wie von Zauberhand schneller werden als je ein Mensch laufen kann. Da gibt es einen Schrank in der Küche, in den stellt man das Geschirr hinein und nach zwei Stunden ist es sauber und trocken. Wenn wir Gedanken übertragen wollen, nehmen wir ein kleines Brettchen in die Hand und sprechen mit einem Menschen der auf der anderen Seite der Erde lebt.
Alles für uns selbstverständlich, aber noch vor einigen Generationen ein Grund, der Hexerei bezichtigt zu werden. Warum gab es vor 500 Jahren nichts von alledem?
Der Grund liegt in der Entdeckung der mathematisch formulierten Naturgesetze innerhalb dieser Zeit. Es war ein schmerzlicher Prozess für die Entdecker, einige wurden ausgegrenzt oder mussten mit ihrer Freiheit oder gar ihrem Leben bezahlen.
Aber selbst heute ist es für viele Menschen schwer, nachzuvollziehen, warum die Erkundung physikalischer Gesetze von fundamentaler Bedeutung für unsere Zivilisation ist. Die immer wiederkehrende Diskussion um den “Sinn” von sehr teuren Großforschungseinrichtungen zeigt dies.
Bei der Entdeckung der Elektrizität konnte sich niemand vorstellen, dass es eine sinnvolle Anwendung für deren kuriose Effekte gibt. Wer kann sich auch vorstellen, dass die geglückte Drehung einer Kompassnadel durch einen kleinen Strom ein Schritt zum Elektromotor ist. Ohne Verständnis der dabei zugrunde liegenden Physik, ästhetisch beschrieben durch die Maxwell Gleichungen, wäre auch nie ein wirklich leistungsfähiger Elektromotor entstanden.

Das rote Leuchten im Ofen, das Glühen der Materie bei hohen Temperaturen kannte jeder, doch erst Max Plank war in der Lage dies durch ein Gesetz zu beschreiben. Die Folge war die Entdeckung der Quantenmechanik und die daraus folgenden Erfindungen, die unsere heutige Zeit bestimmen. Nahezu nichts würde heute funktionieren, gäbe es dieses Wissen nicht, von der Beleuchtung mit LED über den Speicher eines Computers bis hin zum CT in der Klinik. 

Mehr zum Thema im Video: Innovationen die die Welt verändern

Weiterer Blogbeitrag zum Thema:

Die 2. Neolithische Revolution

Freitag, März 07, 2014

Internet und Autofahren

Verändert das Internet die Mobilität?

Seit etwa zwanzig Jahren gibt es Internet in der Form des World Wide Webs. Das Internet ist so tief in den Alltag eingedrungen, dass sich sogar grundlegende Verhaltensweisen der Menschen verändert haben.
Entwicklung der Fahrleistung der Autos in den USA. (Quelle: dschort.com)

Seit den 1970er Jahren verfolgt man genau, wie viele Kilometer die amerikanischen Autos zurücklegen. Bis etwa dem Jahr 2000 ist die Fahrleistung kontinuierlich, von einigen Rezessionen unterbrochen, angestiegen. 
Doch dann geschieht etwas seltsames, die Fahrleistung wächst nach 2005 nicht mehr weiter. Ein Grund könnte sein, dass einfach eine Sättigung eingetreten ist.
Nach 2005 beginnt jedoch die Fahrleistung nachhaltig zurückzugehen, das hat es bisher noch nie über ein Jahrzehnt gegeben! Was könnte die Ursache sein? Der erste Verdacht liegt natürlich beim Benzinpreis, diese Preise sind seit 1970 stark gestiegen.
Fahrleistung und Benzinpreise in den USA. (Quelle: dschort.com
Die Benzinpreise spielen sicher eine Rolle, aber eigentlich hätte nach 2005 die Fahrleistung wieder hochgehen müssen, da die Benzinpreise wieder zurückgingen, ist sie aber nicht.

Datenverkehr im Internet

Sieht man sich den Datenverkehr im Internet an, dann bekommt man eine Ahnung worin die Ursache liegen könnte.
Entwicklung Modem und Breitbandinternet (Quelle: zdnet)
Seit 2005 gibt es mehr Breitbandanschlüsse als Modems in den USA. Hat man einen Breitbandanschluss, dann kann man auf einige Autofahrten verzichten. Angefangen vom Home-Office bis zur "Stammkneipe" bei facebook. 
Bemerkenswert ist noch, dass die Entwicklung in Deutschland exakt gleich verlaufen ist, hier nimmt die Fahrleistung seit dem Jahr 2005 ebenfalls ab, und liegt jetzt um 5% niedriger als 2004 (Quelle: Eurostat)

Das Internet ist also das erste Medium, das den Autoverkehr nachhaltig reduziert hat!

Eine weitere Wirkung des Internets: Elektronisch Trampen