Dienstag, Dezember 31, 2013

Google Foto upload

Die Bilderwelt mit Google

Im Lauf der Jahre sammeln sich auf der Festplatte sehr viele Fotos, insbesondere seit es Digitalkameras in jedem Handy gibt, an. Zudem habe ich alle alten Photos und viele Dokumente digitalisiert, das sind tausende weiterer Bilder. Da kaum ein Mensch genügend Zeit hat, die Bilder sorgfältig zu beschriften und zu sortieren, sind die Bilder kaum wieder auffindbar. Zudem besteht immer die Gefahr, dass die Festplatte verloren geht oder zusammen mit dem Backup gestohlen wird. Dann ist alles weg.
Digitale Erinnerungen sollten nicht verloren gehen.

Bilder in die Cloud

Eine Lösung für diese Probleme bietet jetzt Google an, man kann alle Bilder hochladen. das konnte man bisher auch schon, etwa zu Dropbox oder zahllosen anderen Anbietern, aber jetzt geht das kostenlos. Allerdings limitiert Google die größe der Bilder auf seiner Platte auf 2048*2048 Pixel. Das genügt fast immer, da kaum ein Monitor diese Auflösung darstellen kann. Falls man als Profi doch mehr benötigt, muss man eben zahlen.
Da die Bilder jetzt in der Cloud liegen, kann man sie von überall mit seinem eigenem Google Account abrufen. Die Bilder sind nicht öffentlich! 

Risiko Geheimdienste

Allerdings muss man sich, wie bei allen Cloudservices, im klaren sein, dass es theoretisch Mitseher, wie die NSA, gibt. Allerdings kann man inzwischen kaum sicher sein, wo die Grenzen der Überwachung liegen, daher ist jeder Rechner am Internet und jedes Smartphone potentiell für Geheimdienste zugänglich. Ich glaube, eine Lösung dieses Problems muss politisch erfolgen. 

Vorteil Rechenleistung zur Bilderkennung

Ein bemerkenswerter Vorteil in der Google Cloud ist, dass die massive Rechenpower von Google jetzt versucht in den Bildern Inhalte zu erkennen. Insbesondere werden alle Texte in den Bildern gelesen. Erstaunlich wie oft ein Ortsschild, eine Beschriftung an einem Gebäude oder einem T-Shirt richtig erkannt wird. Ein Beispiel: 
Das durchgestrichene Wort Schönenbach wird erkannt.
Man kann aber nicht nur nach Texten in Bildern suchen, sondern auch nach Inhalten. Das ist insbesondere bei Menschen wie mich, die nicht an jedes Bild zehn Tags vergeben, sehr nützlich. Sucht man etwa nach dem Thema Wasserfall, bekommt man eine gute Auswahl aller Wasserfallbilder, die man geschossen hat:
Das Suchergebnis "Wasserfall" bei meinen Bildern.
Sofort bekommt man kleine und große, vereiste und romantische Wasserfälle. Genaugenommen hat er zwei "Fehler" gemacht, die künstlichen Eissäulen, die ich im Rahmen meines Gletscherprojekts erzeugt habe, hätte ich nicht Wasserfall genannt. Aber ganz falsch ist das auch nicht.

Bildbearbeitung

Eine Besonderheit ist der Versuch, Bilder automatisch zu verbessern oder mit besonderen Eigenschaften zu versehen. Dabei werden die ursprünglichen Bilder beibehalten, aber man kann eben die Veränderung als neues Bild sehen. Hier einige Beispiele:

Panorama

Früher war es immer sehr mühsam, aus mehreren Bildern ein Panorama herzustellen. Auf meiner Website Panoramawelten habe ich vor vielen Jahren dazu einige Ideen ins Netz gestellt.
Heute geht das automatisch, sobald zwei oder mehrere Bilder vermutlich zusammenpassen:
Automatisches Panorama aus mehreren Bildern zusammengefügt.

Störende Elemente entfernen

Ein sehr erstaunlicher Effekt ist das entfernen von Personen, wenn man eine interessante Stelle aufnehmen will, bei der viel Publikum ist. Dann werden, falls mehrere Aufnahmen vorhanden, sind die Personen herausgerechnet. 
Wasserfall ohne Touristen
Auf diesem Wasserfall wurden die Touristen, die oben auf der Brücke standen herausgerechnet.

Bewegung

Hat man von einer Szene mehrere Bilder aufgezeichnet, so schlägt Google vor, daraus einen Minifilm zu erstellen. Das sieht dann so aus:
Ein kleine Animation aus mehreren Bildern.

Schneefall

Eine nette Idee ist, bei Schneebildern Schneeflocken hinzuzufügen. Allerdings wird das so häufig gemacht, dass es meiner Ansicht nach schon nervt, leider kann man dieses Feature nicht separat abschalten.
Kaum findet Google Schnee auf dem Bild, schon schneit es.
Es gibt noch einige weitere Features, wie glitzern, alle lächeln automatisch, längeren Film erstellen und ich gehe davon aus, dass einige weitere dazu kommen werden. Ich denke das ist erste der Anfang einer spannenden Entwicklung.

Fazit

Innerhalb von drei Tagen konnte ich 27.000 Bilder bei Google sichern, das finde ich allein schon einen sehr guten Service. Die Tatsache, dass die Bilder durchsuchbar werden, hat eine große Zukunft und ich will das mit meinen Bildmaterial unterstützen. Nur wenn ausreichend Bilder vorliegen, können Algorithmen der künstlichen Intelligenz verbessert werden. 
Somit hat Google eine wichtige Innovation in das Netz gestellt und ich freue mich, wenn ich beruhigt schlafen kann, da ich weis, Bilder gehen mir nicht mehr verloren.

Sicher auch interessant:


Samstag, November 09, 2013

Byte pro Quadratmeter

Wie viel Daten gibt es?

Auf der Welt gibt es eine Speicherkapazität von 3000 Exabyte [1].
Das ist eine Zahl, die kann sich kein Mensch vorstellen. Daher ein Versuch das in die Zone der Vorstellungskraft zu schieben. 

Die feste Erdoberfläche hat eine Größe von 150 Millionen Quadratkilometer, das kann man auch als 150 Mkm² schreiben. Oder mit der schönen Einheit Tera (T) ausgedrückt erhält man eine Erdoberfläche von 150Tm². Das bedeutet, fünf aktuelle Festplatte, mit je 4TByte oder, in Bit Ausgedrückt, 32TBit, haben mehr Speicherkapazität in Bits als die Erdoberfläche Quadratmeter hat!

QR-Code

Inzwischen ist es ja üblich geworden, Information mit QR-Code zu speichern. Dabei wird ein Blatt mit schwarz/weis eingefärbt. Das könnte man auch mit der Erdoberfläche machen. Wieviel Daten kann man damit speichern?
QR-Code
Wenn jedes Kästchen (Bit) des QR-Code eine Fläche von 1mm² hat, so kann man auf einem Quadratmeter 1MBit Speichern, auf der gesamten Erdoberfläche kann man dann 150EBit speichern. Das ist deutlich weniger als die weltweite Speicherkapazität. Man muss schon 320Bit pro Quadratmillimeter speichern um die weltweiten Daten auf die Erdoberfläche zu drucken, das geht mit einem guten Drucker, aber die Kästchen haben weniger als 0,1mm Kantenlänge!

Extrem dichte Speicher

Die Speicherung derart großer Datenmengen gelingt nur, da wir heute über Festplatten verfügen, die auf unvorstellbar kleiner Fläche die Daten speichern. 

Ich hoffe damit ist klar, dass die Datenmenge auf der Erde eher unvorstellbar beleibt.

Quellen:

Donnerstag, Oktober 31, 2013

Mit CO2 die Weltwirtschaft messen

Analyse der Weltwirtschaft

Kann man an einer Luft-Messstation auf Hawaii die Weltwirtschaft messen? 
Vielen ist die berühmte Keeling Kurve der CO2 Konzentration in der Atmosphäre bekannt. Seit 1958 wir praktisch ununterbrochen in Hawaii auf dem Mauna Loa die CO2 Konzentration der Erde gemessen.
Original Daten der CO2 Messung, Quelle[1
Diese Kurve zeigt zum einem eine nachhaltige Zuname der CO2 Konzentration, aber auch die jahreszeitlichen Schwankungen, die auf den unterschiedlichen Vegetationszyklus auf der Nord und Südhalbkugel beruhen.

Glättung und Näherung

Nimmt man die Daten und glättet über 12 Monate, so bekommt man ein sehr stetiges Wachstum der CO2 Konzentration über mehr als 50 Jahre!
Über 12 Monate gemittelte CO2 Konzentration (Eigene Datenanalyse)
Der Physiker sieht in dieser Kurve sofort das exponentielle Wachstum des CO2 Gehalts. Legt man eine Näherungskurve (blau) mit der Formel K(t)=K+K(0)*exp((t-t0)/T) an, so erhält man für die Faktoren interessante Werte: Die ursprüngliche CO2 Konzentration K liegt bei 254ppm, das ist ein Wert der im Rahmen der natürlichen Schwankungen der letzten 100.000 Jahre liegt und einer normalen Warmzeit entspricht.
Weiterhin findet man, dass der Wachstumsfaktor K(0) den Wert 60ppm hat und der entscheidende Wert, die Geschwindigkeit der Zunahme, T=58a  ist. Das bedeutet, der zivilisatorische Anteil verdoppelt sich alle 40 Jahre.

Abweichungen sind spannend

Zieht man von den Messwerten den längerfristigen Trend ab, so erhält man eine sehr merkwürdige Kurve:
Abweichungen der CO2 Konzentrationen zeigen Wirtschaftsentwicklungen (eigene Analyse)
In den sechziger-Jahren ist die Konzentration entgegen des langfristigen Trends zurückgegangen. Dies könnte an der Substitution von Kohle durch Öl liegen. Öl hat bei gleicher Energie einen geringeren CO2 Wert. 
Nach der Ölkrise 1973 und besonders 1980 steigt der CO2 Wert überproportional stark an, möglicherweise genau der umgekehrte Effekt, Kohle wird vermehrt eingesetzt. 
Mit dem Zusammenbruch des Ostblocks 1989 werden viele unwirtschaftliche Kohlekraftwerke geschlossen, und der CO2 Ausstoß wächst unterdurchschnittlich.
In den letzten 20 Jahren kann man Wirtschaftszyklen erahnen, um 2000 und 2008 sinkt der Wert bereits vor der Krise etwas ab. Allerdings bleibt unklar, warum es scheinbar eine Überlagerung von einen etwa vier Jahre dauernden Zyklus gibt. Möglich wären Meeresströmungen, die in diesem Zeitraum schwingen.

Forschungsbedarf

Bei den offenen Fragen besteht also Forschungsbedarf. Oder hat jemand zu dieser Problematik für mich eine gute Literaturstelle zur Hand? Ich würde mich freuen.

Mehr zum Thema


Quellen:

Montag, Oktober 28, 2013

Lösung Sommerzeit Winterzeit

Wechsel Sommerzeit zu Winterzeit gelöst?

Alle Jahre wieder wird im Herbst überraschend von Sommerzeit auf Winterzeit umgestellt.
Dabei gibt es zwei Probleme, zum einem leben Menschen nach einem festen Tag Nacht Rhythmus, dessen Störung jedem mehr oder weniger große Probleme bereitet.
Das zweite Problem ist die Zeitumstellung, in welche Richtung muss man die Uhr drehen, wurde eine Uhr schon vom Partner verstellt, ist das eine Funkuhr, hat die Funkuhr im Funkloch überhaupt Empfang usw.
Die einfachst Lösung wäre, Sommerzeit wieder abschaffen, das wäre meine persönliche Empfehlung.

Alternative: Schaltminute

Will man aber den Vorteil, dass im Sommer die Sonne abends bei Sommerzeit scheinbar länger scheint, beibehalten, aber das Wechselproblem entschärfen, dann gibt es eine Alternative. In einer Welt, in der die Zeit von Funkuhren und Computer bestimmt ist, könnte man im Monat September und Oktober in jeder Nacht eine Minute entfernen, und in den Monaten März und April jeweils eine Minute hinzufügen!
Alle die noch alte Uhren haben, merken davon kaum etwas, da dort die Zeit öfter nachgestellt werden muss. 
Bei der Bahn würde es im Fahrplan auch kein Problem geben, denn eine Minute würde nie auffallen.
Auch andere Prozesse wie Babys wecken und füttern sowie Kühe melken wären problemlos ohne Bruch möglich.

Natürliche Zeitsverschiebung

Den Wenigsten ist vermutlich bewusst, dass die Sonne sogar eine natürliche Zeitverschiebung bis zu einer Minute am Tag hat. Mittags, Sonnenhöchststand, ist nämlich nicht immer um Zwölf, sondern verschiebt sich nach einer komplizierten Gleichung, der Zeitgleichung, über das ganze Jahr bis zu +/- 15 Minuten.
Die Zeitgleichung beschreibt die Abweichung der Sonnenzeit zur "Uhrenzeit". Bildquelle Wikipedia
Im 16. Jahrhundert hatte diese Phänomen die Uhrmacher, die bereits sehr genaue Pendeluhren gebaut haben, sehr verwirrt, und erst mit den Rechnungen von Newton und Leibniz verstand man damals das Problem [1].

Wie ein Wanderer

Die zukünftige Sommerzeitumschaltung würde unser Zeitempfinden nicht mehr belasten als eine Wanderung um etwa 20 Kilometer in westlicher Richtung oder bei der Winterzeitumstellung, wie eine Wanderumg um 20 Kilometer in östlicher Richtung pro Tag. 
Wir werden sehen, ob mit der weiteren Automatisierung der Zeitangabe durch zentrale Uhren, dieser Vorschlag von mir Realität wird. (Falls jemand anderes die Idee bereits hatte freue ich mich auf Hinweise!)

Quellen:

Thomas de Padova, Leibniz, Newton und die Erfindung der Zeit

Zum Thema Zeit:



Sonntag, Oktober 06, 2013

Innovationen in der Zukunft

Innovationen die in der Zukunft liegen

Es gibt Erfindungen (engl. invention) und es gibt Innovationen. Eine Erfindung wird zur Innovation wenn sie sich am Markt durchsetzt. So wurde das Auto von Carl Benz 1885 erfunden, aber es hat eine Generation gedauert, bis daraus durch Henry Ford eine Innovation wurde. Erst Henry Ford hat so viele Autos gebaut und verkauft, dass unser Leben durch das Auto grundlegend verändert wurde.
Es gibt offensichtlich auch Erfindungen, die bis heute auf den Tag warten, wo sie unser Leben verändern. Häufig hört man von den Unterstützern, der Technik xyz gehört die Zukunft. Ich will das mal an einigen Beispielen betrachten, die immer wieder durch die Medien geistern.

Die Kernfusion 

Mit der Erklärung der Energiefreisetzung in der Sonne durch Bethe und Weizäcker im Jahr 1938 war klar, dass man im Prinzip durch Kernfusion von Wasserstoffkernen extrem viel Energie gewinnen kann. In den 1950er Jahren begann daher ein Wettlauf um den Bau des ersten Fusionsreaktors. Zunächst waren die Wissenschaftler sehr optimistisch und man sprach von zwei Jahren Entwicklungszeit. Als auch nach zehn Jahren kein Erfolg zu verbuchen war legte man den Durchbruch in die Zukunft und sprach von 20 Jahren. Als ich Anfang der 1980er Jahre am Institut für Plasmaphysik in Garching bei München gearbeitet hatte, lag der "geplante" Durchbruch bei der Kernfusion 30 Jahre in der Zukunft. Im Jahr 2013 wird von Frau Professor Sybille Günter, Direktorin des Max-Plank Instituts für Plasmaphysik, darauf hingewiesen, dass im Jahr 2100 etwa 10% der Energieversorgung aus Kernfusion stammen werden.
Fusionsforschung in Garching bei München, bei der ich 1984 ein Praktikum gemacht habe. Bildquelle: Wikipedia
Offensichtlich ist es mit der Heute zur Verfügung stehen Technik nicht möglich, eine kontrollierte Kernfusion dauerhaft und gewinnbringend zu erzeugen. Es fehlen grundlegende Voraussetzungen, um mit der vor über 50 Jahren geborenen Idee eines Torus-Reaktors, ein Plasma lange genug einzuschließen, dabei mehrere Gigawatt durch die Wand zu transportieren und dabei die Wand nicht zu zerstören. 
Unabhängig von den technischen Details sehen wir eine Erfindung, die es nicht zur Innovation gebracht hat.

Das Wasserstoffzeitalter

Zufällig kann man mit den Atomen des Wasserstoffs eine weitere futuristische Welt denken. Zuerst aber nochmals eine Klarstellung, die möglicherweise zu großer Verwirrung in der Öffentlichkeit geführt hat. Wasser besteht aus H2O, also aus zwei Wasserstoffatomen und einem Sauerstoffatom. Aufgrund der sehr guten Verfügbarkeit von Wasser liegt es nahe, Wasser elektrolytisch zu zersetzen und den Wasserstoff zu speichern. Benötigt man die Energie wieder, kann man den Prozess umkehren, der Wasserstoff wird mit dem allgegenwärtigen Sauerstoff zusammengeführt und dabei in der Brennstoffzelle wieder Energie freigesetzt. 
Wasserstoff ist keine Energiequelle sondern ein Energiespeicher
So schlicht die Idee ist, so schwer ist es den Prozess wirklich ökonomisch zu beherrschen. Zum einem verliert man bei der Elektrolyse Energie, eine weiterer Verlust entsteht in der Brennstoffzelle. Damit verliert man bei heutiger Technik etwa 50% der Energie. 
Das zweite Problem ist, dass man Wasserstoff sehr schlecht aufbewahren kann. Unter hohem Druck ist er nicht nur gefährlich, sondern er neigt auch durch Metall zu diffundieren. Stark abgekühlt, auf -252°C wird er flüssig, allerdings gibt es keine Isolation, die den flüssigen Wasserstoff über viele Tage verlustfrei flüssig hält. Der Wasserstoff verdampft und muss dann "nutzlos" verbrannt werden.
Obwohl beide Probleme, Wirkungsgrad und Aufbewahrung, für Sonderfälle wie Weltraumfahrt, keine Rolle speilen, sind diese Probleme Showstopper in der Praxis, die es verhindern, dass Wasserstoff in ernsthafte Konkurrenz zu anderen Energiespeichern steht.
Ähnlich wie bei der Kernfusion sind enorme Mittel in die Erforschung von Wasserstofftechnik geflossen, einen Durchbruch gab es nicht und das Wasserstoffzeitalter liegt weiter in der Zukunft.

Das Elektroauto

Der dritte Geist trägt den Namen Elektroauto. Auch das Elektroauto wurde bereits 1888 von Andreas Flocken erfunden. Und um 1900 war die Zahl der Elektroautos sogar größer als die der Benzinautos. 
"Der Feind des Guten ist das Bessere"
Das Benzinauto ist durch die Integration einer Batterie für den Motorstart genau so bequem zu starten als ein Elektroauto. Mit der Revolution des Ölzeitalters, dem Auffinden scheinbar unerschöpflicher Ölquellen in den USA und an anderen Orten, war der Preis für Benzin sehr rasch gesunken, so dass das Elektroauto seither ein absolutes Nischendasein fristet.
Das grundlegende Problem ist nicht der Motor, auch nicht die Motorsteuerung, an der ich zufällig mit meiner ersten Diplomarbeit beteiligt war. Ich hatte innerhalb von Siemens Mitte der 1980er Jahre an der Entwicklung eines MOS-GTO mitgewirkt, der für das Steuern eines Elektroautos gedacht war. Der MOS-GTO funktionierte, aber der Markt für Elektroautos kam auch nach weiteren zwanzig Jahren des Wartens nicht. 
Das Kernproblem des Elektroautos ist die Batterie! Solange es nicht gelingt, eine Batterie mit einer Kapazität von 100kWh, einem Gewicht von 300kg und einem Preis unter 10.000€ herzustellen, so lange wird es keinen Durchbruch für das Elektroauto geben.
Aber das könnte bald gelingen, wie im folgenden, ausgezeichneten Vortrag von Lars Thomsen klar wird:

Wenn Erfindungen stecken bleiben

Offensichtlich gibt es viele Erfindungen, deren Zeit noch nicht gekommen ist, oder deren Zeit vielleicht nie kommen wird. Das gedankliche Problem ist dabei immer ähnlich. Es wird aufgrund einer überschaubar komplexen Idee eine grundlegende Lösung für ein Problem vorgeschlagen:
  • Kernfusion - Energieversorgung
  • Wasserstoffzeitalter - Energiespeicher
  • Elektroauto - Personentransport
Jede der Lösungen hat aber ein unüberwindbares Problem bei der Umsetzung. Dabei hilft es offensichtlich auch nicht einfach sehr viel Geld in die konkrete Forschung zu stecken. Grundlegende Probleme müssen durch "Basisinnovationen" gelöst werden, die oft ganz anders aussehen als zunächst gedacht.
Hier nochmals die Beispiele:
  • Kernfusion - Solarzellen zapfen die Energie des Fusionsreaktors Sonne an!
  • Wasserstoffzeitalter - vermutlich sind andere Speicher wie Lithium-Akkus besser
  • Elektroauto - aus Strom erzeugtes Methan könnte Autos antreiben
Aus diesen Beobachtungen bleibt die Erkenntnis, dass es gerade für den Staat besser ist, viele Ressourcen in die Grundlagenforschung zu stecken, da dies oft Lösungen für andere Probleme die offen sind ergibt. Das Zwanghaft festhalten an einem Forschungsziel, Fusionsreaktor, kann zu enormen Kosten führen und zu einem "Lock in" Prozess, da man bereits so viel Geld ausgegeben hat traut sich keiner das Projekt mehr zu stoppen.
Eine Tragik menschlichen Handelns.

Zum Weiterlesen:

Montag, September 30, 2013

Warum Stromkonzerne keine Solarzellen bauen

Stromkonzerne liefern Strom

Wir kennen den Spruch: "Die Sonne schickt keine Rechnung"
Das müsste eigentlich in den Ohren der Stromkonzerne eine Alarmmeldung sein. Stromkonzerne liefern gegen Geld Strom. Bisher haben sie das dadurch erreicht, dass sie Kohle oder Kernenergie in großen Kraftwerken mit komplexer Technik eingesetzt haben, die sich kein Privatmensch leisten konnte. Doch da kommt eine disruptive Innovation, die Photovoltaik (PV), ins Spiel.

Photovoltaik als disruptive Innovation 

Nach der Theorie von Clayton M Christensen [1] gibt es disruptive Innovationen die von den bestehenden Marktführern nicht verstanden werden.
Disruptive Produkte haben dabei folgende Eigenschaften:

  • einfacher
  • billiger
  • zuverlässiger
  • benutzerfreundlicher
als etablierte Produkt.
Betrachtet man die PV, so hat sie genau diese Eigenschaften. Sie ist einfach, zum Betrieb einer PV-Anlage benötigt man keinen Ingenieur oder Meister, völlig anders bei den bisherigen Kraftwerken.
Eine PV-Anlage ist billiger, nicht pro kW, aber pro Anlage, das ist gemeint wenn Christensen von billiger spricht.
Eine PV-Anlage ist außerordentlich zuverlässig, wenn die Wechselrichter nicht nach zehn Jahren einen Ausfall haben, hat man keinerlei Wartungsbedarf. 
Sie ist benutzerfreundlich, genau gesagt muss man nichts tun um sie zu betreiben, welch ein Unterschied zu all den anderen Kraftwerken.
Dieser Teil der Argumentation ist sehr zwingend und dürfte kaum Widerspruch auslösen

Ein schlechtes Produkt?


Aufgrund des hohen Strompreises und der unzuverlässigen Verfügbarkeit (Nacht!), hat eine PV-Anlage grundlegende Mängel, die den Einsatz zuerst nur in einigen kleinen Nischenmärkten zuließen. Daraus folgerten die etablierten Stromunternehmen, dass PV nicht für ihre strategische Firmenentwicklung relevant ist. Für die Stromunternehmen ist (war?) eine Photovoltaikzelle nur für einen Nischenmarkt geeignet. Etwa für Parkautomaten oder Taschenrechner mit vernachlässigbaren Umsatz. Zudem ist die Solarzelle nicht zuverlässig, da sie nur bei Sonnenschein Strom liefert.

Entwicklung aus der Nische

Viele vermeintliche Nischenprodukte mit disruptiven Eigenschaften haben aber eine höhere Entwicklungsgeschwindigkeit als die bestehenden Technologien. Als Beispiele nennt Christensen den MP3 Player gegenüber der CD-Player, den Personal Computer gegenüber der Mainframe, den Hydraulikbagger gegenüber den Seilbagger und viele weitere Beispiele.
Damit kann das disruptive Produkt immer mehr Märkte erobern, in unserem Fall PV: Zunächst nur für sehr kleine Nischen wie Netzunabhängige Systeme mit wenig Strombedarf, etwa Parkautomaten. Sinkt der Preis, wird PV für den Endkunden, der teuren Netzstrom bezieht, interessant, häufig als "Grid parity" bezeichnet.
Nach weiterem Preisverfall kann PV Diesel in Inselanlagen ersetzen.
Gridparity und Speicher+Gridparity in Japan, Quelle: Kiray
Inzwischen ist der Preis so weit gesunken, dass in sonnenreichen Gegenden, Kalifornien, der PV Strom günstiger ist als der Strom aus Gasturbinen, die "Production parity" ist damit erreicht.
Die letzte Stufe ist, dass PV inklusive der notwendigen Speicherung, günstiger als Strom aus einem Kohlekraftwerk ist, das ist noch nicht gelungen.
Hinweis: Ich habe bewusst alle Subventionen, EEG etc. nicht betrachtet.

Wo bleiben die Stromkonzerne?

Eigentlich sollten die Stromkonzerne, die Strom liefern schnell beginnen, den Kunden PV-Anlagen zu verkaufen oder zumindest zu vermieten. Aber keine spur davon, mir ist kein einziger Stromkonzern bekannt, der massiv in die Produktion von PV-Produktionsanlagen investiert hat. Obwohl ausreichend Mittel vorhanden waren und die Investition in eine PV Produktionslinie deutlich weniger kostet als ein Kernkraftwerk!
Hat allerdings die etablierte Industrie den rechtzeitigen Einstieg versäumt, dann wird es sehr schwierig. Die Gewinnmargen sinken wegen der Konkurrenz, hier PV-Anlagen, die neue Industrie hat schon sehr viel Erfahrung, die man kaum aufholen kann, das Management hat wieder einmal einen Megatrend verschlafen.

Chance Speicher

Es gibt noch eine letzte Chance, wie erwähnt ist PV-Strom plus Speicher gegenüber einem Kohlekraftwerk noch nicht wettbewerbsfähig. Damit könnten die Stromunternehmen in das Speichergeschäft einsteigen, etwa dem Lageenergiespeicher. Damit würden sie allerdings ihr eigenes Geschäftsmodell (Thermische Kraftwerke) kannibalisieren. Dies werden die Manager nicht wollen, somit bleibt nur: Ausscheiden aus dem Markt. 
Ich kann den Managern der Stromkonzerne nur wärmstens empfehlen, das Buch von C. Christensen zu lesen und intensiv nachzudenken! Hier der Link zu amazon.

Empfehlung:



Quellen:
[1] Clayton M. Christensen, The Innovators Dilemma: Warum etablierte Unternehmen den Wettbewerb um bahnbrechende Innovationen verlieren, ASIN: B0069YNVWU (e-book)

Sonntag, Juli 07, 2013

Datenanalyse aus den USA

Wie man Daten nicht analysieren sollte

In letzter Zeit wurde viel über die Datensammelwut der US Geheimdienste berichtet. Für mich stellt sich die Frage, wie gut können diese Daten ausgewertet werden. 
Da ich leider keinen direkten Zugang zur NSA habe, muss ich mich auf Vergleiche beziehen. Und da gibt es den Vorteil, dass in den USA Daten von Regierungsbehörden offen zugänglich sind.

Beispiel Stromverbrauch

Die US Energie Information Administration EIA, offensichtlich eine Behörde, die den wichtigen US Energiemarkt analysiert, findet für den zukünftigen Stromverbrauch der USA bis 2040 folgendes:
Abb. 1: Zuwachs des US Stromverbrauchs und zukünftige Entwicklung
 Ein Blick auf die Graphik zeigt, dass die USA seit 1950 einen Rückgang beim Wachstum des Stromverbrauchs hatten. Und in Zukunft soll der Verbrauch wieder etwas stärker wachsen. 
Was ist daran merkwürdig? Die Methode der Datenanalyse! 
Hier nochmals die tatsächlichen Daten [1] in einer weniger suggestiven Grafik:
Abb. 2: Wachstum des US Stromverbrauchs seit 1950 und lineare Näherung
Man erkennt, dass eine lineare Näherung den Trend in den letzten 60 Jahren erstaunlich gut wiedergibt. Inzwischen ist das Wachstum exakt bei Null angekommen, das bedeutet, der Stromverbrauch ändert sich nicht mehr. Aber das darf natürlich eine Regierungsbehörde nicht zugeben, daher wir ein Polynom (Trendline in Orange, 1. Abbildung) eingefügt, diese deutet zumindest ein leichtes Wachstum in Zukunft an. Es gibt dafür keinerlei logische Erklärung, denn eine Polynom ist für die Beschreibung eines Wachstumsprozesses nicht sinnvoll. 
Sinnvoll wäre eine exponentielle Entwicklung, die gegen eine Grenze läuft und durch eine logistische Funktion beschrieben werden kann. Das ist aber sicher etwas zu komplex für ein "schönes" Resultat.
Ich habe die einzelnen Fälle untersucht, es gibt kein besseres Resultat, als die einfache Annahme:
Der Stromverbrauch in den USA nimmt nicht mehr zu!
So weit diese erste Analyse.

Die Nutzung von Solarenergie in den USA

Zuerst werfen wir einen Blick auf den jährlichen Zubau an Solaranlagen in den USA:
Abb. 3: Bemerkenswertes Wachstum bei Solaranlagen in der USA
Aus Abbildung 3 erkennt man, dass auch in den USA massiv die Solarenergie ausgebaut wird, jetzt muss das US Energy Information Department eine Prognose für die Zukunft liefern, am Besten exakt für jedes der nächsten 30 Jahre. Kein Problem, kurze Rücksprache mit der Gas und Ölindustrie, etwas Würfelglück und schon hat man die Zahlen:
Abb. 4: Entwicklung der Zubauzahlen für Solarenergie in den USA bis 2040 laut EIA
Wir lernen, so viel Zubau wie 2012 wird es nie wieder geben, ab 2017 liegen die Werte wieder bei 0,11GW pro Jahr, erst ab 2030 wird es ein langsames Wachstum geben und 2040 könnte der Wert von 2013 wieder erreicht werden. 
Für mich ist es unfassbar, dass eine derart unlogische Analyse von einer Regierungsbehörde im Internet publiziert wird und niemand dies bemerkt. Nochmals der Hinweis, jeder kann die Zahlen unter dem unter [1] angegebenen Link abrufen.

Beispiel Windenergie

Auch die Prognose für die Installation von Windkraftwerken ist ähnlich unlogisch wie bei der Solarenergie, dort gibt es sogar Jahre ohne jeglicher Installation, z.B. die Jahre 2017 und 2018, mal sehen.
Prognose des Zubaus Windenergie bis 2040 (Daten EIA [1])

Beispiel Öl und Erdgas

Und wäre da nicht das Erdgas, die USA würden in Zukunft ohne Strom dastehen, hier die Zubauprognose, auch mit einer etwas merkwürdigen Lücke zwischen 2014 und 2021:
Prognose der EIA für den Zubau von Öl- und Gaskraftwerken (Daten [1])
Am Besten macht sich jeder selbst Gedanken, wer die Studie finanziert haben könnte.

Anmerkung:

Es sei aber festgehalten, dass es von anderen Institutionen, auch in der USA, bessere Studien gibt. Ich empfehle für alle, die es genau wissen wollen, die Sun Shot Vision Studie [2], nicht methodisch perfekt, aber auf jeden Fall nicht so absurd wie die EAI Studie. Dort wird gezeigt, dass ein massiver Zubau von Solarenergie möglich ist, allerdings steht im Vorwort "Dies ist keine Prognose, nur eine theoretische Rechnung", um sich abzusichern.

Letztendlich ist das Innovationen verhindern durch falsche Analysen.

Vermutlich auch von Interesse:


Quellen:
[2]Sun Shot Vision Studie, US Department of Energy 2012

Montag, Juli 01, 2013

Alternative für Deutschland, eine innovative Partei?

Frischer Wind AfD und die Piraten

Es kommt nicht sehr oft vor, dass innerhalb von wenigen Jahren zwei Parteien gegründet werden, die eine ernsthafte Chance haben, in den Bundestag einzuziehen, das gab es zuletzt Anfang der 1980 Jahre, als die Grünen gegründet wurden.

Warum gibt es neue Parteien

Unser Parteisystem ist im Kern über hundert Jahre alt, es gibt Links und Rechts, Arbeiter und Bürger, eine Struktur, die mit der modernen gesellschaftlichen Wirklichkeit nur begrenzt übereinstimmt. Diese klassischen Parteien, SPD, CDU, und ihre Partner GRÜNE und FDP bilden in unterschiedlicher Konstellation seit über 60 Jahren die Regierung der Bundesrepublik. Die Abgeordneten sind immer länger im Parlament:
Die Dauer der Abgeordnetentätigkeit nimmt zu[1]!
Ein durchschnittlicher Abgeordneter war bereits 7 Jahre im Parlament, als er 2009 gewählt wurde. Inzwischen sind unsere Abgeordneten bereits 13 Jahre im Parlament und haben gelernt Parlamentarier zu sein.
Menschen werden von ihrem Umfeld geprägt, wer über 10 Jahre in einer Firma arbeitet ist der Firma und insbesondere der Firmenleitung sehr treu. Bei Parlamentariern führt das zu unglaublichen Zustimmungswerten gegenüber der Regierung, auch wenn die Mehrheit der Bevölkerung völlig anders denkt, wird zugestimmt. Der Abgeordnete ist nicht der Regierung verpflichtet, sondern den Wählern.
Da offensichtlich die bestehenden Parteistrukturen messbar verkrusten, bei der ältesten Partei, der SPD sind die Abgeordneten (im Mittel!) inzwischen 13 Jahre im Bundestag, müssen neue Parteien mit neuen Politikern den Willen des Souverän repräsentieren. 
Die Situation ist ähnlich zu Unternehmen, alte Unternehmen, man denke nur an die klassische Medienbranche, sind nicht in der Lage die neuen Wünsche der Menschen zu erkennen und in Produkte umzusetzen. Innovative Unternehmen haben immer viele neue, oft junge, Mitarbeiter.

Ein Thema Parteien

Jede neue politische Bewegung greift zunächst nur ein Thema auf, das besonders ausgeprägt die Unfähigkeit der alten Strukturen aufzeigt auf geänderte Anforderungen zu reagieren.
  • Die SPD war die Arbeiterpartei, die massive soziale Missstände am Ende des 19. Jahrhundert aufgriff, andere Themen kamen erst später dazu.
  • Die Grünen sind aus der Anti-Atom Bewegung entstanden, sie bekamen früher meine Stimme, weil sie als einzige Partei gegen die Aufrüstung mit Atomraketen waren!
  • Die Piraten haben das Thema Internet aufgegriffen, leider aber den Fokus verloren, ich kann nicht mehr sagen wofür und wogegen sie sind. Das ändert sich aufgrund der liquid Democracy Technik auch schnell.
  • Die AfD ist gegen die Vertragsbrüche bei der Währung Euro. Übergeordnet ist es das Prinzip, dass wir Frieden nur durch das Einhalten von Verträgen erreichen können.
Damit eine Partei längerfristig mehrheitsfähig ist, wird sie zunächst eine Mehrheitsmeinung zu einem bestimmten Thema aufgreifen müssen, anders ist eine Neuentwicklung nicht möglich. Dieses Phänomen kennt man auch bei anderen Innovationen, zunächst ist das Produkt nicht perfekt, aber es hat eine wichtige und wesentliche Eigenschaft, damit man es kauft. 

Warum ich die Alternative für Deutschland wähle

Ich habe in den letzten Jahren einfach nicht verstanden, warum in der EU klare vertragliche Regeln, insbesondere die "no Bailout" Klausel der Euroverträge nicht eingehalten werden. Manche Vertragsbrüche mögen überschaubaren Schaden anrichten, hier besteht aber die Gefahr, dass der Frieden gefährdet wird, denn auch bei internationaler Freundschaft gilt:
Beim Geld hört die Freundschaft auf
Es ist wunderbar, dass es heute ein vereintes Europa gibt, das von Helsinki bis Lissabon reicht, davon haben wir in unserer Jugend geträumt. Es ist schrecklich, wenn heute 60% der Jugendlichen in Griechenland arbeitslos sind, nur damit Banken nicht pleite gehen. 
Die Jugendarbeitslosigkeit in den "Geretteten" Ländern des Euro ist schlimm.

Nach der Meinung ungezählter Professoren der Volkswirtschaft ist der Euro in der jetzigen Form die Ursache der Misere. Ich sehe das auch so, daher wähle ich die Partei AfD, die im Moment von einem Volkswirtschaftsprofessor, Bernd Lucke, geleitet wird. 

Ich hoffe, dass die Innovation AfD eine innovative Partei beleibt.


Quellen:

Sonntag, April 07, 2013

War der Mondflug echt?

Apollo 11 und die Wissenschaft

Im Internet findet man 22 Millionen Seiten die der Frage nachgehen, ob Apollo 11 mit Neil Amstrong und Buzz Aldrin wirklich auf dem Mond gelandet sind. Eigentlich genug Information für alle, aber ich will meine Ansicht trotzdem hinzufügen.
Wo sind die Beweise für die Mondlandung?

Wissenschaft ist nämlich ein Unterfangen, das immer mit der Frage der Belege für Informationen konfrontiert wird. Und hier haben wir einen sehr interessanten Fall vor uns, der zum Einem allgemein bekannt ist, andererseits durch seine spezielle Struktur Raum für Diskussionen lässt.

Historisches Ereignis

Die Mondlandung ist ein historisches Ereignis, das bedeutet, wie alle historischen Ereignisse bieten sie keine direkte Anschauung. Anders als physikalische Gesetze, die man jederzeit durch ein Experiment überprüfen kann oder geographische Gegebenheiten die der unmittelbaren Anschauung zugänglich sind. 
Newtons Behauptung, der Apfel fällt nach unten, kann jeder überprüfen und niemand hat bisher reproduzierbar das Gegenteil gesehen. 
Der Bericht von Columbus, er habe die Küste von Indien entdeckt und nicht die eines neuen Kontinents, kann wiederlegt werden, wenn man eine entsprechende Reise durchführt.
Die Behauptung, man hat ein UFO gesehen muss als vergangenes Ereignis belegt werden, da erstaunlicherweise niemand bisher verkündet hat, ein UFO parkt seit Tagen im Garten. 
Historische Ereignisse unterliegen dem Verfall des Wissens. Bis heute können wir nicht verstehen warum in Stonehenge ein Steinkreis steht, obwohl das für die Menschen zu jener Zeit sicher leicht erklärbar war. Aber die Information ist nicht tradiert, aufgeschrieben oder gar gefilmt worden. Auch in der näheren Vergangenheit liegende Fakten, wer war etwa Shakespeare, lassen sich nur begrenzt sicher belegen.

Entferntes Ereignis

Die Sache mit dem Mondflug hat aber eine spezielle Wendung. Die Tatsache, dass der Ort des Geschehens im Gegensatz zu allen bisherigen historischen Ereignissen nicht auf der Erde liegt, verbietet es den Interessierten durch direkten Augenschein primäre Belege, etwa die Fußabdrücke auf dem Mond, anzusehen.
Damit haben wir eine doppelte Problematik, das Ereignis liegt in der Vergangenheit und die Spuren sind nicht zugänglich. Eine solche Konstellation ist bei anderen Ereignissen, die von einigen angezweifelt werden, nicht vorhanden, man denke nur an das Leugnen des Holocaust oder die Verschwörungstheorien im Umfeld des 11. Septembers. In diesen Fällen kann man alle Belege direkt auf der Erde finden. Seien es die Gebeine der Ermordeten oder, im Fall des World Trade Centers, zudem unzählige Augenzeugen, die noch leben.

Ebenen der Belege

Im Fall von Apollo 11 gibt es zunächst viele Menschen, die das Ereignis erinnern, aber Vorsicht, im Gegensatz zu nahen historischen Ereignissen erinnern die Augenzeugen, abgesehen die Astronauten, nicht das Ereignis sondern die mediale Aufbereitung des Ereignisses. 

Direkte Zeugen

Die Zahl der Astronauten die den Mond betreten haben, liegt bei zwölf, zufällig die Zahl der Apostel die mit Jesus beim Abendmahl saßen. Inzwischen (2013) sind vier davon verstorben und in einigen Jahren gibt es keine lebenden, direkten Zeugen mehr. Und einige Jahre später wird es auch keine Menschen geben, die das Ereignis direkt medial verfolgt haben. Aber im Gegensatz zum Untergang der Titanic, ein jüngeres Ereignis dem alle Augenzeugen verloren gegangen sind, gibt es keine direkten Belege auf der Erdoberfläche. Die Titanic liegt zwar auf der Erdoberfläche, genauer auf dem Ozeanboden in 4000m Tiefe, ebenfalls schwer zugänglich, vielleicht auch daher derart mystifiziert.

Materielle Belege

Wenn es keine Zeugen gibt, dann wird immer die Beweislage zuerst von den materiellen Belegen abhängen. Davon gibt es nur das Mondgestein. Alle technischen Geräte, die auf dem Mond gelandet sind, sind entweder dort verblieben oder in der Erdatmosphäre verglüht. Die Wiedereintritts-Kapsel existiert noch, jedoch kam sie nicht in Berührung mit dem Mond. Mondgestein kann man aufgrund seiner Zusammensetzung  in entsprechend ausgestatteten Labors eindeutig als solches identifizieren. Eigentlich ein Beweis erster Klasse, wäre da nicht eine russische Mission gewesen, die mit einem Automaten Mondgestein zur Erde geholt hat. Es gibt damit nur einen Beleg, dass Gestein vom Mond geholt wurde, aber nicht, dass es von Menschen vom Mond geholt wurde. Allerdings ist die schiere Menge an Mondgestein, das die Astronauten eingesammelt haben (sollen?), etwa 382 kg gegenüber 326 g, die automatische Missionen geholt haben, beeindruckend.

Spuren auf dem Mond

Die Landung der Apollo Landefähren auf dem Mond haben zahllose Spuren auf dem Mond hinterlassen. Zum einem all das technische Gerät, das auf der Oberfläche verblieben ist, unter anderem mehrere Mondautos, bis bin zu den Abdrücken der Stiefel der Astronauten. Leider haben diese Belege die unpraktische Eigenschaft, dass sie nicht von der Erde aus beobachtet werden können. Die Atmosphäre der Erde erlaubt es nur, Objekte ab etwa 100 m auf der Mondoberfläche aufzulösen. Mithin kann man keine direkte Spur von der Erde aus erkennen.
Inzwischen sind allerdings mehrere Raumsonden zum Mond geflogen, die mit hochauflösenden Kameras die Spuren der Astronauten zur Erde gefunkt haben. Obwohl man selbstverständlich mit digitalen optischen Belegen immer vorsichtig sein sollte, jedem sind inzwischen Fälschungen durch Bildbearbeitung bekannt, liegt hier doch ein sehr starker Beweis vor. Es ist zum einem sehr schwierig eine perfekte Bildbearbeitung durchzuführen, die auf alle physikalischen Nebeneffekte Rücksicht nimmt, zum anderen wurden die Sonden von unterschiedlichen Nationen, USA und Japan, in die Mondumlaufbahn befördert.
Und es steht inzwischen jeden hinreichend finanziell ausgestattetem Unternehmen, Menschen, Land, frei, eine vergleichbare Sonde zum Mond zur Überprüfung der Spuren auszusenden.

Wo liegen die Grenzen

Im Fall der Mondlandung können letztendlich immer noch Beweise herbeigeschafft werden, die die Landung eindeutig belegen. Dass diese Beweise nicht jeden Überzeugen, liegt dann eher an mangelndem naturwissenschaftlichen Wissen über die Herbeibringung der Belege als an unmittelbaren Beweisdefiziten. Doch wird das in Zukunft auch immer gelten? Wer kann heute belegen, dass auf dem Saturnmond Titan die europäische Sonde Huygens [1] gelandet ist? In diesem Fall ist der Ort derart unzugänglich, dass kaum jemand die Mittel für eine entsprechende Mission aufbringen kann.
Einmal ausgesendete Information an Ausserirdische

Aber es gibt noch schwerer zu beweisende Ereignisse: Am 16 November 1974 wurden gezielt eine Nachricht an Ausserirdische versendet [2]. Diese Nachricht bewegt sich mit Lichtgeschwindigkeit von der Erde weg und kann daher nicht gemessen werden[3]. Problemlos kann man anzweifeln, dass die Nachricht jemals versendet wurde, denn ein definitiver Beweis ist nicht zu erbringen. Dagegen ist die Mondlandung noch ein sehr leicht belegbares Ereignis.

Fazit

Es gibt viele verschiedene Motive Ereignisse anzuzweifeln. Und es gibt sicherlich viele unwahre Geschichten. Erst das Wissen um wesentliche naturwissenschaftliche Gesetze und die Fähigkeit Wahrscheinlichkeiten richtig einzuschätzen erlaubt es einen kritischen Menschen das tatsächliche Geschehen richtig zu beurteilen. Mögen in Zukunft immer mehr Menschen diese Fähigkeiten erlangen, denn der Glaube an gefälschte Geschichten kann schreckliche Konsequenzen haben, man denke nur an den Beginn des 2. Weltkriegs[4]!

Über Kommentare freue ich mich immer!

Hier eine interessante Argumentationsweise, wenn jemand das Thema "Mondlandung war Fake" anspricht!

[1]www.esa.int/Our_Activities/Space_Science/Cassini-Huygens/Titan_first_images_-_slideshow
[2]en.wikipedia.org/wiki/Arecibo_message
[3]Die Nachricht kann nur von außerhalb gemessen werden, theoretisch könnte sie dann wieder an die Erde zurückgesendet werden, wenn es denn entsprechende Zivilisationen gibt.
[4]de.wikipedia.org/wiki/%C3%9Cberfall_auf_den_Sender_Gleiwitz

Samstag, April 06, 2013

E-Mail Statistik mit Google Mail

E-Mails als Verhaltensmuster

Wer eine E-Mail versendet, der hat immer auch eine Mitteilung zu machen, aber die will ich heute nicht betrachten. Interessant ist, dass wir alle ein bestimmtes Verhalten beim Schreiben und Beantworten von E-Mails zeigen. Nur bisher war es sehr schwer, sein eigenes Verhalten zu messen, obwohl wir alle ahnen, dass Google das längst weis. Jetzt bin ich allerdings auf eine sehr interessante Software gestoßen, von der ich berichten will:

Gmail Meter

Die Software Gmail Meter erlaubt es, einfach eine Statistik über die eigenen Verhaltensweisen bei der E-Mail-Nutzung zu erstellen.

Wöchentliche Aktivität

Meine erste erstaunliche Erkenntnis war, dass an einem Samstag extrem wenig E-Mails eingehen. Ich hatte mich zwar schon mehrmals gewundert, warum ich an einem Samstag relativ wenig mit E-Mail zu tun habe, aber der Unterschied überraschte mich doch:
Wöchentliche Mail-Aktivität
 An einem Samstag bekomme ich weniger als ein Viertel der Mails von einem normalen Arbeitstag, und noch erstaunlicher, ich schreibe wohl fast nie E-Mails am Samstag. Dies zeigt, wir werden oft von den eintreffenden E-Mails getrieben, viele Eingangsmails aktivieren uns, so schreibe ich am Mittwoch sogar mehr (relativ) Mails als ich erhalte.

Länge der Threads

E-Mail-Schreiben ist ja immer ein bisschen wie Ping-Pong, da der Aufwand zu antworten nicht sehr groß ist, gehen oft viele E-Mails hin und her, die Überraschung ist, wie regelmäßig das in der Statistik aussieht.
Länge der E-Mail "Ketten" (Threads)
Offensichtlich liegen die Werte, bei doppelt logarithmischer Darstellung, auf einer Geraden. Es gibt also ein Gesetz, dass man mit einer bestimmten Wahrscheinlichkeit antwortet, egal, wie oft man schon geantwortet hat. 

Länge der E-Mails

Es gibt sicher Menschen, die schreiben nur lange oder kurze Mails, bei mir ist das sehr unterschiedlich:
Länge der E-Mails in Worten
Empfangene E-Mails tendieren dazu sehr lang zu sein, selbst geschriebene sind zumeist kurz, 25% aller Mails die ich schreibe haben weniger als 10 Worte, das hat mich etwas überrascht, aber in letzter Zeit bin ich aufgrund der vielen Anfragen dazu übergegangen oft nur sehr kurz zu antworten, ich hoffe es wird mir verzeihen, dafür antworte ich wohl sehr schnell:
Antwortzeit für E-Mails
Fünf Prozent aller Mails beantworte ich bereits innerhalb von 5 Minuten und nach vier Stunden haben fast alle eine Antwort. Nur zwölf Prozent müssen länger als einen Tag warten, das liegt sicher oft am Inhalt, der in diesen Fällen eine sofortige Antwort nicht erlaubt. Damit erreicht man aber auch, dass man nicht einen schrecklichen Berg unbeantworteter Mails hat, was ich bei manchen Menschen beobachtet habe, analog zum vollen Schreibtisch. 
Bemerkenswert ist natürlich, dass mir andere Menschen mir schneller antworten, als ich selbst, dafür darf ich mich an dieser Stelle bedanken!

Zugang zu den eingenen Verhaltensdaten

Interessant werden die Statistiken natürlich erst, wenn man das über einen längeren Zeitraum verfolgt. Werden alle Mails immer kürzer, antworten die Menschen schneller? Für mich ist es faszinierend, endlich wenigstens über mein eigenes Verhalten mehr zu wissen. Ähnliche Statistiken könnte es ja auch in anderen Lebensbereichen geben, wie und was kaufe ich ein, Aldi hat in Verbindung mit meiner EC-Karte da sicher mehr Wissen als ich. Das gleiche gilt für die Bahn, die Tankstellen, usw. 
Ehrlich gesagt, fände ich es gut, wenn nicht nur andere genau über mein Verhalten bescheid wissen, sondern wenn ich selbst meine Daten auswerten kann. Dann habe ich keine Probleme mit dem Datenschutz.

Vielleicht auch von Interesse: Lesen macht klug, Schreiben klüger

Verwendete Software für die E-Mail Statistik: http://www.gmailmeter.com/

Samstag, März 02, 2013

Nexus 10 leben mit dem Pad

Seit einigen Wochen habe ich einen nexus 10 Pad Computer. Was ändert sich in den Nutzergewohnheiten wenn man nicht nur einen Laptop mit Zusatzmonitor nutzt?
nexus 10, Bild: Wikipedia

Der Arbeitsplatz 

Der Arbeitsplatz, an dem man den Rechner nutzt wandert zum Sessel oder zur Couch. Diese Plätze hatte ich bisher für das Lesen optimiert. Das bedeutet eine helle Lampe war immer an. Jetzt läßt man die ausgeschaltet, da es nur unnötig blenden würde. Sollten das sehr viele Menschen so machen, könnte es sogar zu einer gewissen Energieeinsparung führen.

Die Benutzerfeundlichkeit

Die Oberfläche ist so intuitiv zu bedienen, dass sogar meine Schwiegermutter, völlig Computernovize, den Pad nutzt um die Heimatnachrichten online zu lesen. Dabei ist es sehr hilfreich, dass man die Schrift beliebig zoomen kann. Weiterhin ist das Pad so gut im erkennen der Finger, dass die Interaktion gelingt. Mein vierjähriger Sohn hat dem Ding auch schon einen Namen gegeben: Brettcomputer. 

Orientierung 

Eine alte Frage bei Rechnern ist, soll der Monitor hoch oder Querformat haben. Bei der täglichen Nutzung fällt mir auf, dass ich im Internet Hochformat bevorzuge. Allerdings drehe ich oft bei Bildern., Grafik oder Film in das Querformat. Dies ist mit einem Laptop unmöglich. Auch die Haltung des Brettcomputer auf dem angewinkelten Bein ist anders als mit Laptop auf dem "lap". 

Zoom

Ein sehr wichtiger Vorteil ist das einfache zoomen mit zwei Finger. Auf vielen Webseiten ziehe ich den Satzspiegel heran, so dass ich nicht von der ablenkenden Werbung gestört werde. Zudem zoome ich öfter in Grafiken, speziell bei wissenschaftlichen Artikeln im PDF Format.

Blättern oder scrollen 

Eine weitere Frage ist, blättert man besser durch ein langes Dokument oder soll man scrollen? Ich bevorzuge momentan noch das scrollen, das könnte aber auch an der Gewohnheit mit Webseiten liegen. Auf jeden Fall ist es bequemer als in einem Buch zu lesen! Und damit sehe ich für das Papierbuch definitiv das Ende kommen. 

Schreiben 

Zumindest diesen Beitrag habe ich jetzt am Pad geschrieben. Das war nur möglich mit der Software SwiftKey, die sofort errät was man eingeben will und damit erreicht man mit zwei Finger fast 10–Finger Geschwindigkeit, zumindest ich, der kein guter 10–Finger Schreiber ist. 
Alternativ kann man auch diktieren. die Diktierfunktion ist besser als bei früheren Systemen, allerdings fühle ich mich wohler wenn ich tippe. 

Handling 

Die Batterie reicht mühelos den ganzen Tag, Nachts wird immer aufgeladen. Da der nexus 10 nicht wie ein Laptop zugeklappt werden muss kann man ihn einfach weglegen etwa auf das Bücherregal. Nach zwei Minuten geht er bei mir in den Standby-Modus, eine Minute ist zu kurz da geht er manchmal beim Lesen aus. Wiedereinschalten geht in Sekunden, kein Vergleich zum Festplattenrechner. 

Wirklich toll 

Zusammengefasst ist der nexus 10 eine echte Bereicherung, ich hätte nicht gedacht, dass ich so oft das Brett nutze. Also eine echte Innovation

Dienstag, Februar 12, 2013

Die stille Revolution

Tsch Tsch so sagt mein Sohn

Und mit Tsch Tsch ist die Dampflok gemeint, die es eigentlich nicht mehr gibt. Die industrielle Revolution hat uns ein charakteristisches Geräusch hinterlassen, das in unseren Köpfen weiterlebt. Es ist das eigenartige Stöhnen der Maschine.

Brum Brum das Auto

Hundert Jahre später hat das Auto mit seinem Motorgeräusch nur noch Lärm geliefert. Fast jeder wünscht sich diesen Lärm weg, ob das der Elektromobilität gelingt ist aber noch ungewiss. Es gibt sogar Ideen, dass ein Elektroauto gezielt Geräusche verursachen soll, damit man es bemerkt.

Stille Nacht, Stille Solarenergie

Erstaunlicherweise ist die nächste Revolution still!
Noch nie wurde eine Technik entwickelt, die eine derartige Größenordnung wie die Photovoltaik erreicht, 100 GW Solarzellen produzieren heute Strom, die völlig still ist.

Computer kamen mit lauten Festplatten und legendär lauten Lüftern,
Mühlen klapperten am rauschenden Bach,
Windkraftwerke müssen die Lärmschutzverordnung einhalten,
Düsenflugzeuge sind der Inbegriff von Lautstärke geworden, zumindest endet die Lautstärkeskala zumeist dort.

Still und heimlich

Möglicherweise bemerken viele Menschen die Revolution der Photovoltaik nicht, weil sie so Leise erfolgt. Inzwischen gibt es für jeden Erdenbürger 15 Watt Solarzellen, das reicht schon für eine Lesebeleuchtung.

Dankbar für Stille

Ich bin für die neue Stille sehr dankbar, ich bin wirklich froh, dass diese technische Revolution auf leisen Sohlen kommt und es gibt Hoffnung dass das ein Trend wird.
Mein Nexus 10 hat weder einen Lüfter noch eine Festplatte,
Eine LED Lampe surrt nicht wie eine Leuchtstoffröhre,
Das Elektrofahrrad ist leiser als der Fahrer,
Wenn jetzt noch die Motorräder mangels Nachwuchs verschwinden, dann beginnt vielleicht die neue Stille.
Innovationen können geräuschlos kommen. 

Montag, Januar 21, 2013

Lesen macht klug, schreiben klüger

Buch=Lesen

Seit Erfindung des Buchdrucks sind Bücher so billig geworden, dass die Zeit (umgerechnet in Arbeitszeit) ein Buch zu lesen immer teurer ist, als der Preis des Buches. Dadurch, und durch die Einführung günstiger Beleuchtung, haben viele Menschen das Lesen angefangen und damit eine Menge gelernt.
Die Zahl der Bücher ist zwischen dem 15. und 18. Jahrhundert um das Hundertfache gestiegen. (Bild:Wikipedia)
Die Entwicklung der Industriegesellschaft ist wesentlich durch das Lesen angetrieben worden.
Die Menschen haben sicherlich auch das Schreiben gelernt, aber vermutlich nur begrenzt genutzt. Geschrieben haben immer die "Gelehrten", die Autoren der Bücher. Schreiben ist aber ein sehr wertvoller Vorgang, durch die Reflexion beginnt man die Gegenstände besser zu verstehen. Ganz nach dem Motto, das, was ich einem anderem erkläre, habe ich selbst am besten verstanden.

Web 1.0=Lesen 

Mit dem aufkommen des Internets begann der Lesestoff plötzlich eine völlig neue Form anzunehmen.
Es gibt keine letzte Seite mehr, das Internet ist ein unendlicher Lesestoff. Es ist sicher auch eine unendliche Film, Audio und Bilderwelt, aber das ist ein anderes Thema. 
In der ersten Phase des Internets, vielleicht in den ersten 10 Jahren bis 2005, war der Internetnutzer im wesentlichen ein Rezipient der Information. Das lag zum einem an der Mühe, HTML zu lernen und an vielen weiteren Problemen bei der aktiven Internetnutzung auftreten, Stichworte wie FTP, Webserver, Schreibrechte usw., verdeutlichen dies.

Web 2.0=Schreiben und Lesen

Mit dem Web2.0, mit seinen neuen Formen des sozialen Netzes, Wikis, Blogs, Kommentaren, Leserbriefen, Beiträgen aller Art, haben sich viele Nutzer zu Autoren gewandelt. Nicht nur lesend sondern auch schreibend das Internet nutzend.
Die Anzahl der Blogger hat sich in  den fünf Jahren von 2006 bis 2011 um den Faktor 5 vergrößert! (Gefunden auf dem Blog XITE)
Sicherlich sind sehr viele Texte nicht von höchster literarischer Güte, aber das müssen sie nicht sein. Für den Autor ist jede Zeile nützlich, die er schreibt, denn Schreiben macht klüger. Oft auch durch die andere Wahrnehmung, das Abrufen von Wissen und das Zitieren von anderen Quellen.
Letztendlich bin ich der festen Überzeugung, dass das Web2.0 die Menschen weiter bildet, als man auf den ersten Blick vermuten mag. 
Nicht die scheinbar geringe Qualität der Texte ist entscheidend, die Vielzahl der Autoren verändert die Gesellschaft. Damit wird der berühmte Flynn Effekt, das merkwürdige Ansteigen der Intelligenz der Menschen, wieder einen Schub erhalten.
Dies steht sehr im Gegensatz zu der Meinung, die Manfred Spitzer unter dem Stichwort "Digitale Demenz" vertritt.
Ich bin zuversichtlich, dass viele neue Ideen, Innovationen, durch das Web2.0 erst möglich werden.