Sonntag, Januar 16, 2022

Bitcoin Ponzi Schema

Ist Bitcoin ein Ponzi-Schema?

Nach dem Italiener Charles Ponzi wird eine bestimmte Form des Finanzschwindels bezeichnet, der davon lebt, dass jeder weiterer Teilnehmer an die bisherigen Teilnehmer in gewisser Weise Geld zahlt. Es gibt da einige unterschiedliche Definitionen, aber das ist jetzt nicht relevant.

Hier geht es um die Frage, ob Bitcoins eine neue Form des Ponzi-Schemas ist.

Woran erkennt man ein Ponzi-Schema

Da die meisten Nutzer eines Ponzi-Schemas ihr Geld verlieren, ist es notwendig ein solches Schema rechtzeitig zu erkennen. Da aber die Gewinner des Schemas keinerlei Interesse haben, dass jeder das Schema erkennt, wird das Schema immer hervorragend getarnt. Allerdings gibt es auch immer Anzeichen, die sich schlecht verbergen lassen.

Wie dieser Knoten zusammenhängt ist nicht sichtbar.

Suche neuer Teilnehmer


Damit das Ponzi-Schema funktioniert, müssen immer weitere Teilnehmer gefunden werden. Zunächst starten die Geschichten fast immer im Umkreis von Familie und Freunden oder in der eigenen Gruppe, häufig etwa Migrantengruppen. Und es gibt in der Geschichte sehr viele solche Ponzi-Schemata, die eine Weile gelaufen sind. Einen gewissen Überblick schafft das Buch "The Politics of Ponzi Schemes" von Marie Springer (ISBN 0429869797), das auf über tausend Fälle zurückgreift, die in US-Gerichten verhandelt wurden.

Bei Bitcoin wäre die Gruppe durch IT Nerds zu definieren, die sehr früh mit dem Mining von Coins begonnen haben. In dieser Gruppe waren am Anfang die Kosten für das Erzeugen von Bitcoins sehr gering, teilweise unter einem Euro, man bedenke heute werden diese Coins mit Preisen über 50.000 Dollar gehandelt. Allerdings ist das noch lange kein Beweis, dass es sich um ein Ponzi-Schema handelt, denn fast jede Firmengründung startet ähnlich.

Wert des Objekts

Ein weiterer Hinweis ist der intrinsische Wert des Gutes, das der Betrüger behauptet zu verkaufen. Sehr viele Betrugsschemen laufen über Investitionen in Firmen, etwa das größte bekannte Schema, der Fond von Bernie Madoff, dessen Fond am Ende scheinbar einen Wert von über 60 Milliarden Dollar hatte. Die Betrogenen bekamen am Ende nur 17 Cent für jeden Dollar, den sie scheinbar besessen hatten, zurück. Die ersten Investoren, die früh ausgestiegen sind, konnten eine jährliche Wertsteigerung von 15% genießen. 

Preisverlauf Bitcoins, man erkennt Sprünge und Plateaus, das könnte auf Preismanipulation hindeuten. (Quelle https://bitcointicker.co/


Bitcoins haben überhaupt keinen inhärenten Wert, da es sich um reine Spekulationsobjekte handelt. Es ist fast umgekehrt, für die Erzeugung eines Coins müssen viele Megawattstunden Energie verwendet werden, was zu einem erheblichen CO₂ Ausstoß führt. Nur ein winziger Teil, weniger als 2% der Bitcoins, werden für ihre eigentliche Aufgabe, ein Tauschmittel, verwendet. Es gibt daher keinerlei realen Wert für einen Bitcoin.


Die Legende

Hinter jedem Ponzi-Schema seht eine Geschichte, die die Investoren in das Schema glauben müssen. Bei Ponzi ging es zu Beginn um die geschickte Nutzung von Preisdifferenzen bei Briefmarken in verschiedenen Ländern, die zum Teil um den Faktor sechs auseinanderlagen. Madoff war früher der Chef an der Wallstreet und suggerierte, dass er ein ausgezeichnetes Verständnis des Aktienmarktes hatte. Was auch stimmte, wenngleich er kein erfolgreicher Anleger war.

Eine Zukunft ohne elektronische Überweisung mittels Banken?


Die Legende von Bitcoins beruht auf der Behauptung, dass eine dezentrale universelle Währung im Internet besser ist als das Zentralbankgeld. Diese Legende nimmt gleich mehrere Trends auf, zum einen ist das Internet immer noch für viele "Neuland" also ein Land, das eigentlich eine Währung benötigt. Dezentral kommt aus der Umweltbewegung und klingt nach sauber und gesund. Obwohl inzwischen die Erzeugung der Bitcoins in riesigen Rechenzentren keineswegs sauber erfolgt, bleibt die Legende. Dass niemand im Internet, außer einige Kriminelle, damit größeren Zahlungen tätigen liegt nebenbei bemerkt an der schlechten Skalierbarkeit der 19 Millionen "Münzen" die aktuell im Umlauf sind. Ein Zahlprozess benötigt mindestens zehn Minuten. Nicht das, was man benötigt, wenn man schnell am Supermarkt zahlen will, was heute fast immer elektronisch per Bankkarte gelingt.


Vergleich mit "Normalem" Geld

Viele Bitcoin-Jünger weisen an dieser Stelle darauf hin, dass das Zentralbankgeld oder FIAT-Money, ebenfalls eine reine "Luftnummer" ist. Das ist so nicht richtig. Eine Bank kann nur neues Geld schöpfen, wenn dem gegenüber ein Wert steht. Etwa eine Firma will ein neues Gebäude errichten und bekommt einen Kredit. Dieser Kredit wird im Bereich der EZB zu 94% aus neu "gedrucktem" Geld von der Bank ausgegeben. Zumindest, wenn man eine Eigenkapitalquote von 6% bei den Banken annimmt. Es gibt also einen realen Wert, wenn die Halle steht und der Kredit abgezahlt wird, das ist der Grund, dass das Geld geschöpft wird.
Dass die Europäische Zentralbank (EZB) es dabei mit dem Wert des Objekts nicht so genau nimmt, ist ein anderes Problem und wird auch zur Genüge kritisiert (etwa von Prof. Hans-Werner Sinn). So hat die EZB in einem Anleihen-Kaufprogramm etwa 5.000 Milliarden Euro für nicht so besonders werthaltige Staatsanleihen ausgegeben. 
Daraus kann man aber keineswegs folgern, dass Bitcoins werthaltig sind, nur weil sie überhaupt keinen Gegenwert verkörpern.

Mit anderen Worten:
"Bitcoins kombinieren die Unwissenheit der meisten Menschen über die Funktion des Geldes mit der Unwissenheit, die sie bezüglich der theoretischen Informatik haben, die die Blockchain beschreibt."
Dieses Zitat stammt von Morten Bech bei einem TEDx Interview.


Fazit:

Nach der Analyse spricht einiges dafür, dass es sich um ein Ponzi-Schema handelt. Der Beweis kommt natürlich erst, wenn das System kollabiert ist. Ich selbst werde jedenfalls keine digitalen Münzen erwerben. Hinweis: Das ist keine Finanzberatung!

Weitere Beiträge:

Donnerstag, Oktober 07, 2021

Bitcoin und Ethik

Bitcoin und Ethik

 Prof. Dr. Eduard Heindl  

Seit der letzten großen Finanzkrise 2008 geistert eine neue Währung namens Bitcoin durch das Internet. Der ursprünglichen Idee von Satoshi Nakamoto[1]  liegen einige bemerkenswerte Gedanken zugrunde. Eine digitale Währung sollte so sicher und anonym wie Bargeld sein, die Erzeugung der Münzen und der Umlauf sollte auf verteilten Rechnern geschehen und die Regierungen sollten damit keine Inflation erzeugen können.

Auf den ersten Blick eine bestechende Idee, insbesondere wenn man die Nebenwirkungen nicht bedenkt oder wie der Wilhelm Busch Leser sagt, wehe, wehe, wehe! Wenn ich auf das Ende sehe.

In diesem Post möchte ich der Frage nachgehen, ist Bitcoin eine ethisch vertretbare Informationstechnologie oder sollten wir vor den Gefahren warnen, die davon ausgehen.

Eine genaue Erläuterung der Technologie will ich hier nicht geben, aber an den einzelnen Stellen auf Besonderheiten hinweisen, mehr über die Bitcoin-Technik findet sich im Internet, etwa Richard Bradley, “Blockchain … erklärt in weniger als 100 Wörtern”[2].

Ein erstes Problem ist die dezentrale Erzeugung der Bitcoins. Jeder, der einen Computer besitzt, kann im Prinzip Bitcoins erzeugen, allerdings ist die Berechnung derart aufwendig, dass man vermutlich tausend Jahre vor dem Rechner sitzt, bevor die erste Münze klingelt. Ich bleibe bewusst vage, da ganz am Anfang das Erzeugen von Coins wenig Rechenleistung erforderte, wodurch ein Coin auch nicht sonderlich viel wert war, eher so viel wie eine normale Münze, ein Euro etwa.

Energieaufwand

In dem Algorithmus zur Erzeugung von Bitcoins ist auf kluge mathematische Weise ein unendliches Ansteigen des Rechenaufwands eingebaut, sodass die Zahl der möglichen Bitcoins auf etwa 21 Millionen limitiert ist. Das bedeutet mit anderen Worten, die Erzeugung einer neuen Münze erfordert immer mehr Rechenleistung. Große Rechenleistung erfordert große Rechenzentren, große Rechenzentren erfordern viele Spezialchips und sehr viel Energie. Aktuelle Schätzungen, gehen davon aus, dass im Jahr 2021 über 100 Terawattstunden (TWh)[3] für die Erzeugung von Bitcoins verbraucht werden. Das ist etwa ein Viertel des Strombedarfs von Deutschland. Oder in anderen Worten, eine spürbare Verschmutzung der Atmosphäre mit CO2. Sicherlich argumentieren manche, dass für Bitcoins nur Ökostrom zum Einsatz kommt, das ist aber leider nicht so, es kommt der billigste Strom, etwa Kohlestrom aus China oder auf Ölbasis erzeugter Strom aus dem Iran zum Einsatz. Wie groß auch immer der ökologische Fußabdruck ist, er ist groß und er wächst schnell[3].

Chipproduktion

Neben dem Strom benötigt die Bitcoinproduktion absurde Mengen extrem leistungsfähiger Computer-Chips. Aktuell können etwa 200 Exahash pro Sekunde berechnet werden. Um diese Zahl zu verstehen, Exa steht für eine Eins mit 18 Nullen. Ein optimierter Chip kann vielleicht eine Billion (12 Nullen) Hash-Berechnungen pro Sekunde durchführen, also sind für die aktuelle Leistung 200 Millionen Hochleistungsprozessoren nötig. Diese werden in normalen Chipfabriken hergestellt, weil es sich lohnt, allerdings mit der Folge, dass für andere Zwecke, etwa die Elektronik von Autos, kaum Chips zur Verfügung stehen. Aktuell können etwa 11 Millionen Autos nicht produziert werden, weil es einen Mangel an Chips gibt. Die tatsächlichen Zusammenhänge mögen komplizierter sein, jedoch ist die Umlenkung der Chipproduktion von “sinnvollen” auf “sinnfreie” Anwendungen zumindest fragwürdig.

Doch all diese Probleme sind vermutlich klein, gegenüber den wirtschaftlichen Folgen der Bitcoin-Anwendung.

Erpressungen

Das Problem der illegalen Zahlung mit Bitcoins sticht dabei hervor. Neben vielen bekannten kriminellen Märkten, etwa Drogen und Waffen, hat der Bitcoin eine völlig neue Form der Erpressung ermöglicht. Bisher war das Schreiben von Computerviren eher ein Hobby von Computerexperten oder von Geheimdiensten. Der Schaden war überschaubar oder sogar legitimiert. Doch jetzt komm eine völlig neue Qualität ins Spiel. Gelingt es einem Virusentwickler, einen Virus zu verteilen, der die Daten einer Firma verschlüsselt, dann ist die Firma im Digitalzeitalter praktisch handlungsunfähig. Das bedeutet, die Firma spürt, dass die Daten, die sie besessen hat, sehr wertvoll waren. Jetzt kann ein Erpresser eine hohe Summe verlangen, wenn er die Daten wieder herstellt, also entschlüsselt. Doch war bisher die Zahlung an einen Erpresser für den Erpresser sehr riskant und selbst derart gerissene Kriminelle, wie der unter dem Decknamen Dagobert operierende Erpresser, wurden letztendlich gefasst.

Da Bitcoins aber derart anonym sind wie Bargeld, das uns nichts über seine Herkunft sagt, kann der Erpresser seine Forderung in Form von Bitcoins stellen, die dann digital auf ein anonymes Konto transferiert werden.

Da dieses Geschäft für den Erpresser fast ungefährlich und äußerst lukrativ ist, werden vermutlich Milliardenumsätze in diesem Markt gemacht. Genaue Zahlen sind nicht bekannt, da keine Firma gerne in der Presse ihren Namen im Zusammenhang mit Erpressung sehen will. Dem Autor sind aus persönlichen Quellen aber Umsätze in Millionenhöhe bekannt und der Autor kennt mit Sicherheit nur einen winzigen Bruchteil der Fälle.

Kettenbrief

Doch damit nicht genug, Bitcoin ist nichts anderes als der ultimative digitale Kettenbrief. Ein Kettenbrief beruht darauf, dass man mit einem kleinen Einsatz, den man an den Absender des Briefs zahlt, die Chance hat, dass man andere “Dumme” findet, die dem Absender Geld überweisen. Bei Bitcoin ist die Mechanik ähnlich, die ersten Bitcoins waren wenig wert, aber durch eine wundervolle Geschichte über das Bitcoin, das in Zukunft die Weltwährung werden soll, fanden sich Menschen, die die Bitcoins zu einem höheren Preis gekauft haben, und der Handel geht weiter, ähnlich wie bei den holländischen Tulpenzwiebeln 1637. Eine Zwiebel wurde für den Wert eines Hauses gehandelt. Doch am 7. Februar 1637 platzte die Blase, keiner war mehr bereit solch aberwitzigen Beträge für Tulpenzwiebeln zu zahlen.

Genau das wird mit Bitcoins, die nichts anderes sind, als eine längere Zahl in irgendeinem Computernetz sind, auch geschehen, da ihr Wert sogar noch kleiner als der einer Tulpenzwiebel ist.

Dann werden all jene, die am Ende der Käuferkette sind, das sind in diesem Spiel immer die Unbedarften, die das Spiel nicht durchschauen, mit anderen Worten, die “Dummen”, die Rechnung derjenigen gezahlt haben, die inzwischen mit ihren reichlichen Erlösen aus dem Bitcoinverkauf an Dumme, ihre Villen und Grundstücke genießen.

Wir reden hier nicht von kleinen Summen, aktuell sind alle Bitcoins, abhängig vom aktuellen Kurs, etwa 1000.000.000.000 € (Tausend Milliarden €) wert.

Fazit

All dies, die Energieverschwendung und CO₂ Belastung, der Chipmangel und damit die Störung der modernen Industrie sowie die Wirkung als Enabler einer neuen kriminellen Branche und nicht zuletzt die Umverteilung von Geld von Unten (Dumme) nach Oben (Frühe Bitcoin Nutzer) ist für mich zutiefst unmoralisch. Das bedeutet, jeder sollte die Finger von dieser Form der Nutzung von Informationstechnik lassen. Ob der Staat eingreifen soll und kann, ist wesentlich schwieriger einzuschätzen, da nicht klar ist, wie das genau erfolgen sollte.

Zum Weiterlesen:

Blogchain und Bitcoin

Quellen:

[1] https://bitcoin.org/bitcoin.pdf

[2] https://www2.deloitte.com/ch/de/pages/strategy-operations/articles/blockchain-explained.html

[3] https://cbeci.org/ 

Mittwoch, Oktober 14, 2020

Künstliche Intelligenz, erster Sieg

Der Übersetzungscomputer 

Eine der ältesten Ideen im Bereich der künstlichen Intelligenz und bei der Nutzung von Computern besteht darin ein Programm zu schreiben, dass es ermöglicht Texte von einer Sprache in eine andere zu übersetzen. Bereits in den 50er-Jahren wurde in den USA versucht, dieses Problem zu lösen, was sich allerdings als äußerst hartnäckig herausgestellt hat.

Interessanterweise kann man eben nicht einfach ein Lexikon oder ein Wörterbuch nehmen und von einer Sprache Wort für Wort in eine andere Sprache übersetzen. Es genügt noch nicht einmal die Grammatik richtig zu implementieren, nein es muss der Sinnzusammenhang im Groben verstanden werden, andernfalls sind viele Worte einfach nicht eindeutig zu übersetzen. 

Aufgabe für Linguisten

Die Entwicklung von Übersetzungsprogramme wurde in den 90er-Jahren intensiviert und viele Linguisten haben versucht dort weiterzukommen. Der Bedarf für Übersetzungsprogramme wächst natürlich in einer globalisierten Welt enorm und so ist es nicht verwunderlich, dass die Unternehmen viele Millionen ausgegeben haben, um geeignete Programme zu entwickeln. 

Doch soviel auch investiert wurde die Ergebnisse waren enttäuschend. Sicherlich können einige einfache Sätze übersetzt werden aber jeder der die berühmte Übersetzung einer chinesischen Bedienungsanleitung gelesen hat, die maschinell oder offensichtlich maschinell, übersetzt wurde, kann sagen, das Problem ist nicht gelöst.

Mit künstlichen neuronalen Netzen geht es

Interessanterweise hat sich das aber in den letzten zwei Jahren grundlegend geändert! Mit dem Aufkommen des Programms DeepL, ein Übersetzungsprogramm, das auf der Basis eines neuronalen Netzes arbeitet, und mit dem Programm GPT-3, das sehr allgemeines Textverständnis erreicht, ist es heute möglich, nahezu perfekt zu übersetzen. Sicherlich, nach einigen hundert Wörtern wird man immer wieder eine Stelle finden die ein professioneller Übersetzer geschickter umgesetzt hätte, aber die Qualität ist auf einer ganz anderen Ebene, als wir noch vor zehn Jahren gewohnt waren. 

Warum ist das so entscheidend?

Das Interessante ist, dass die künstliche Intelligenz, oder generell die Computer, lange den Menschen völlig unterlegen war. Doch das ändert sich im Moment fundamental, es gelang 1997 erstmals mit einem Schachprogramm einen Menschen zu besiegen. Dies gelang allerdings durch ein Schachprogramm, das einfach auf klassische Algorithmen und enorme Rechenpower basierte (Deep Blue). 

Im Jahr 2016 gelang es erstmals mit einem künstlichen neuronalen Netz den Go-Weltmeister zu besiegen. Doch man kann immer damit argumentieren, dass Spiele, insbesondere Brettspiele, doch ein sehr abgeschlossenes Universum sind, das nicht die Qualität eines Computers ermessen kann. 

Insbesondere eben sind es keine System in "the wild" also in der Realität und damit Systeme, die dem Menschen gleichzusetzen sind. 

Wenn es um intellektuelle Leistungen geht, haben wir immer durch unsere Fähigkeiten, logisch zu denken, mathematisch zu operieren und Programme zu schreiben, Probleme gelöst!

Ob es um den Mondflug geht oder um die Analyse komplexer Steuerungsprozesse. Auch das Verständnis des Universums in der Physik ist uns ohne künstliche Intelligenz gelungen!

Das Problem der Übersetzung

Jetzt stehen wir an der Schwelle, in der erstmals ein extrem komplexes Problem nicht mehr vom Menschen gelöst wurde und das ist das Problem der Übersetzung. Es ist dem Menschen nicht gelungen, trotz aufwendiger Untersuchungen, Analysen und umfangreicher Ressourcen, ein stabiles, sinnvolles Übersetzungsprogramm zu schreiben. 

Ganz anders die Anwendung künstliche Intelligenz. Interessanterweise hat sich das in den letzten zwei Jahren grundlegend geändert mit dem Aufkommen des Programms DeepL ein Übersetzungsprogramm, das auf der Basis eines neuronal Netzes arbeitet und mit dem Programm GPT 3 das sehr allgemeines Textverständnis erreicht hat. Es ist heute damit möglich, nahezu perfekt zu übersetzen, sicherlich nach einigen 100 Worten wird man immer wieder eine Stelle finden, die ein professionellen Übersetzer geschickter umgesetzt hätte, aber die Qualität ist von einer ganz andere Qualität, als wir sie noch vor zehn Jahren gewohnt waren. 

Fazit

Der Erfolg bei der maschinellen Übersetzung ist nicht der Fähigkeit des Menschen zur Problemlösung zuzuschreiben. Es ist zwar richtig, dass das Neuronale Netz vom Menschen programmiert wurde, genau so wie ein Flugzeug auch von Menschen gebaut wurde, aber der Mensch kann kein Übersetzungsprogramm programmieren, genauso wenig, wie er fliegen kann.

Übersetzten ist nur ein kleiner Schritt auf dem Weg zur allgemeinen künstlichen Intelligenz, aber er ist der Erste, und daher finde ich es so wichtig diesen Schritt ernst zu nehmen.

Sonntag, August 30, 2020

KI next level

Künstliche Intelligenz mit GPT-3

In Deutschland wird das KI-System GPT-3 kaum wahrgenommen, doch erscheint es mir als der wichtigste Durchbruch in den letzten 10 Jahren im KI Bereich. Warum das so ist, will ich in diesem Blog-Post erläutern.

Massive Rechenleistung für das Training bringt außergewöhnliche Resultate! [1]

Was ist GPT-3

Generative Pretrained Transformer Version 3 (GPT-3) ist ein künstliches neuronales Netz der Stiftung OpenAI in San Francisco, das mit "allen" Daten der Welt trainiert wurde und danach erstaunliche Fähigkeiten zeigt. Aber der Reihe nach.

Transformer beschreibt eine bestimmte Weise, in der künstliche neuronale Netze arbeiten. Dabei wird ein entscheidender Trick verwendet, der es ermöglicht, sehr große Datenmengen für das Training zu verwenden. Während des Trainings besteht die Aufgabe das nächste Element zu erraten, etwa in einem Text das nächste Wort. Diese Fähigkeit kennen wir schon ein bisschen von verschiedenen Schreibhilfen. Man tippt und der Rechner schlägt das nächste Wort vor.

Im aktuellen System GPT-3 wird das auf die Spitze getrieben, das System wurde mit dem Inhalt des Internets, der Enzyklopädie Wikipedia und sehr vielen Büchern trainiert. Damit das System eine Chance hat, das Wissen dieses enormen Corpus aufzunehmen, hat man dem System 175 Milliarden freie Variable, das sind die Gewichte in dem neuronalen Netz, spendiert. Damit das Training erfolgreich ist, wurden die Texte immer wieder "Vorgelesen" und das System hat insgesamt 10E23 Rechenoperationen durchgeführt. Dafür würde ein normaler Laptop bis ans Ende der Zeit rechnen, aber man hat heute extrem leistungsfähige Prozessoren (10.000 mal V100 GPU mit je 40.000 Rechenkernen von Nvidia) die das in einigen Wochen bewältigen. Das reine Training hat immerhin noch 4,6 Millionen Dollar gekostet, also nichts für den Privatbereich.

Interessant ist an dem Trainingsansatz, dass es sehr dem menschlichen Lernen als Kind ähnelt. So schaut ein Kind in der Gegend umher, die Sehzellen haben die einzige Chance zu lernen, indem sie  erraten, was als Nächstes in der Sehzelle auftaucht, wenn sie die Umgebungszellen berücksichtigen. Aber auch der Spracherwerb nutzt vermutlich intensiv den Text der Eltern und das Kind versucht zu erraten, was das nächste Wort sein wird. Das Konzept ist auch biologisch sehr plausibel, weil es keinen externen Lehrer benötigt, der falsch und richtig vorgibt. Nebenbei, wie bei Kindern wurde erst mit wenigen Worten begonnen und erst mit der Zeit wurde der gesamte Text für das Training genommen.

Nach dem erfolgreichen Training kann man dem System jetzt einen Text vorgeben und es findet das nächste Wort. HaHa, das wäre nun wirklich nicht einen Blogbeitrag wert.
Spannend wird es, wenn man das System weiter schreiben lässt, dann entsteht ein neuer Text, der sinnvoll klingt und es auch meist ist. Genau an dieser Stelle muss man sich das System genauer ansehen.

Was GPT-3 schon kann

Um die Fähigkeiten des Systems zu beurteilen, kann man zunächst die berichteten Resultate aus dem Paper der Forscher [1] betrachten.
Es gibt vom MIT eine große Datenbank für Textverständnis, CoQA, die 127.000 Fragen zu unterschiedlichen Texten enthält. Dem System wurden die Fragen vorgelegt und in 80% der Fälle war die Antwort richtig! Ein Mensch schafft 90%.
Je mehr freie Parameter, umso besser kann ein System einen Text verstehen. (Quelle: [1])

Betrachtet man die Kurve, in der die Genauigkeit in Abhängigkeit verschieden großer neuronaler Netze aufgetragen ist, dann sieht man einen stetigen Zusammenhang. Je größer die Zahl der freien Parameter ist, also umso größer das Netz ist, umso besser ist die Genauigkeit (Accuracy). Allerdings steigt die Qualität nicht linear an, sondern ähnlich wie der Logarithmus. Das bedeutet, will man die Fähigkeit des Menschen erreichen, muss das Netz nochmals 1000 mal größer sein. Bisher hat es 1,75E11 Parameter, für menschliche Genauigkeit wären, falls die Extrapolation gilt, 1,75E14 Parameter nötig. Interessant ist an dieser Stelle, das Gehirn hat 8,8E10 Neuronen und ca. 8,8E14 Synapsen. Die Synapsen sind die freien Parameter im Gehirn und diese können beim Menschen trainiert werden. Die verblüffende Ähnlichkeit, gleiche Größenordnung der beiden Werte, ist bemerkenswert. Sie sagt aus, wenn man ein Netz der Größe des menschlichen Gehirns bauen würde, wäre es ebenso gut im Textverständnis wie der Mensch!

 Dem Netz wurden aber nicht nur endlos Fragen zu Texten vorgelegt, sondern auch einige andere Aufgaben, bei denen man zunächst nicht erwarten würde, dass das System gute Antworten liefert. Etwa der Term:
48 + 74 =

Hätten Sie gleich die Antwort parat gehabt? Das System kann die Addition und Subtraktion von Zahlen mit zwei Stellen sehr gut!

Das System kann die Addition und Subtraktion von zweistelligen Zahlen fast perfekt, ein großer unterschied zu kleineren Systemen mit weniger Freiheitsgraden. (Quelle [1])

Warum ist das bemerkenswert? Jeder Taschenrechner kann doch so eine Rechnung durchführen. Das System hat aber nie explizit gelernt, wie die Addition funktioniert. Und genau das ist jetzt das entscheidende, das System hat die Fähigkeit erworben derartige Rechnungen zu erkennen durchzuführen und die Antwort auszugeben, ohne dass jemals jemand dem System dies erklärt hat oder das programmiert hat! Das System hat nur sehr viel gelesen, sicherlich auch viele Zahlentabellen und darunter waren sicherlich auch Additionen. Die Kunst ist aber, dass das System genau bei der Frage 48 + 74 = auf das Wissen zurückgreifen kann, was nebenbei bemerkt, nicht jeder Mensch kann. 

Andere Forscher haben daraufhin noch ungewöhnlichere Aufgaben an das System gestellt, etwa die beliebten Fragen aus dem IQ Test: 

Image for post
Ein Beispiel für logisches Folgern [2]

Zugegeben, das ist nicht die schwierigste Aufgabe in einen IQ-Test, aber es erfordert viel mehr Hintergrund als man denkt. Und nochmals, das System hat nur viele Bücher gelesen und offensichtlich verstanden, andernfalls würde es die Frage nicht verstehen. Das System hat wirklich Wissen, denn es kann abstrakte Konzepte nutzen.
Es ist nun leicht, das System zu kritisieren und festzustellen, dass es Aufgaben gibt, die es nicht sicher oder nicht sinnvoll beantwortet. Wer aber jemals Kinder großgezogen hat oder Schüler und Studenten unterrichtet hat, der weiß, dass Lernen schwer ist und Menschen auch oft erstaunliche Fehler machen. 

Für mich ist das entscheidende, was das System bereits kann, das ist viel mehr, als ich jemals bei einem System gesehen habe. Andere Systeme sind zwar oft auf eine Aufgabe optimiert, siehe Taschenrechner, aber scheitern völlig, sobald man das Thema wechselt. Und das Thema wurde bei den Untersuchungen oft gewechselt, so kann das System auch Programmcode erzeugen, wenn man etwa frägt, wie kann ich die Buchstaben mit Java umsortieren, wer war vor Jefferson in den USA Präsident oder was ist schwerer, eine Maus oder ein Elefant und warum haben Tiere keine drei Beine.

Es kann aber auch Gedichte im Stil von Shakespeare schreiben, Nachrichtenmeldungen oder einfach ein Märchen, selbst Texte übersetzen gelingt gut.

Wie GPT-3 Wissen erwirbt

Der entscheidende Punkt beim Wissenserwerb im GPT-3 System ist das automatische Lernen. Niemand versucht das System auf Antworten zu trainieren, noch nicht einmal wurde erklärt was eine Frage und eine Antwort ist!

Das Training dieses Systems beruht auf dem automatischen Training von Transformern. Das sind riesige neuronale Netze mit ungewöhnlich vielen Schichten. In meiner Doktorarbeit hatte ich nur zwei verdeckte Schichten verwendet, um bestimmte Bilder zu analysieren, in GPT-3 sind es 96 Schichten. Hatte ich es 1993 mit weniger als 1000 Gewichten in meinem Netz zu tun, so verwendet GPT-3 über 175 Milliarden Gewichte für die Berechnung (Meine Festplatte hatte damals weniger als 1 GB, schon das Abspeichern wäre unmöglich gewesen). Dass dies möglich ist, ist zu einem großen Teil der exponentiellen Entwicklung der Rechnerleistung zu verdanken.

Es ist schon länger bekannt, dass die inneren Schichten in neuronalen Netzen Abstraktionen vornehmen. Typischerweise findet man Eigenwerte von Problemen oder kompakte Codierung in diesen Schichten. Trainiert man etwa ein Netz mit Zahlen und vermindert die inneren Schichten, findet das System optimale Codierungen für Zahlen.

Bei der Untersuchung von Transformern sieht man, dass in den inneren Schichten ähnliches geschieht. So gibt es eine Untersuchung zu Bildern, die mit GPD verarbeitet wurden, die zeigt, dass in den inneren Schichten offensichtlich Objekte abgespeichert sind.


In welchen Schichten steht das Wissen, offensichtlich in den inneren Schichten. [3]

Und das ist genau das, was wir auch im Gehirn vermuten, auf der Seite der Sinnesorgane, etwa im Sehzentrum, werden zunächst einfache Eigenschaften wie Kannten und Formen erkannt und in tieferen Schichten dann wohl die Objekte unserer Erfahrung. Wollen wir das ausdrücken, findet die Wortbildung im Sprachzentrum statt und die Phonembildung auf der Ausgangsseite im Kleinhirn, welches die passenden Muskeln aktiviert. 

Während des Trainings bilden sich in den ersten Schichten Eigenwerte für grundlegende Sprachelemente, etwa Verben, Beugungen, usw. in den tieferen Schichten werden vermutlich Zusammenhänge abgelegt, wie Eigenschaften von Tieren, Programmier- und Rechenregeln. Erst auf der Ausgangsseite findet dann sozusagen eine Art Rückabwicklung statt. Die Lösungsidee wird in Worte formuliert, um dann syntaktisch korrekt ausgegeben zu werden.

Beispieltext von GPT-3

Is greek the origin of philosphie (Das war meine Frage an das System GPT-3)

Und hier die Antwort:

"Greece is the birthplace of philosophy. The very word 'philosophy' comes from Greek words, which means to love wisdom.
Furthermore, the great many of the early philosophers were not just from Greece but also ancient Greek colonies in modern day Turkey. So it makes sense that philosophy came to fruition as a result of Greek thinkers.
However, it is important to note that Egypt was the first civilization in the world. By around 3000 BC, the ancient Egyptians had developed a writing system and an advanced legal system.
Egyptian philosophers were actually the first to develop a formal study of philosophy, and they also developed huge libraries.
So it is fair to say that Egypt was the birthplace of philosophy, and Greece was the cradle. I would also argue that India may also be a candidate for being the birthplace of philosophy, as many Indian philosophers like Buddha were exceptionally wise.
Also, philosophy is not necessarily an exclusively Western practice. As mentioned previously, ancient Greece was a colony of Phoenicia (modern day Lebanon). The Phoenicians were from the Levant, and also had a large influence on Greek culture."

Hier die deutsche Übersetzung mit Deepl:
"Griechenland ist der Geburtsort der Philosophie. Das Wort "Philosophie" selbst kommt von griechischen Wörtern, was soviel bedeutet wie "die Weisheit lieben".
Darüber hinaus stammten viele der frühen Philosophen nicht nur aus Griechenland, sondern auch aus den antiken griechischen Kolonien in der heutigen Türkei. Es macht also Sinn, dass die Philosophie durch die griechischen Denker entstanden ist.
Es ist jedoch wichtig, darauf hinzuweisen, dass Ägypten die erste Zivilisation der Welt war. Um 3000 v. Chr. hatten die alten Ägypter ein Schriftsystem und ein fortschrittliches Rechtssystem entwickelt.
Die ägyptischen Philosophen waren tatsächlich die ersten, die ein formales Studium der Philosophie entwickelten, und sie entwickelten auch riesige Bibliotheken.
Man kann also mit Fug und Recht behaupten, dass Ägypten die Geburtsstätte der Philosophie war, und Griechenland war die Wiege der Philosophie. Ich würde auch argumentieren, dass auch Indien ein Kandidat für die Geburtsstätte der Philosophie sein könnte, da viele indische Philosophen wie Buddha außergewöhnlich weise waren.
Außerdem ist Philosophie nicht unbedingt eine ausschließlich westliche Praxis. Wie bereits erwähnt, war das antike Griechenland eine Kolonie von Phönizien (dem heutigen Libanon). Die Phönizier stammten aus der Levante und hatten ebenfalls einen großen Einfluss auf die griechische Kultur."

Fazit

Die allgemeine künstliche Intelligenz ist näher als viele denken. 

Die Experimente von OpenAI, die bewusst ausloten, wie schwer es ist, eine allgemeine künstliche Intelligenz zu schaffen, zeigen, dass das Potenzial des neutralen Trainings mit riesigen Datenmengen sehr groß ist.  Insbesondere die stetige Zunahme der Leistung der Systeme mit der Anzahl an Variablen und Lernaufwand deuten darauf hin, dass es dabei keine Beschränkung nach oben gibt. Aktuell ist die Beschränkung rein durch materielle Limits gegeben, wenn jemand mehrere Milliarden investieren würde, um ein System zusätzlich mit Audio und Videomaterial zu füttern, kann es leicht sein, dass wir bereits heute in der Lage sind artificial general intelligenz (agi), wie es im englischen heißt, zu erzeugen!
Einen gewissen Optimismus bezüglich Missbrauch kann man insofern haben, als es noch sehr teuer ist, eine agi zu entwickeln, somit nicht von Jedermann hergestellt werden kann. Das kann sich aber rasch ändern, ich vermute, dass die Rechenleistung, die aktuell für das Mining von Bitcoins verwendet wird, genügen würde eine agi zu erzeugen. 

Unklar bleibt, wie groß der Nutzen oder die Gefahr ist, die von einem derartigen System ausgeht. Aktuell erscheint es so, dass es sehr nützlich ist, ein System zu haben, das Fragen kompetent in normaler Sprache beantwortet. Die Gefahr besteht natürlich, dass wir nicht mehr erkennen, was ein von Menschen und was ein vom Computer geschriebener Text ist. Bei GPT-3 liegt die Erkennungsrate von Nachrichtentexten für Menschen nur noch bei 52%, also erschreckend niedrig!

Wichtig ist jedenfalls, dass jeder die Entwicklung aufmerksam verfolgt. Ich werde im Blog weiter berichten.

Und was meine die Maschine GPT-3 dazu?
Hier kann man es ausprobieren: https://philosopherai.com/

Mehr zum Thema

  • Künstliche Intelligenz (KI), mein Beitrag von 2017. in dem ich bereits vorhersage, dass Nvidia die dazu relevanten Prozessoren liefert und dass viele Daten relevant werden

Quellen:

[1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, et.al. Language Models are Few-Shot Learners 2020.
[2] Melanie Mitchell, Can GPT-3 Make Analogies?
[3] OpenAI, Image GPT