Gehen 5 Prozent der jährlichen globalen Chip-Produktion ins Mining? Und sind bereits heute Gigabyte-Blöcke möglich?

Stanford, Universität. Bild von Jun Seita via flickr.com. Lizenz: Creative Commons

Am vergangenen Wochenende fand der vierte Scaling Bitcoin Workshop in Stanford statt. Wir schauen uns zwei der zahlreichen Präsentationen an. Bei der einen geht es darum, wie Mining und Skalierbarkeit zusammenhängen, bei der anderen um die steile Behauptung, dass Bitcoin schon jetzt sehr sehr große Blöcke verarbeiten kann.

Der Scaling Bitcoin Workshop dürfte ohne Zweifel die Bitcoin-Konferenz mit dem meisten technischen Tiefgang sein. Ausstellungen von Unternehmen sind nicht gestattet, die Konferenz richtet sich an die wissenschaftliche Community, die frei von Business und Politik diskutieren soll, wie man Bitcoin skaliert.

Dieses Mal fand die um die Welt wandernde Konferenz in Stanford, Kalifornien, statt. Die 25 Präsentationen sind jedoch per Live-Stream und Videoaufzeichnung für die ganze Welt verfügbar.

Coindesk beschreibt die Konferenz mit dem Titel “Alles war möglich, nur kein 2x”. Anders als beim letzten Workshop in Mailand waren Themen wie Onchain-Scaling und Hardforks kein Tabu mehr. Lediglich über die anstehende 2x-Hardfork wurde nicht geredet. Gleichzeitig nahmen, wie in Mailand, die Themen Offchain-Skalierung und Privacy einen großen Raum ein. Neu ist, dass sich der diesjährige Scaling Bitcoin Workshop auch dem Thema Mining zuwandte.

Auf der Webseite des Workshops findet ihr die 25 Präsentationen. Für jeden, der sich ein wenig tiefer in das Thema Bitcoin eindenken und mehr über den aktuellsten Stand der Forschung erfahren möchte, sind diese Präsentation eine Goldmine. Wenn ihr einen Abend Zeit und Lust auf Bitcoin-Wissenschaft habt – schaut euch ein paar Vorträge an. Ob Lightning oder andere Payment-Channels, Confidential Transactions, Mining, Hardforks, Smart Contracts, Atomic Swaps, Block Propagierung oder mehr – es wird sich lohnen.

Ich habe zwei Vorträge ausgesucht, um sie euch vorzustellen. Die Auswahl ist zwingend unzureichend und subjektiv; besser ihr schaut euch selbst den Vortrag an, der euch am meisten interessiert.

5 Prozent der globalen Chip-Produktion geht ins Mining – werden 5 Milliarden Dollar im Jahr verschwendet?

Interessant fand ich die Präsentation von Chen Min. Min ist die Chip-Architektin von Canaan. Die chinesische Firma hat unter dem damaligen Namen Avalon als eine der ersten Asic-Miner hergestellt.

Min erörtert Ideen, wie Blockchain Hardware, das Protokoll und die Skalierbarkeit zusammenhängen. “Die Regeln bei Bitcoin sind sehr klar. Mining wird belohnt, und es gibt ein 1MB Limit. Das führt dazu, dass Bitcoin extrem sicher ist, aber wenig Performance hat.” Min reagiert mit ihrer Präsentation auch auf die gelegentlich erhobenen Vorwürfe an die Miner, sie würden Bitcoin angreifen. Gibt es Anreize im Protokoll, die die Miner effektiv zu Angreifern machen? Kann man dies besser machen?

Ihr Ausgangspunkt ist ökonomisch: Im Jahr werden derzeit 5 Milliarden Dollar ins Mining investiert, was etwa 5 Prozent der jährlichen, globalen Produktion von Computerchips darstellt. Das darf man sich auf der Zunge zergehen lassen.

“Denkt darüber nach: 5 Milliarden sind eine Menge. Wenn wir das in Netzwerk-Bandbreite investieren würden, oder in Speichersysteme, um Bitcoin zu skalieren, würde es weit reichen. Die Blocksize ist heute 1MB. Wenn wir 5 Milliarden investieren würden, um das Netzwerk zu verbessern, könnten wir 1 Terrabyte Blöcke prozessieren, oder mit 10 Milliarden Transaktionen je Sekunde arbeiten.”

Aber was passiert? Die 5 Milliarden im Jahr gehen dafür raus, dass Miner Berge von Asic-Chips in Lagerhallen anhäufen. Dank des Pool-Minings prozessieren die Miner dabei nicht einmal mehr Transaktionen. “Wir verschwenden Geld. Unser Investment ins Mining verbessert nicht die Performance des Systems,” stellt Min fest. Ist Hardware und das Mining daher ein Angriff? Saugt es Ressourcen aus dem System, ohne sie dafür zu verwenden, dasselbe zu stärken?

“Hardware ist kein Angreifer und kann es nicht sein. Hardware wird durch das Protokoll definiert. Wenn wir Hardware als etwas Beitragendes definieren, kann es das sein, aber wenn wir es als Angreifer designen, kann es nur ein Angreifer sein.” Min erinnert an die Firmen, die vor etwa 20 Jahren damit begonnen haben, Glasfaserkabeln zu legen. Sie bekamen damit eine enorme Macht – aber sie bieten etwas: Performance für Telefon- und Internetleitungen. Ein gutes Protokoll macht es profitabler, etwas beizutragen, als anzugreifen.

Eigentlich war dies auch die Idee von Bitcoin. Nodes erhalten eine Belohnung für ihre Arbeit für das Netzwerk. Dies gilt weiterhin. Die Hashrate sichert das Netzwerk. Aber sie trägt nicht genug zur Performance bei. Dank des Pool-Mining halten sich viele Miner komplett aus dem Prozessieren von Transaktionen heraus, und zum Teil arbeiten die Anreize gegen das System: Es lohnt sich, leere Blöcke zu minen, und es ist für Miner profitabel, am 1MB Limit festzuhalten, um die Gebühren hochzuschaukeln. Gleichzeitig übernehmen die Nodes wichtige Arbeiten für das Netzwerk, ohne dafür bezahlt zu werden.

In diesen Anreizen, so Min, liegt der Schlüssel, um langfristig zu skalieren. Sie schlägt vor, einen “Proof of Contribution” zu entwickeln, der Akteure dafür belohnt, Blockchains zu skalieren. Wie genau das gehen soll, erklärt Min aber nicht. Sie sagt etwas von Smart Contracts, bleibt ansonsten aber vage.

Das Gigablock-Testnet

Peter Rizun

Die Präsentation von Peter Rizun und Andrew Stone von Bitcoin Unlimited war für mich interessant, weil sie an einem Paradoxon ansetzt, über das ich mich schon eine Zeitlang wundere.

Wir diskutieren und zanken seit mehr als zwei Jahren über die Scalability. Es werden dutzende Gründe genannt, weshalb “Bitcoin nicht skaliert”, und es wird angemahnt, mehr Wissenschaft zu betreiben. Gleichzeitig ist die tatsächliche Scalability eines der am wenigsten erforschten Themen. Es gibt tausende von Papers zu Bitcoin. Zahlreiche widmen sich der Privacy oder Offchain-Konstruktionen. Aber wenn es darum geht, wie hoch die tatsächliche Kapazität von Bitcoin ist, verweist man immer wieder auf ein einziges Paper, das Anfang 2016 veröffentlicht wurde – On Scaling Decentralized Blockchains.  Dieses Paper geht von der Hardware von 2015 aus, und es schätzt lediglich die Kapazität, liefert aber keine empirischen Experimente.

Peter Rizun und Andrew Stone stellen nun die womöglich ersten Experimente zu diesem Thema vor. Wie weit kann man onchain skalieren? “Viele Leute wollen das Blocksize Limit erhöhen, fürchten aber, dass Bitcoin dadurch wichtige Eigenschaften verliert,” leitet Rizun ein. Er meint aber, dass Bitcoin “designt ist, um weit zu skalieren. Die Technologie für massives Skalieren ist vorhanden.”

Wie weit muss Bitcoin skalieren? Theoretisch kann man annehmen, dass 4 Milliarden Erdenbürger am Tag eine Transaktion machen. Dies liefe auf 50.000 Transaktionen je Sekunde hinaus. “Wir wollten das testen, mit einem globalen Netzwerk von Nodes mit Standard-Software. Das ist das Gigablock-Testnet.” Die Nodes liefen auf CPUs mit 4 Kernen, 16 Gigabyte Arbeitsspeicher und SSD-Festplatten. Gute Geräte, aber auch nichts ungewöhnliches. 4-6 Miner haben Blöcke gebildet, 12 Nodes haben mit Python-Skripten Transaktionen erzeugt und im Netzwerk verteilt.

Während der letzten beiden Monate haben Rizun und Stone mit anderen Bitcoin Unlimited Entwicklern sowie Forschern der Britisch University of Columbia die Anzahl der Transaktionen so weit wie möglich hochgeschraubt. Sie begannen mit einer Transaktion je Sekunde und gingen auf bis zu 500 hoch. “Der MemPool kam mit den Transaktionen mit, bis wir 100 Transaktionen je Sekunde erreicht haben.” Etwa ab dieser Quote waren die Pools der unbestätigten Transaktionen, die die Nodes im Speicher halten, nicht mehr kohärent. Der eine hatte diese, der andere jene. “Wir haben den ersten Flaschenhals entdeckt.”

Der Grund lag, so Rizun, nicht in der CPU. Diese war selbst bei 100 Transaktionen je Sekunde nur zu 25 Prozent ausgelastet. “Der Flaschenhals lag vielmehr darin, dass der Codepfad des Eingangs von Transaktionen in den MemPool mit einem einzigen Thread geführt wird,” so Rizun, “Andrew Stone hat diesen Code parallelisiert. Als wir es nochmals getestet haben, war die Rate sehr gut.”

Den nächsten Flaschenhals entdeckten sie bei etwa 500 Transaktionen je Sekunde. Ab hier wird die Ausstrahlung der Blöcke zum Problem, da sie genau so lange braucht, wie der Block selbst. Mit Xthin Block Propagation liegt das Limit dann ungefähr bei Blöcken mit einer Größe von 1 Gigabyte.

Rizun räumt allerdings ein, dass sie keine Festplatten- und UTXO-Tests gemacht haben. Es könnte sein, dass, gerade bei kontinuierlicher Auslastung, die Flaschenhälse deutlich tiefer liegen. Dies wollen die Entwickler in zukünftigen Tests erkunden.

About Christoph Bergmann (1136 Articles)
Das Bitcoinblog wird von bitcoin.de gesponsort, ist inhaltlich aber unabhängig und gibt die Meinung des Redakteurs Christoph Bergmann wieder. Wenn Ihnen das Blog gefällt, freuen wir uns über Spenden an 1BvayiASVCmGmg4WUJmyRHoNevWWo5snqC. Jeder Satoshi wird dazu verwendet, um das Blog besser zu machen. Weitere Infos, wie Sie uns unterstützen können, finden Sie HIER. Gastbeiträge sind ebenfalls willkommen. Meinen öffentlichen PGP-Schlüssel sowie den Bitmessage-Schlüssel finden Sie HIER

27 Comments on Gehen 5 Prozent der jährlichen globalen Chip-Produktion ins Mining? Und sind bereits heute Gigabyte-Blöcke möglich?

  1. TauNeutrino // 7. November 2017 at 11:55 // Reply

    Bitcoin muss über off-chain (2nd layer) skalieren. Anders kann die Technik nicht funktionieren ohne die Nodes in riesige Datencenter auszulagern, was das Ende der Dezentralisierung bedeuten würde. Dazu kommt als weiterer Punkt noch, dass große Blöcke lange Laufzeiten haben bis diese verteilt werden und dem Miner, der den Block findet enormen Zeitvorteil zum finden des nächsten Blocks verschaft. Natürlich versuchen die großen Miner und Firmen also große Blöcke durchzusetzen und so das Netzwerk immer mehr ans sich zu reisen.

    Schade also, dass hier mal wieder der Fokus bei den BigBlockern liegt. Die Realität ist leider: wenns mal soweit ist, ist Bitcoin tot und wir sind bei einer (von einigen wenigen) kontrollierten Währung angekommen. Aber naja, wer will schon auf die Probleme sehen, wenns doch angeblich so simpel klingt: mehr MB/Block == mehr Transaktionen/sec. Leider gibts immer noch viele, die dieser Milchmädchenrechnung glauben.

    • Haben Sie meine Zusammenfassung der Präsentation von Rizun und Stone gelesen? Diese zeigt, dass man womöglich noch sehr weit skalieren kann, ohne Nodes in Datencenter zu bringen.

      Über Offchain schreibe ich gerne, wenn es mal mehr als Theorie ist. Derzeit haben wir seit bald zwei Jahren sehr viel Theorie, Prognose und Vor-Lorbeeren zu offchain Lösungen. Spätestens mit der Aktivierung von SegWit ist es an der Zeit, dass diese Lösungen den Bereich der Hypothese, wo sie als “Überlösung” auftreten können, verlassen, und sich in der Wirklichkeit beweisen. Niemand hindert sie daran.

    • Aber von den Grossbanken und den Staaten dahinter zu 100% zugangskontrollierte Layer 2 Loesungen sind ja sowas von dezentralisiert, gell? Niemand anders wird es sich leisten koennen payment channels auf Layer 2 zu betreiben! Somit sind diese nichts anderes wie Paypal 2.0, voll zensierbar und KYC/AML-Durchleuchtung aller Schafe. Nein, Niemand wird dann mehr Layer 1 benutzen koennen um dem zu entgehen, da die Gebuehren auf dem verkrueppelten Layer 1 horrend sein werden und dieser nur noch fuer das “settlement” der Banken die Layer 2 betreiben zur Verfuegung steht. Bei den SmallBlockern sind offensichtlich nicht nur die Bloecke klein. Ganz abgesehen von dem kollektiven Stockholmsyndrom gegeueber der Grossfinanz.

      • Bitte Obacht mit der Ausdrucksweise, Che.

      • Tau Neutrino // 7. November 2017 at 18:13 //

        geh bitte,
        zuerst zumindest minimales Grundwissen aneignen, dann könenn wir gerne darüber diskustieren. Eine ernstzunehmende Diskussion mit jemanden, der nichtmal die Grundzüge einer Layer2 Lösung wie LN versteht, ist leider unmöglich.

      • @Tau Neutrino
        Auch wenn seine Ausdrucksweise “gewöhnungsbedürftig” sein mag, hat Che im Grunde Recht. Womöglich versteht er die Zusammenhänge auch besser als Du, zumindest Argumentiert er darauf basierend, nicht in einer Metaebene.

    • Satoshi Nakamoto am 29. Juli 2010 auf Bitcointalk, in einer Diskussion mit dem bezeichnenden Titel “Scalability and transaction rate”:

      “The current system where every user is a network node is not the intended configuration for large scale. That would be like every Usenet user runs their own NNTP server. The design supports letting users just be users. The more burden it is to run a node, the fewer nodes there will be. Those few nodes will be big server farms. The rest will be client nodes that only do transactions and don’t generate.”

      Eindeutiger geht es ja wohl nicht. Soviel zu den boesen Datenzentren die es in Bitcoin angeblich nicht geben darf. Das hat man davon wenn der Meister weg ist und seither nur noch Zauberlehrlinge herumhantieren. Man sollte Satoshis Aussage von damals auf Endlospapier ausdrucken, zu einem dicken Stapel, und sie topozentrischen… pardon, egozentrischen Spinnern wie Luke-jr, die glauben der gesamte weltweite Zahlungsverkehr muesse unbedingt ueber ihren Raspberry Pi Witzrechner laufen, einpruegeln. Das war natuerlich satirisch gemeint, nicht dass unser merkeldeutscher Aufseher und BeOBACHTer wieder getriggert wird und Zensur androht. Auch wuerde ich niemals einen Stapel Endlospapier fuer solch ein aussichtsloses Unterfangen verschwenden. Die gekauften Blockstream-Spinner und -Saboteure muss man einfach rechts auf ihrer nichtbitcoinschen Segwit-Krueppelchain liegen lassen und gut is.

      • ohman, wie dogmatisch.
        ich hoffe du hast deinen worten auch taten folgen lassen und alle deine btc in bch oder b2x umgetauscht?

        und nochmal für alle big blocker es gibt eine chain für euch: bitcoin cash.

        wir haben hier also einen wettbewerb der konzepte und das ist gut so. möge die bessere chain sich durchsetzen.

        small blocks: bitcoin
        big blocks: bitcoin cash
        still small blocks: bald bitcoin2x 😉 braucht in der form keiner!

        jm2c nEoo

      • Marsianer // 7. November 2017 at 16:39 //

        “Eindeutiger geht es ja wohl nicht. Soviel zu den boesen Datenzentren die es in Bitcoin angeblich nicht geben darf.”

        So eindeutig finde ich das jetzt nicht, vor allem in Verbindung mit dem “generate” im letzen Satz, womit wohl die das Mining gemeint war, und das zu einer Zeit vor den riesigen Mining-Farmen und -Pools (“big server farms”).

        Ich stimme nEoo zu. Es gibt nun mal diese Gruppe von Menschen, die aus aus echter, ehrlicher und tiefster Überzeugung die Bibel wortwörtlich nimmt. Nix dagegen. Aber dieser missionarische Eifer nervt.

      • Ich habe meine gesamte BTC-Position Ende Juli bei knapp $2.500 fuer USD verkauft und damit am 1. August auf Kraken und Bitfinex auf BCH gewartet, da ich vermutete dass dies die Boersen sein werden wo die meisten Kleingeister ihre “geschenkten” Altcoins “dumpen” werden. Ich war der Erste ueberhaupt der bei Kraken den BCHUSD-Markt benutzt hat, noch bevor er oeffentlich kommuniziert wurde, und dort die ersten Kaufangebote platziert hat. Ich habe meine BCH fuer $150 bis $200 bekommen. Bitfinex war eine Enttaeuschung und lies sich tagelang Zeit. Kraken war ein Volltreffer und dafuer nahm ich auch ihre primitive unterirdische trading engine in Kauf.

        Ich habe seit dem Bitcoin Cash HF nichts mehr mit dem SegWit-Rotz zu tun. Finanziell waere es fuer mich am profitabelsten wenn die langbaertige Blockstream-Taliban sich durchsetzen und die SegWit2x HF in einer Katastrophe endet. Denn SegWit1x ist eine Lachnummer und der weitaus schwaechere Gegner fuer Bitcoin Cash. BTC lebt heute nur noch davon dass die “dumb money” die von traditionellen Finanzinvestoren in Zeiten von Nullzinsen reinstroemt nicht versteht wie FUBAR BTC aka SegWit1x ist. Sobald sie es verstehen ist die SegWit-Chain am Ende. Wuerde sich SegWit2x durchsetzen, haette die SegWit-Chain zumindest eine Chance gegen Bitcoin Cash mittelfristig zu bestehen. Da ich keine Kapitalistenhure bin, druecke ich SegWit2x die Daumen, auch wenn es mich etwas an Gewinn kosten wuerde. Denn die Segwit2x-Leute sind zumindest auf dem richtigen Weg. Und als Atheist und Wissenschaftler kann ich langbaertige religioese Spinner (und dazu auch noch Flat-Earther) wie die von Blockstream sowieso nicht ausstehen.

        @Marsianer: Dein letzter Absatz ist ja nahezu absurd! Hast Du als Fan von diesen Blockstream-Talibans und Flat-Earthern dies wirklich so gemeint? Oder projizierst Du nur Deine Defizite auf andere? Das mit der Trennung von Full Nodes und Miners ist irrelevant. Aus dem Zusammenhang und der weiteren Diskussion geht eindeutig hervor dass Satoshi Full Nodes meinte. Endnutzer sollten nur SPV-Wallets nutzen. Full Nodes sollten sobald noetig laut Satoshi nur noch in Datenzentren existieren! Und nicht auf Luke-jrs Raspberry Pi Gurke am 14.4k Modem! Satoshis Whitepaper ist ein technisches Dokument welches Bitcoin beschreibt. Wie alt bzw. jung bist Du denn, dass Du dieses technische Dokument mit einem Maerchenbuch ueber Geisterglaube, zusammengeschrieben nach Generationen vom Hoerensagern, vergleichst?

      • Marsianer // 8. November 2017 at 22:37 //

        “Das mit der Trennung von Full Nodes und Miners ist irrelevant.”

        Ja, das ist mir klar, dass du das so siehst…

  2. Technische Info: wir haben schon genug Netzwerkbandbreite um bitcoin weit zu skalieren.

    Was wir allerdings nicht haben um große Blöcke sicher verarbeiten zu können ist die notwendige minimale Latenz. Auch 5% der globalen Chipkosten in Forschung gesteckt werden dieses Problem vermutlich nicht lösen, da die Lichtgeschwindigkeit eine ernstzunehmende Schranke darstellt. /s

    • Wenn ich es richtig verstehe, wurde auch dieses Problem von Rizun / Stone thematisiert, und es spielt dank xthin / compact blocks erst ab 500tx/sek eine echte Rolle.

      • Sind aber jetzt erstmal auch nur Vorschuß-Lorbeeren.

      • Jepp, bis es mal soweit ist, also bis wir ein solches Transaktionsvolumen im Livenet prozessieren werden, haben wir alle eine Roboter-Lunge und speichern unsere Blockchain in DNA-Computern.

        Aber es ist keine Vorschluss-Lorbeere, dass onchain Transaktionen funktionieren und nachgefragt werden. Das ist der Punkt, den offchain eben noch beweisen muss.

      • Es stimmt, keine Vorschusslorbeeren. Denn das würde die prinzipielle Machbarkeit implizieren.

        Der Versuchsaufbau testet eben nur wenige Elemente (wie notwendige Bandbreite) mit 4-6 nodes, aber nicht reale Verhältnisse in einem zufällig verbundenen globalen P2P-Netzwerk mit 8k nodes.

        Der einzige Plan diese Problem zu “lösen” ist Zentralisierung, und das wird auch explizit angesprochen, weil für “normale” user soll SPV genug sein. Das wird nicht aufgehen, zu viele bitcoin user wollen ihre Validierungs-Hoheit behalten und kein paypal 2.0.

      • @JS: Das sehe ich auch so. Ein Praxis-Test mit 4-6 Nodes kann man sich schenken.

        Die Aussagekraft ist in Bezug auf die Auswirkungen der Latenz gleich Null… und da liegt der einzige wirkliche Flaschenhals. Von daher sehe ich diese “Praxis”-Studie als Big-Block-Werbung, die schön aussieht, aber keinen sinnvollen Beitrag zur Lösung des Scalability-Problems leistet. Es sei denn, man geht davon aus, wirklich nur 4-6 Nodes weltweit laufen zu lassen…

        Nebenbei: Die überschaubare Komplexität der Prozesse von Mining und Propagation im Bitcoin-Netzwerk macht es auch zu einem perfekten Objekt von theoretischen Studien. Ist der Grund, dass es hauptsächlich die Arbeit von 2016 gibt, nicht vielleicht einfach nur der, dass damit zum momentanen System quasi alles gesagt ist?

      • War vielleicht missverständlich ausgedrückt, aber es waren nicht nur 4-6 Nodes. 4-6 Nodes haben die Transaktionen gebaut.

        Dass du ein Experiment als aussagelos ansiehst, aber theoretische Schätznungen von 2016 für allesaussagend, ist schon ein wenig befangen. Beides ist wichtig, beides macht Sinn, und als jemand, der sich für das Thema interessiert, bin ich begeistert, dass wir ein Experiment haben. Auch wenn mir klar ist, dass es nur ein Teil des Puzzles ist und dass es praktisch ganz andere Herausforderungen gibt. Aber es grenzt halt einen Teil der Story ein.

      • Das Lichtgeschwindigkeitslimit ist keine theoretische Schätzung, sondern ein physikalisches Limit. Das zu verwechseln ist ein fataler Fehler.

        Und der Versuchsaufbau hat wenig mit einem globalen P2P-netzwerk zu tun: “Gute Geräte, aber auch nichts ungewöhnliches. 4-6 Miner haben Blöcke gebildet, 12 Nodes haben mit Python-Skripten Transaktionen erzeugt und im Netzwerk verteilt.” Wobei es ziemlich egal ist ob 4-6 oder 12, vor allem wenn alle vermutlich am selben Ort stehen.

      • Wie kommt denn da die Lichtgeschwindigkeit ins Spiel?

        Die Nodes waren soweit ich weiß nicht am selben Standort, sondern auf der ganzen Welt verteilt.

      • Latency ist durch c begrenzt. Minimal latency für 2 nodes “gegenüber” auf der Erde ist ca. 20000km / 300000km/s = 0.067 Sekunden. Ein physikalisches Limit. Führt dazu dass maximal 7.5 von einander abhängige Requests pro Sekunde ausgeführt werden können, sofern ich alle Zahlen richtig im Kopf habe.

      • Inwieweit begrenzt das den Durchsatz? Das heißt eventuell, dass man nicht mehr als 7,5 verkettete Transaktionen je Sekunde bilden kann? Sowie ich es verstehe, ist ein solches Limit eher für Lightning relevant.

      • Wer sagt denn, dass jede Transaktion separat propagiert werden muss, wenn es schon um solche Limits geht? Aktuell stecken wir aber irgendwo fest, wo Latenz Null Relevanz hat.
        Danke Christoph für die Zusammenfassung! Wobei ich die erste von Dir zitierte Keynote kritischer sehe, da ich PoW nicht als “Verschwendung” ansehe, sondern als kritische Notwendigkeit. Bisher konnte mich keine PoS / PoC / Po* überzeugen…

      • Aktuell sind wir hauptsächlich Governance-limitiert. Ähnliche Problematik wie die EU… Wenn nicht alle dasselbe wollen, passiert nichts.

        @Christoph: Zum (theoretischen) Latenzproblem
        Theoretisch ist es deshalb, weil merklich größere Blöcke bei BTC vermutlich nicht kommen werden und ich momentan nicht sehe, dass BCH absehbar größere Blöcke als 8MB benötigen wird…
        Damit das System mit PoW sinnvoll funktioniert, muss die Zeit der Propagation der neu erzeugten Blöcke (bis diese im gesamten Netzwerk verteilt sind) deutlich kleiner sein als die durchschnittliche Zeit, die es benötigt, einen “Block zu finden”.
        Ich würde sagen etwa um den Faktor 10. Dauert die Verteilung zu lang, ist die Wahrscheinlichkeit, dass Teile des Netzwerks mit Informationsvorsprung den nächsten Block finden. Dies schafft Anreize zu weiterer Zentralisierung, die Vergrößerung eines sowieso bereits großen Mining-Pools wäre im Vergleich zu kleineren Pools noch rentabler. Zusätzlich entstehen Anreize zur Kartellbildung (große Pools schließen sich zusammen, indem sie sich gegenseitig zuerst den neuen Block zusenden).
        Ganz abgesehen davon steigt die Wahrscheinlichkeit eines temporär inkosistenten Netzwerks, was dazu führen wird, dass wichtige Transaktionen nicht nach 3, sondern z.B. erst nach 10 Bestätigungen akzeptiert werden.

        Das ist der Bottle-Neck. Das angesprochene Experiment zeigt auf, dass der Rest klargeht, ok, wüsste aber nicht, dass daran jemand gezweifelt hätte. Für mich hat es keinen Erkenntniswert, nur Marketingwert, aber das ist meine Meinung 😉

  3. Ich verstehe das Problem mit der Lichtgeschwindigkeit nicht. Aber gut, daß schon Leute an einer Lösung arbeiten. Vielleicht hilft diese dann eines Tages mal bei echten Problemen.
    乱馬

  4. Das Hauptproblem des Bitcoins ist, daß viele Bitcoin-Verwender immernoch nicht verstanden haben, daß Bitcoin in erster Linie ein Spekulationsobjekt ist und als Spekulationsobjekt geschaffen wurde. Man kann es für Transaktionen nutzen, so wie man auch Betongold bewohnen kann, obwohl einige Spekulanten fragen, wieso man ein Anlageobjekt von Mietern verwohnen lassen sollte. Die Möglichkeiten sagen nichts über den Zweck aus. Die Anreize übernehmen das. Die Anreize bevorzugen sowohl bei Wohnungen als auch beim Bitcoin die Spekulanten. Unter Spekulanten wiederum ist Zentralisierung üblich, indem Großinvestoren Kleinanleger ausnehmen.

    Fünf Prozent der Chip-Produktion sind keine Verschwendung und zwar deshalb nicht, weil sie Geld in die Realwirtschaft holen, das sonst für Spekulation verwendet worden wäre. Niemals wäre es stattdessen für Breitbandausbau verwendet worden. Das ist schließlich etwas, von dem alle etwas hätten. Darum verhält es sich kontraproduktiv zu dem Ziel in Bitcoin investierte Kleinanleger auszunehmen. Also geschieht es nicht. Die Optionen waren nur direkt mit dem Geld spekulieren oder Hardware kaufen, die zum spekulieren verwendet wird. Solange die Mehrheit der Bitcoin-Gemeinde das nicht versteht, wird es niemals Anreize geben, um die Verwendbarkeit des Bitcoins zu fördern. Es wird sogar DESHALB erhebliche Kursverluste geben und zwar genau dann, wenn der Kleinanleger die am wenigsten brauchen kann.
    乱馬

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s