Newsticker

„Es ist brutal schwer, dezentrales peer 2 peer Geld zu entwickeln, das global von vielen Menschen gleichzeitig benutzt werden kann.“

Themenschwerpunkt Lightning

Plasma-Blitze. Bild von Ghost of Kuji via flickr.com. Lizenz: Creative Commons

Unter gewissen, plausiblen Annahmen sorgt eine rationale Routenplanung dafür, dass die Zentralisierung im Lightning-Netzwerk befördert wird. Warum? Und kann man dem entgegenwirken? Wir haben hierfür mit einem Experten geredet.

Eine echte Überraschung war es nicht. Im Grunde hatte jeder damit gerechnet, doch René Pickhardt hatte nun eine Quantifizierung für eine eher ungünstige Eigenschaft des Lightning-Netzwerks.

Der Datenwissenschaftler simulierte ein Verfahren, um unter bestimmten Voraussetzungen die optimale Route durch das Lightning Netzwerk zu finden. Dabei zeigte sich, dass Anreize bestehen, welche die Zentralisierung auf große Knoten fördern. Rein mathematisch betrachtet.

René hat zuvor das „Zero-Base-Fee“-Protokoll entwickelt. Dieses soll es erlauben, große Transaktionen zuverlässiger durch Lightning zu routen. Dafür hat er eine Art Patch für Lightning-Knoten veröffentlicht, zunächst ohne große Erwartungen, doch weil die Lightning-Community eine der motiviertesten Gruppen ist, die man im World Wide Web findet, hat sich sein Patch in Windeseile im Netzwerk verbreitet. Heute deckt er fast die Hälfte aller Lightning-Knoten ab.

Im Zuge dieser Forschungen hat sich der Mathematiker auch mit optimalen Routen beschäftigt. Wie findet ein Knoten möglichst rasch die perfekte Route durch das Lightning-Netzwerk, das mittlerweile aus rund 80.000 Payment-Channels besteht? Er hat versucht, diese Frage mit verschiedenen Szenarien und Faktoren zu simulieren. Seine Annahme ist dabei, dass Akteure nach dem „Min Cost Flow“-Modell handeln: Sie versuchen, die Kosten eines Pfades zu minimieren.

„Um eine Route zu suchen, nehme ich nur die ‚billigsten Kanäle‘ in den Graph auf. ‚Billigst‘ ist die Kombination aus Routing Costs und Uncertainty Cost,“ erklärt René. Unter diesen Annahmen misst man die Güte einer Route anhand von zwei Faktoren: Sie soll wenig Gebühren kosten, aber zuverlässig sein. Und idealerweise soll es schnell gehen, ohne dass die Wallet zuerst hunderte von Optionen durchprobiert.

Man möchte also einen Pfad finden, der günstig und zuverlässig ist. Das ist eine vernünftige und nicht unwahrscheinliche Annahmen. Doch mit ihr manifestiert sich ein Problem, das René wie viele andere Experten erwartet hatte: „Die Uncertainty Cost wird bei großen Kanälen günstiger.“

Das ist leicht nachzuvollziehen, wenn man nur ein wenig über das Lightning-Netzwerk weiß: Channels geben zwar ihre gesamte Kapazität bekannt, aber nicht, in welche Richtung sie weist. Daher ist jeder Pfad unsicher: Es könnte sein, dass die gesamte Liquidität in die falsche Richtung geht. Allerdings nehmen diese „Unsicherheits-Kosten“ ab, wenn ein Channel mehr Liquidität enthält. Das macht große Knoten zu attraktiveren Anlaufpunkten für die Routenplanung.

Das war soweit zu erwarten. Es ist bei allen Netzwerken so: Google liefert bessere Suchergebnisse, bei Amazon findet man eine größere Auswahl an Waren, auf Twitter die lustigeren Trolle, und im Bitcoin-Kurs weniger Volatilität. Größer ist besser, nicht fürs große Ganze – hier wäre mehr Dezentralisierung wünschenswert – aber für den individuellen User. Es handelt sich um ein fast universelles Gesetz: Die Vorteile, die die großen Akteure durch ihre Größe erlangen, helfen ihnen, noch größer zu werden.

Im Falle von Lightning sorgt dies also dafür, dass ein Knoten mit viel Liquidität beim Faktor „Unsicherheit“ günstiger ist als kleinere Knoten. „Daher können größere Kanäle höhere Gebühren verlangen und immer noch gewinnen. Das verschafft ihnen höhere Einnahmen und einen Vorteil.“ Dieser Vorteil verstärkt sich selbst: die Knoten können die Mehreinnahmen durch Gebühren wieder in Payment Channels stecken und werden dadurch noch überlegener.

„Die Mathematik des gegenwärtigen Designs von Lightning und die Annahme, dass Nodes die optimale Lösung für das Min Cost Flow Problem suchen, verschafft Node-Betreibern, die mehr Liquidität bereitstellen, einen ökonomischen Vorteil gegenüber Node-Betreibern, die weniger Liquidität zur Verfügung stellen,“ erklärt René.

Dies erweckt nicht unbedingt Jubelstürme, aber man sollte es nicht überbewerten. Lightning an sich bleibt dezentral, und es ist normal, dass die Akteure in dezentralen Netzwerken nicht egalitär sind, sondern je nach ihren Kapazitäten Bedeutung erlangen. Es ist vermutlich sogar ein notwendiger Preis, den man für Effizienz bezahlen muss. Dennoch wäre es besser, wenn man Wege finden würde, um der Zentralisierungstendenz unter Knoten entgegenzuwirken.

Auf der einen Seite hängt vieles vom Routing-Algorithmus ab. Ist „Min Cost Flow“ die einzige Strategie? Es gibt noch weitere Faktoren. Etwa die Geschwindigkeit. Möglicherweise reagieren große Knoten, mit hunderten und tausenden von Channels, langsamer als kleinere. Somit könnte dieser Faktor der Zentralisierung entgegenwirken. Unter Umständen könnte man Usern auch verschiedene Routing-Präferenzen anbieten: günstig, zuverlässig, schnell, dezentral, und anderes.

Rationalität ist ein komplexes Konstrukt, und die gängige Idee, dass sie nur ökonomisch zu verstehen ist, greift oft zu kurz. Für viele Menschen ist Rationalität an bestimmte Ziele gebunden, und diese können auch über die situative ökonomische Rationalität hinausgehen. Eine Welt, in der Menschen nicht für höhere Ziele eintreten, wäre eine ziemlich schlechte Welt. Aber selbst wenn man Rationalität rein ökonomisch versteht, bleiben zahlreiche Stellschrauben, an denen man drehen kann.

Daneben denkt René darüber nach, ob man, analog zu Mining-Pools, dezentrale Routing-Knoten bilden kann, in welchen kleine Knoten ihre Liquidität bündeln. „Man kann das natürlich durch einen Treuhänder machen. Aber ich würde lieber über eine nicht-treuhänderische Version nachdenken, die kein Vertrauen benötigen.“ Doch dies ist derzeit ein schwer bis unmöglich zu lösendes Problem. Vielleicht helfen Covenants, aber hier ist sich René nicht sicher. Dies ist nicht sein Fachgebiet.

Insgesamt trübt all dies nicht Renés Begeisterung für Lightning. Es festigt nur seine Überzeugung, dass es „brutal schwer“ ist, „dezentrales peer 2 peer Geld“ zu entwickeln, „das global von vielen Menschen gleichzeitig benutzt werden kann.“ Das Lightning-Netzwerk, meint er, „ist aktuell der beste Ansatz, den wir kennen.“

Über Christoph Bergmann (2348 Artikel)
Das Bitcoinblog wird von Bitcoin.de gesponsort, ist inhaltlich aber unabhängig und gibt die Meinung des Redakteurs Christoph Bergmann wieder ---

15 Kommentare zu „Es ist brutal schwer, dezentrales peer 2 peer Geld zu entwickeln, das global von vielen Menschen gleichzeitig benutzt werden kann.“

  1. Bitte nicht ärgern, aber bei aller Begeisterung sollten dennoch, soweit möglich, die Regeln der deutschen Grammatik gewahrt bleiben:
    Sowohl im Titel als auch später am Textende heißt es „Es ist brutal schwer, dezentrales peer 2 peer Geld zu entwickeln, [b]dass[/b] global von vielen Menschen gleichzeitig benutzt werden kann.“

    Das „dass“ in obigem Zitat ist ein Relativpronomen, das auf das Bezugswort „Geld“ im Hauptsatz verweist und müsste folglich mit einem „s“, also „das“, geschrieben werden. 🙂

  2. Danke Christoph, interessanter Artikel. Was mir nicht so klar ist, wie wird denn zwischen geringen Kosten und Zuverlässigkeit abgewogen. Sind die Kosten mehrere Routen „auszuprobieren“ nicht gering genug, dass man einfach mit der günstigsten anfängt, bis die erste durch geht?

  3. Unter Umständen könnte man Usern auch verschiedene Routing-Präferenzen anbieten: günstig, zuverlässig, schnell, dezentral, und anderes.

    Damit schafft man nur unnötige Verunsicherung bei vielen Usern, denn die meisten sind auf Layer1 bereits mit der Auswahl der Fee überfordert, was dann entweder darin mündet, dass Transaktionen lange brauchen, um bestätigt zu werden, oder oft 10-fach und noch höhere Fees als nötig bezahlt werden, um eine Transaktion schnell bestätigt zu bekommen.

    Es festigt nur seine Überzeugung, dass es „brutal schwer“ ist, „dezentrales peer 2 peer Geld“ zu entwickeln, „das global von vielen Menschen gleichzeitig benutzt werden kann.“ Das Lightning-Netzwerk, meint er, „ist aktuell der beste Ansatz, den wir kennen.“

    Dem ersten Teil dieser Aussage stimme ich voll und ganz zu, dem zweiten Teil nicht. Es gibt etliche Layer 1 Lösungen, die aktuell besser als Geld geeignet sind als das Lightning Netzwerk in seiner heutigen Form nach über 4 Jahren. Für den kleinen Händler ist LN im Vergleich zu Bargeld ungemein schwieriger, für stets ausreichende Channels mit entsprechender eingehender Liquidität zu sorgen. Selbst dann gibt es oft noch Probleme beim Routing, wenn die Zahlung über einen Wocheneinkauf hinausgehen soll.

    Mit z.B. sinnvollem Pruning / Sharding kann man auch (U)TXO ganz gut auf L1 skalieren ohne die Dezentralisierung zu gefährden, daneben gibt es nicht-TXO basierte Ansätze wie bei Nano oder Ethereums Account basiertes System (welches nur wegen der VM mit ihren States so schlecht skaliert). Diesbezüglich ist bei Bitcoin seit Jahren nichts passiert, man hat sich gänzlich auf Lightning verlassen und in meinen Augen verrannt, weil der Base Layer immer höhere Fees (wegen der Halvings) benötigt, um die aktuelle Sicherheit auch nur auf aktuellem Stand aufrecht zu erhalten, das On- & Off-boarding zu LN muss also deutlich teurer werden. Beim Onboarding ist zwar ein Batching denkbar, indem man eine Art Multisig Coinjoin mit den jeweiligen Channel Openings veranstaltet, aber insbesondere beim Penalty Close sehe ich dafür keine Möglichkeit und der kann ggf. den Channel Wert der eigenen Seite deutlich übersteigen.

    Fazit: Layer2 Skalierbarkeit könnte nur zusammen mit nahtloser Level1 Skalierung funktionieren, was ich bei Bitcoin die letzten Jahre nicht gesehen habe und für die nächsten paar Jahre auch nicht sehe.

  4. Cardano bietet meiner Meinung nach das viel bessere p2p Zahlungsnetzwerk. Die Spieltheorie, die hinter Cardano’s delegated Proof of Stake Mechanismus steht, ist die ausgefeilteste, die ich kenne. Die Dezentralisierung ist das Ergebnis der Kombination aus der Kapazität der Pools und der Kapazität der Delegatoren. Je breiter diese Kapazitäten übers Netzwerk verteilt sind, umso dezentraler ist das Netzwerk. Grosse Pools mit hohem Eigenkapital können von kleineren Pools, die über eine grosse Anzahl von Delegatoren verfügen, ausgehebelt werden. Mit der Einführung der sogenannten Sättigungskurve, verlieren Delegatoren zudem den Anreiz, bei grösseren Pools zu delegieren, weil der Staking Zins, ab Sättingungspunkt, mit erhöhtem Stake abnimmt. Das Delegieren bei einem kleineren Pool lohnt sich dann umso mehr. Mit einem Nakamoto Koeffizienten von 23, steht Cardano in Sachen Dezentralisierung gut da. https://datastudio.google.com/u/0/reporting/3136c55b-635e-4f46-8e4b-b8ab54f2d460/page/p_9vyfu6gorc

    • Interessante Idee, danke. Wie berechnet sich denn der Nakamoto Koeffizient?

    • Cardano ist extrem zenralisiert um eine Person, Charles Hoskinson, die nicht unumstritten ist. Das war in den Anfänge Ethereums ähnlich, aber Vitalik hat konsequent sehr viel seiner Macht an Dritte abgegeben.

      Hoskinson hingegen zentralisiert die Macht um sich herum und hält sich für des Wissens heiligen Pfeiler. Es gibt afaik keine 100 Nodes, wovon höchstwahrscheinlich die meisten in direkter oder indirekter Kontrolle von Hoskinson sind. Wie man auf die Idee kommen kann, es als besseres p2p Zahlungsnetzwerk zu bezeichnen, bleibt mir schleierhaft. Wahrscheinlich ähnlich dezentralisiert wie PayPal und am Ende genauso unnötig.

      • Paul, das was du sagst ist falsch. Cardano hat 3000+ Knoten, wovon 1 von Charles betrieben wird. Das sagt dir jemand, der selber einen Stake Pool betrieben hat und sich aktiv in die Cardano Community miteinbringt. Ja, Charles ist der Gründer von Cardano und hat in der Community eine starke Ausstrahlung eines Leaders. Doch seit wann ist Leadership nicht kompatibel mit Dezentralisierung? Von der Ferne betrachtet, könnte man vielleicht den Eindruck bekommen, dass Charles alle Fäden in der Hand hat. Das ist aber ganz und gar nicht so. Wenn du dich innerhalb der Community etwas länger aufhalten würdest, würdest du die vielen anderen “Leaders” sehr wohl spüren. Schau doch mal genauer hin was mit der Vasil Verzögerung passiert ist. Da haben sich innerhalb der Community angesehene Personen dem Launch von IOHK quergestellt, weil sie mit der Testprozedur nicht ganz einverstanden waren. Viele SPO’s haben sich darauf geweigert das Update vorzunhemen. Charles und IOHK mussten sich den SPO’s beugen und die Testprozeduren doch noch anpassen. Das ist doch ein gutes Beispiel dafür, dass Cardano doch auch auf Governance Ebene dezentralisiert ist. Und das wird sich mit der Voltaire Phase weiter verbessern.

      • Lieber Julien, bitte gib mir eine valide Quelle für die 3.000 Nodes, dann vertiefe ich mich vielleicht auch in die weiteren Punkte…

  5. Hi Paul, auf pooltool.io findest du eines der besten dashboards. Ansonsten ist http://www.adapools.org auch eine gute Quelle.
    P.S. Charles stake pool heisst übrigens RATS. kannst auf pooltool.io danach suchen 😉

    • Es gibt mehr als 1000 Pools?

      • Es sind >3000 block production nodes, ohne die Relay Nodes, sprich Validatoren zu berücksichtigen. Diese Zahl kennt keiner so richtig, doch man kann schätzungsweise sagen dass pro block produktion knoten etwas 2-3 Relay Knoten existieren. Bei Cardano kann jeder seinen eigenen Relay Knoten permissionless aufsetzten um seine Transaktionen darüber laufen zu lassen. Meiner läuft weiterhin auf einem RaspPi. Ich habe eine Anleitung auf GitHub erstellt, falls ihr Interesse haben solltet: https://github.com/jterrier84/Cardano-node-docker

      • Gratulation Julien, für die Ausdauer. Das ist etwas an Cardano, das mir tatsächlich gut gefällt.

Kommentar verfassen

%d Bloggern gefällt das: