Newsticker

Das Metanet von Bitcoin SV: Genial – oder doch nur wahnsinnig?

X marks the spot. Bild von Matteo Garza via flickr.com. Lizenz: Creative Commons

Bitcoin SV baut sich sein eigenes Internet in die Blockchain. Das sogenannte „Metanet“ soll nicht nur Geld, sondern auch das Internet neu erfinden. Hinter den Schlagwörtern findet man eine emsige Schar von Entwicklern, die daran arbeiten, dies zu verwirklichen. Noch nie war es so einfach, Dateien auf die Blockchain zu laden – und selten war es so verwirrend, über Blockchain nachzudenken.

Ich habe mich in den letzten Wochen ein wenig damit beschäftigt, was Bitcoin SV (BSV) derzeit mit dem sogenannten „Metanet“ aufbaut. Mir ist klar, dass der eine oder andere Leser kein Interesse an BSV hat und es wegen einer bestimmten Person, die einen starken Einfluss auf BSV hat, sogar verabscheut. Daher habe ich gezögert, überhaupt darüber zu schreiben. Aber es wäre auch sinnlos, für mich zu behalten, was ich erfahren habe.

Also: Bitcoin SV ist der jüngste Coin im Portfolio der auf Bitcoin.de gehandelten Coins. BSV enstand aus der Hardfork von Bitcoin Cash im November; im Selbstverständnis seiner Fans ist BSV der einzig wahre Bitcoin. Craig Wright, der selbsternannte Satoshi, gilt hier unter ihnen nicht wie ansonsten fast überall als Betrüger, sondern als der echte Erfinder von Bitcoin. Seine Firma, nChain, entwickelt den BSV-Client, der die Stütze des Netzwerks ist.

So wenig Handelsvolumen, dass es nicht einmal für einen vernünftigen 48-Stunden-Chart reicht. Quelle: Bitcoin.de

Der üble Leumund von Craigh Wright färbt auf den Ruf von Bitcoin SV ab. Nachdem wichtige Teile des Ökosystems von Bitcoin Cash, etwa BitPay oder Bitcoin.com, auf der BCH-Seite geblieben sind, dümpelt der Kurs von Bitcoin SV vor sich her, in der Tendenz eher ab- als aufwärts. Das Transaktionsvolumen ist gering, die Nachfrage nach BSV-Trades ist auf dem Marktplatz von Bitcoin.de minimal.

Das Werk zweier Entwickler

Gleichzeitig passiert etwas einigermaßen interessantes auf Bitcoin SV: Das Metanet breitet sich aus. Craig Wright hat den Begriff bei einer Präsentation auf der CoinGeek-Konferenz letzten November geprägt; er meinte damit – soweit man ihn deuten kann — dass Bitcoin nicht nur ein Transaktionsmittel ist, sondern ein „Internet auf einer Blockchain“. Ein Metanet, das durch Transaktionen verknüpft ist und dessen Inhalte unlöschbar, unveränderbar und durch Hashes validierbar sind. Das Metanet bedient all das, was unter dem Stichwort „Blockchain-Technologie“ versprochen wird, und bindet es in den Maximalismus des „wahren“ Bitcoins ein. Alles, wirklich alles, geht auf die Blockchain. Oder so.

Während Craig Wright damit beschäftigt ist, jede Idee zu patentieren, die ihm in den Sinn kommt, haben vor allem zwei Akteure im BSV-Ökosystem begonnen, seine Vision zu verwirklichen: Steven Shadders und _unwriter.

Shadders, der Leitentwickler bei nChain ist, hat das Limit für opreturn-Transaktionen von 220 Bytes auf 100 Kilobytes erhöht und die Mining-Pools überzeugt, dieses neue Limit zu übernehmen. Damit wurde es plötzlich möglich, per opreturn lange Nachrichten oder gar Bilder auf die Blockchain hochzuladen, wo sie von jedem Full Node gespeichert und bei Bedarf verbreitet werden.

Noch wichtiger dürfte der Beitrag des anonymen Entwicklers Unwriter sein. Er schafft die Tools, um Daten auf die Blockchain zu bringen und dort zu lesen. Sein BitDB-Node sortiert Bitcoin-Transaktionen in eine andere Datenbank – ich glaube, Mongo – um sie sortieren, zerlegen und besser abrufen zu können. Auf Basis von BitDB laufen zahlreiche weitere Werkzeuge: das Planaria-Universum von individualisierten BitDB-Nodes, ein Bitcom-Protokoll, durch das onchain-Dateien definieren, wie andere Daten zu entschlüsseln und zu verbinden sind, das b://- und c://-Protokoll, der Datapay-Mechanismus, um Daten hochzuladen, der Bottle-Browser und mehr. Der Ausstoß von Unwriter ist bei Bitcoin SV bereits jetzt legendär, es ist kaum möglich, Schritt zu halten, selbst wenn man nahe dran bleibt.

Elementare Werkzeuge

Die für die User wichtigsten Werkzeuge sind jedoch Seiten wie BitcoinFiles, Bitco.Media und Bitpaste.app, mit denen man Daten auf die BSV-Blockchain hochladen und durch die Transaktions-ID abrufen kann. Mit add.bico ist es sogar möglich, wesentlich größere Dateien abzuspeichern, indem man ein Protokoll (Bitcom) benutzt, das definiert, aus welchen Transaktionen die Datei in welcher Reihenfolge aufgebaut wird.

Das zweite wichtige Werkzeug ist MoneyButton. Das ist eine Webwallet auf der einen, und ein Button auf der anderen Seite, durch den eine Webseite eine mit einem Klick ausführbare Transaktion aufrufen kann. In der Praxis ist man bei MoneyButton eingeloggt und drückt einen Knopf, um eine Transaktion auszulösen, mit der man per op_return eine Datei abspeichert. Da die Transaktion vom Server – also MoneyButton – produziert wird, bekommt der User von der ganzen Komplexität dahinter nichts mit. Er drückt einfach einen Knopf.

Diese Entwicklung führte erwartbarerweise dazu, dass die Größe der Blöcke von Bitcoin SV seit einigen Wochen immer weiter ansteigt. Klar – wenn man Dateien mit einer Größe von mehreren Megabyte hochladen kann, werden die Blöcke rasch groß. Seit Anfang März ist die Blocksize auf BSV konstant größer als auf BCH; am vergangenen Wochenende hat sie auch die von Bitcoin für einige Zeit überholt.

Ist es der Beginn von etwas großem – oder nur eine Ablenkung davon, dass BSV es nicht geschafft hat, Bitcoin Cash als wichtigsten „Big Block Bitcoin“ abzulösen? Wir schauen uns an, was genau los ist, so dass sich jeder seine eigene Meinung bilden kann.

Opreturn

Um zumindest im Ansatz zu verstehen, was hier technisch passiert, sollte man das Transaktionsskript op_return kennen. Diese Skript schafft in einer Transaktion einen nicht ausgebbaren Output – der Befehl gibt ein „fail“ zurück – der eine gewisse Menge an Daten enthalten kann. Bei Bitcoin (BTC) sind diese Daten maximal 80 Byte groß, bei Bitcoin Cash (BCH) 220 Byte, und bei Bitcoin SV (BSV) 100 Kilobyte. Opreturn ist eine beliebte Methode, um Daten in die Bitcoin-Blockchain (BTC) zu bringen. Laut Statistik gibt es bereist 17 Millionen opreturn-Outputs auf Bitcoin (BTC). Einer der stärksten Verursacher dieser Outputs ist Veriblock, eine Plattform, die versucht, ein Netz von Blockchains durch Bitcoin-Transaktionen zu sichern.

Op-Return hat den starken Vorteil, dass man die Daten „prunen“, also wieder löschen kann. Sollten sie einmal überhand nehmen, kann ein Full Node sie relativ einfach als Ganzes von seiner Festplatte werfen, ohne dass er dabei aus dem Konsens ausschert. Es ist auch möglich, nur die Op-Return-Inhalte zu löschen, aber weiterhin das volle Set aller Transaktionen zu behalten. Dies macht Op-Return weniger schädlich für die Infrastruktur einer Blockchain, was auch der Grund war, weshalb die Core-Entwickler es eingeführt haben: Leute, die unbedingt Daten auf der Blockchain speichern wollen, sollen dies nicht über das UTXO-Set machen – was einen sehr viel nachhaltigeren Schaden anrichtet – sondern über die Op-Returns.

Die Datenlimits sind an sich keine Konsens-Regel, aber die meisten Nodes und Miner beschränken sie aufgrund lokaler Einstellungen. Alles, was Shadders also gemacht hat, war, dieses lokale Limit bei einem Pool aufzulösen. Der Rest passierte dann mehr oder weniger von selbst.

Macht es überhaupt Sinn?

Über keine Sache dürften die Meinungen so weit auseinander gehen wie über diese Frage. Die Entwickler von Bitcoin, Core, sind strikt gegen die Nutzung von Bitcoin als Datenspeicher. Für sie ist dies kein Feature, sondern ein Angriff, mit dem sie allerdings wegen des geringen Limits für Op-Returns einigermaßen leben können. Bitcoin ist ein Transaktionssystem für dezentrales digitales Bargeld; alles, was darüber hinausgeht, ist Spam und sollte eher verhindert werden. Auch die Entwickler von Bitcoin Cash teilen diese Sichtweise, zumindest im Groben. So gesehen ist das, was Bitcoin SV derzeit macht, kollektiver Selbstmord.

Bei Bitcoin SV sieht man es erwartungsgemäß anders. Hier gilt, dass es keine schlechten Transaktionen gibt. Alles, was die Blockchain benutzt, soll gefördert werden; wenn Bitcoin nicht onchain skaliert, so die Ansicht, wird es scheitern. Schließlich werden die Miner in Zukunft, wenn der Blockreward ausläuft, davon abhängig sein, an den Gebühren einer großen Menge Transaktionen zu verdienen. Vermutlich wäre es auch der Bitcoin-SV-Szene lieber, wenn ihre Blockchain für eine große Menge rein finanzieller Transaktionen genutzt werden würde. Aber dies passiert nicht, und es gibt wenig Hinweise darauf, dass dies in naher Zukunft passieren wird. Daher könnte es eine strategisch nicht ganz verkehrte Entscheidung sein, die Blockchain auf Teufel komm‘ raus groß zu machen – und selbst dann, wenn man seine Urlaubsfotos in hoher Auflösung auf sie lädt.

Zudem schafft Bitcoin SV mit „Blockspace“ und dem „Metanet“ ein eigenes Produkt, dass man nur für Bitcoin SV kaufen kann. Das könnte strategisch sinnvoller sein, als darauf zu warten, dass andere die Blockchain als reines Zahlungsmittel für andere Dinge verwenden.

Was bedeutet es, Daten auf der Blockchain abzuspeichern?

Günstig, so viel ist klar, sind die Daten onchain schon mal nicht. Wenn man je Byte 1BSV-Satoshi bezahlt, kostet ein Megabyte 0,01 Bitcoin SV, also knapp 60 Cent. Bei gewöhnlichen Festplatten liegt der Preis je Megabyte bei 2 Cent, bei zeitlich begrenzten Cloud-Speichern noch einmal deutlich tiefer. Was also, außer viel Geld für wenig Speicher zu bezahlen, soll man davon haben, Daten auf die BSV-Blockchain zu laden?

Unveränderbarkeit

Zum einen sind die Daten unveränderlich und bleiben so lange bestehen, wie BSV besteht (auch wenn es denkbar ist, dass Op-Return-Daten einmal von den Nodes gelöscht werden). Demnach ist man nicht vom Cloud-Provider oder der Fortexistenz einer Festplatte oder eines anderen Datenspeichers abhängig, um auf abgespeicherte Daten in Zukunft zuzugreifen. Das macht das „Metanet“ zu einer alternativen Backup-Methode für wichtige Dateien.

Man könnte etwa darüber nachdenken, Daten des öffentlichen Interesses auf die Blockchain auszulagern, beispielsweise Dokumente des Bundestags, wichtige historische Quellen, Staatsverträge, Teile des kulturellen Erbes und so weiter. Es wäre vorstellbar, dass die BSV-Blockchain zu einer Art digitalen Bibliothek wird, die das Erbe der Menschheit bewahrt und verhindert, dass wir durch das „digitale Vergessen“ als eine dunkle Epoche in die Geschichte eingehen.

Gleichzeitig ist es auch ziemlich gruselig, Daten an die Blockchain hochzuladen. Man macht es ja nicht anonym, sondern mit einer Bitcoin-SV-Adresse, und wenn man etwas falsches macht, gibt es keine Möglichkeit, den Fehler auszubügeln. Was auf der chain ist, bleibt auf der Chain. Es wäre ein Horror, damit mein Blog zu führen, wenn ich Fehler nicht korrigieren kann; wenn ich gar an Aussagen denke, die juristische Folgen haben können, wird es verheerend. Ich habe auch darüber nachgedacht, manche pdfs oder papers, die ich gesammelt habe, als Backup, hochzuladen. Oder Musikdateien.

Aber ich lasse es. Die Urheberrechtslage ist nicht klar; selbst bei digitalisierten Büchern, deren Autoren vor mehr als 100 Jahre gestorben sind, kann es sein, dass derjenige, der das Werk eingescannt hat, eine Form von Urheberrecht hat. Das in der Cloud oder auf der eigenen Webseite zu speichern, ist nicht so wild, weil man es im schlimmsten Fall wieder löschen kann. Auf der Blockchain kann man es aber nicht löschen. Es gibt keinen Reload. Das, was einmal onchain ist, wird – so zumindest der Plan – für alle Zeiten von jedem abrufbar sein.

Physische Ereignisse sind endgültig. Was in der materiellen Welt geschehen ist, ist geschehen. Es gibt kein strg+z und kein neu laden. Informationen im Internet zu veröffentlichen, ist ein wenig wie ein Computerspiel: Wenn man versagt, lädt man neu. Auf der Blockchain dagegen ist Information wie früher, als sie in Stein gemeisselt, von Hand abgeschrieben oder als Zeitung gedruckt wurde: Sobald das physische Ereignis – die Produktion des Mediums – abgeschlossen ist, gibt es kein Zurück mehr. Das zwingt zu Sorgfalt und Akribie.

Zur gleichen Zeit gibt es auf der Blockchain auch keine endgültige Anonymität. Im Internet ist es nicht so schwer, eine Nachricht oder Datei anonym zu teilen. Auf der Blockchain geht das nicht. Der Urheber eines Uploads muss im Zweifel auch dazu stehen, es getan zu haben.

Serverlose Webseiten und ein Internet ohne IP-Adressen

Etwas verwirrender, aber nicht weniger interessant ist ein zweiter Aspekt: Daten auf der Blockchain sind „Webseiten ohne Server“. Sie sind keiner IP-Adresse zugeordnet, die auf eine spezifische, physische Festplatte im Irgendwo hindeutet, sondern der ID einer Transaktion. Im Idealfall kann ein Node – oder ein Lightnode – direkt auf diese zugreifen, indem er sich mit dem Bitcoin-Netzwerk verbindet. Das Metanet bricht die Struktur des Internets auf.

Dass es die Transaktions-ID ist, über die Daten adressiert werden, anstatt einer IP-Adresse, hat einen bemerkenswerten Effekt: Die ID einer Transaktion ist ihr Hash. Ein User kann daher prüfen, ob die Nachtricht korrekt ist, indem er selbst den Hash berechnet.

Abseits des praktischen Nutzens ist das eine interessante Idee. Die Miner oder Full Nodes werden mächtige Knoten im Metanet, sie sind die Datentürme, von denen die anderen ihre Informationen abrufen. Ich habe keine Ahnung, ob das überhaupt viel Sinn ergibt, aber es klingt nach etwas, über das Nachzudenken Spaß macht. Wie werden sie Geld verdienen? Werden sie die Informationen kostenlos hergeben, oder werden sie sie unter Verschluss halten? Wird der Datentausch effizienter, weil er nicht mehr über IP-Adressen geroutet wird? Wird er auch privater, weil er vom physischen Ort entkoppelt ist? Und so weiter.

Praktischer gesehen wird es etwa vorstellbar, dass die Infrastruktur der Software-Entwicklung – Hilfsprogramme, Bibliotheken für die verschiedenen Sprachen, Skripte, Frameworks und so weiter – nicht mehr von einem Server geladen werden müssen, sondern als Teil des Metanets von Grund auf existieren. Keine Abhängigkeit davon, dass der Server sie weiter bereitstellt, kein Risiko, dass sich das Skript ändert und so weiter. Analog zum Archiv des menschlichen Wissens gibt es ein Archiv des Wissens von Software.

Generelle IT-Werkzeuge könnten auf der Blockchain öffentlich zugänglich sein. Ich denke hier natürlich an eine Bitcoin-Wallet, die man an sich, mit Javascript und einem Passwort, auf der Blockchain abspeichern könnte. Prinzipiell könnte man diese Idee so weit treiben, dass einmal in ferner Zukunft ganze Betriebssysteme auf der Blockchain liegen.

Ist das nicht Wahnsinn?

Doch, das ist es. Definitiv. Am vergangenen Wochenende haben einige User – vermutlich nicht mal zehn – größere Dateien auf die BSV-Blockchain geladen, um einen spontanen „Stresstest“ zu veranstalten. Das allein hat bereits Blöcke von Größen von gerne 20 bis 30 Megabyte verursacht. In dieser Woche hat Ryan X. Charles von MoneyButton sich vorgenommen, ein Gigabyte an Bildern onchain zu bringen. Er hat es nicht geschafft, weil er sein eigenes System, MoneyButton, mit der Menge an Daten überflutet hat. Aber es gab auch mehrere Blöcke mit einer Größe von mehr als 50 Megabyte, und, erst heute Nacht: 113 Megabyte.

Was passiert nun, wenn das Tausende machen, so wie auf Twitter oder Instagram? Das weltweite Datenvolumen betrug 2017 23 Zettabyte; bis 2015 soll es auf 175 Zettabyte anschwellen. Ein Zettabyte sind eine Milliarde Terabyte, was üblicherweise der Platz ist, den eine moderne Festplatte hat. Aber natürlich muss man nicht vom weltweiten Datenvolumen ausgehen. Das umfasst so viele Doppelungen, weil so viele Informationen gleichzeitig an so vielen Stellen gespeichert werden, und wie wir oben gesehen haben, ist der Druck, nur vollendete und rechtlich einwandfreie Daten hochzuladen, im Metanet sehr viel größer als im Internet.

Wahnsinn ist es dennoch. Nehmen wir, um klein anzufangen, das digitale Archiv von Bayern. Es umfasst rund 950 Terabyte und wird im Supercomputer-Center des Münchner Leipnitz-Centers gespeichert und gewartet. Es wäre ohne Zweifel nett, wenn das Archiv auf einer Blockchain wäre, anstatt von einem Supercomputer-Center abhängig zu sein. 900 Terabyte entsprechen 900 handelsüblichen Festplatten, oder 9 der bisher größten Festplatten (Stand 2018).

Es wäre zum derzeitigen Zeitpunkt vermutlich absolut unmöglich, einen Full Node zu betreiben, der alle digitalisierten historischen Dokumente Bayerns speichert. Und Bayern ist nur ein Bundesland eines einzigen Staates, und die historischen Quellen nur ein Bruchteil der Daten, die entstehen. Eine Blockchain kann nicht alles speichern, sondern nur einen winzigen Bruchteil, und selbst dies wird ihr extrem viel abverlangen.

Szenarien

Es gibt mehrere Ideen, wie es dennoch Sinn ergibt: Zum einen, weil nicht alles hochgeladen wird. Natürlich. Das hatten wir ja schon. Keine Exabyte an raubkopierten Filmen und Daten, keine Datenberge, die zu unwichtig sind, um eine Upload-Gebühr zu bezahlen, keine Datenbanken, die man privat halten will, uns so weiter. Am Ende entscheidet der Markt, für welche Daten es Sinn ergibt, ins Metanet zu gehen. Vielleicht werden es auch viel weniger sein, als erwartet; und wenn die Infrastruktur unter der Masse bröckelt, können die Miner immer noch das Volumen kappen, um einen Gebührendruck zu erzwingen.

Es wäre also denkbar, dass die Full Nodes gar nicht so groß werden, wie befürchtet. Anstatt aller digitalen Dokumente werden nur Schlüsseldokumente in Reinform abgespeichert, während die anderen indiziert und gehasht werden, um ein Beispiel zu haben.

Zum anderen könnte man spekulieren, ob es nicht doch eine natürliche Form der Datenteilung geben wird: Full Nodes, die nur einen Teil der Daten speichern. Man könnte sich Spezialisten für historische Daten, politische Dokumente, Bilder, Software-Programme und so weiter vorstellen, die einmal Geld dafür verlangen werden, dass jemand die Daten abruft. In letzter Instanz führt dies, um das Szenario weiter zu spinnen, dazu, dass die Miner oder Full Nodes zu etwas ähnlichem wie Internet-Provider werden, die Daten vielleicht nicht nach räumlichen, sondern nach thematischen Aspekten weiterleiten. Dies natürlich wird in Konsequenz nicht so viel am heutigen Modell der isolierten Server ändern, weil dann der Erhalt der Daten wieder von einer – oder wenigen – Instanzen abhängig sein wird.

Aber natürlich gibt es noch ein gigantisches Problem: Der initiale Download der Blockchain. Dieser dauert bereits jetzt, bei etwa 180 Gigabyte, gerne mal einige Tage. Das wird schon bei einigen Terabyte vertrackst, bei Exabyte nahezu unmöglich, und mit Größen von Petabytes zum Jahrhundertprojekt. Selbst wenn jemand in der Lage ist, solche Datenmengen durch eine Leitung zu ziehen, wird es irrsinnig aufwändig, die Blockchain von vorne bis hinten zu validieren. Sollte darauf weithin verzichtet werden, könnten die „Provider von Blockchains“ die Inhalte von Op-Returns verfälschen. Und wenn es nicht mehr unveränderbar ist – was wäre es dann noch wert, sie auf einer blockchain anstatt in der Cloud abzuspeichern?

(Irgend-)ein Fazit

Es ist schwer, ein Fazit über etwas zu schreiben, das erst begonnen hat. Verzweiflung, Unsinn oder Genie? Um etwas zu konstatieren, das auch nur im Ansatz ein Fazit ist, muss man warten, wie es weitergeht. Hat die Welt überhaupt ein Interesse an Blockchain-Speicher? Werden die Metanet-Entwickler sinnvolle Strukturen für das Blockchain-Internet entwerfen und umsetzen können? Wird es an rechtlichen Problemen scheitern? Wird die Datenlast die technologische Infrastruktur zerquetschen?

All das ist, ohne Zweifel, ein Experiment – und zwar eines, das mit der eigentlichen Idee von P2P-Cash zunächst gar nicht so viel zu tun hat. Für diejenigen, die allerdings an „Blockchain“ an sich interessiert sind, könnte Bitcoin SV einen Blick wert sein. Wenn es darum geht, Daten auf eine Blockchain zu bringen, gibt es derzeit kein vergleichbares Werkzeug.

Über Christoph Bergmann (2796 Artikel)
Das Bitcoinblog wird von Bitcoin.de gesponsort, ist inhaltlich aber unabhängig und gibt die Meinung des Redakteurs Christoph Bergmann wieder ---

34 Kommentare zu Das Metanet von Bitcoin SV: Genial – oder doch nur wahnsinnig?

  1. Wie du auch beschrieben hast denke ich kaum, dann sich Speicher für Daten auf der blockchain eine zukunft hat.
    Eine Frage bleibt offen: Wenn Nodes die op_return Daten löschen können, ohne vom Konsens abzuweichen: Warum sollten sie sie behalten und was garantiert mir, dass sie in 1/2/10 Jahren noch da sind? Das klingt für mich etwa so wie alte links der Sharehoster (Rapidshare und wie sie alle hießen). Da gab es auch auf zig Hostern die gleichen Dateien, ein Hash hat validiert dass sie legitim sind, aber eine Uptime-Garantie gibt’s nicht. Und warum was behalten, wenn es eh kaum jemand (gg. Gebühr) runterläd.
    Auf der Blockchain erinnert mich das stark an das Bittorrent Protokoll, oder? Da werden die gleiche Daten auch bei verschieden Peers gespeichert und runtergeladen, was dann die Fullnodes übernehmen würden.
    Alles in allem glaube ich nicht dass sich Daten auf der Blockchain durchsetzten, aber Validierungsdaten/Hashes etc. schon eher. Das wäre auch das einzig neue

  2. Alles, was die Blockchain benutzt, soll gefördert werden; wenn Bitcoin nicht onchain skaliert, so die Ansicht, wird es scheitern. Schließlich werden die Miner in Zukunft, wenn der Blockreward ausläuft, davon abhängig sein, an den Gebühren einer großen Menge Transaktionen zu verdienen.

    Im Grunde richtig, aber die Schlussfolgerung ist trotzdem falsch. Ein Bitcoin (Full) Node hält die Daten, die irgendjemand Mal hinzugefügt hat nicht zum Spaß vor und wird das bei einem debilen Ansatz, alles auf jedem (full) Node zu speichern auch nicht tun. OP_Return Daten sind für Nodes Datenmüll und so lange sie begrenzt sind wie bei BTC oder von mir aus noch BCH wird sie vielleicht kaum jemand prunen, beim Ansatz von BSV gibt es allerdings keinerlei Grund, diese auch überhaupt zu synchronisieren. Transaktionsdaten können zwar auch größtenteils „gepruned“ werden, allerdings sind diese für die Blockchain relevant und es gibt für etliche Nodes einen Anreiz, diese vorzuhalten. Man kann unnütze Metadaten nicht mit essentiellen Daten für die Fortführung der Chain vergleichen, selbst OP_Return bei BTC könnte man als unnötig erachten, aber eben durch die Größenbeschränkung noch irgendwie sinnvoll nutzbar und wahrscheinlich auch durch die meisten Full Nodes vorgehalten, da es kaum ins Gewicht fällt. Wenn SV das anders sieht, warum eigentlich ein Limit auf 100KB und nicht überhaupt keins? Das könnte man auf einem Ripple, EOS oder sonst einer Chain mit einer Handvoll Nodes machen, eine Distribution identischer Daten, die praktisch für das gesamte Netzwerk irrelevant sind, ist tatsächlich Dummfug. Im Vergleich etwa so relevant wie der gesamte Twitter Stream lokal gespeichert, ohne einen Nutzen daraus ziehen zu können…

    Daher könnte es eine strategisch nicht ganz verkehrte Entscheidung sein, die Blockchain auf Teufel komm‘ raus groß zu machen – und selbst dann, wenn man seine Urlaubsfotos in hoher Auflösung auf sie lädt.

    Man macht also ein nicht benutztes Medium noch schwerer zugänglicher, um es relevanter zu machen?

    Günstig, so viel ist klar, sind die Daten onchain schon mal nicht. Wenn man je Byte 1BSV-Satoshi bezahlt, kostet ein Megabyte 0,01 Bitcoin SV, also knapp 60 Cent. Bei gewöhnlichen Festplatten liegt der Preis je Megabyte bei 2 Cent, bei zeitlich begrenzten Cloud-Speichern noch einmal deutlich tiefer. Was also, außer viel Geld für wenig Speicher zu bezahlen, soll man davon haben, Daten auf die BSV-Blockchain zu laden?

    Bis auf den ersten Satz ist alles verdreht. Bei gewöhnlichen Festplatten (HDD) liegt der Preis bei 2 Cent pro Gigabyte, SSD bei 10 Cent pro Gigabyte. Die von Dir genannten Cloud-Speicher kann man allerdings eher mit dem Metadaten-Speicher vergleichen, denn die Daten werden vorgehalten, anders als bei Festplatten, die entweder Strom (und ein System) erfordern oder eben offline sind. Da weiß man allerdings halbwegs, dass die Daten auch in 5 Jahren noch vorhanden sind, wohingegen man bei BSV nicht sicher sein kann, ob in 10 Tagen noch jemand die OP_Returns gespeichert hat oder alle Nodes prunen (was bei einer gewissen Datenmenge plausibel wäre).

    Für diejenigen, die allerdings an „Blockchain“ an sich interessiert sind, könnte Bitcoin SV einen Blick wert sein. Wenn es darum geht, Daten auf eine Blockchain zu bringen, gibt es derzeit kein vergleichbares Werkzeug.

    Sorry, Sia und ähnliche oder sogar das altbewährte Torrent System sind da weiter, denn die Speicherbarkeit bei BSV bringt weder Sicherheit noch ist sie irgendwie sinnvoll skalierbar. Daten aller Nutzer auf jeden Node zu synchronisieren ist einfach ein Fehldesign wie man es sich nur vorstellen kann. Sinnvoll ist daran gar nichts, es ist tatsächlich Wahnsinn und zum Scheitern verurteilt, da es keinerlei Vorteile bringt.

    Und das alles sage ich als Fan von OnChain Scaling. Aber es gibt sehr wenige Daten(typen), die so wichtig wie Transaktionsdaten wären, um sie in einem Netzwerk auf jeden einzelnen Node synchronisieren zu müssen. Das sollte tatsächlich Offchain passieren und nur mittels Hashes / Timestamps etc. abgesichert werden…

  3. Zumindest Upload/Download sollte in naher Zukunft technisch kein Problem sein. Internetverbindungen mit 1 GBit(1000 MBit) sind auf dem Weg – bisher fehlen nur die Anwendungen.

    • Man sollte im Auge behalten, dass ein Node seine Daten mit mehreren anderen synchronisieren muss und 1Gbit/s maximal 128MB/s Datendurchsatz bietet, mit Overhead, Latenzen etc. eher 100. Angenommen man hat „nur“ ein Netzwerk mit 1000 Nodes muss die Gesamtkapazität dafür bereits 1000Gbit/s bzw. 1Tbit/s betragen, auch kein Problem da sich die Bandbreite auf die Nodes verteilt, allerdings ist das schon nicht unerheblich und das bei einer Gesamtkapazität des Netzwerks von gerade Mal 100MB/s. Zum Vergleich: Ein einziger HD-Stream bei Netflix und Co. benötigt bereits 2MB/s, ein UHD-Stream etwa 5MB/s.
      Gegen entsprechende Gebühren bekommt man an seinen Server bei diversen Anbietern auch 10Gbit/s, in guten Rechenzentren sogar 100Gbit/s, das kostet dann aber schon 5-stellig pro Monat und kann ziemlich rasant steigen, je nach Routing-Qualität. Warum sollte ein Miner das für Daten, die ihm kein Geld einbringen, leisten? Selbst bei möglichen Gebühren für ältere Daten wird kaum jemand (Peta/Exa/Zetta/Yotta)Byte an Daten auf Halde vorhalten wollen, da wahrscheinlich fast 100% davon nie auch nur einmal gebraucht werden. Wie gesagt, verteiltes Storage wie Sia / IPFS sind spannende Ansätze, aber eine auf alle Nodes synchronisierte / replizierte Blockchain ist der falsche Platz für einen Datenspeicher.

      • Man sollte im Auge behalten, dass ein Node seine Daten mit mehreren anderen synchronisieren muss und 1Gbit/s maximal 128MB/s Datendurchsatz bietet, mit Overhead, Latenzen etc. eher 100. Angenommen man hat „nur“ ein Netzwerk mit 1000 Nodes muss die Gesamtkapazität dafür bereits 1000Gbit/s bzw. 1Tbit/s betragen….

        Das wäre dann nur BSV.
        Die anderen 1000 Blockchain-Projekte(BCH, IOTA, ETH, XMR, TRX usw.)) die das gleiche Versprechen, kommen ja noch dazu. Wahnsinn….

      • […] die das gleiche Versprechen, […]

        Niemand verspricht, (Full)Nodes als Datenspeicher zu nutzen und eine Replikation auf alle Nodes. Im Gegensatz, die meisten anderen Projekte (zumindest die wenigen mit aktiver Entwicklung) versuchen in der Regel, ihre Transaktionsdaten so effizient wie möglich in die Blockchain zu speichern, damit die Synchronisierung und der Ressourcenbedarf mit steigendem Transaktionsvolumen für den einzelnen Node so niedrig wie möglich bleibt. Selbst „Speichercoins“ versuchen zwar Replikation, aber beschränken sich auf so wenige Nodes wie nötig und sorgen für Anreize, um die Daten tatsächlich vorzuhalten. Falls nur einige Nodes ausfallen, die einen Teil der Daten gespeichert haben, kann man diese ähnlich einem Raid 5/6 mit Hilfe der übrigen wiederherstellen. Die beteiligten Nodes bekommen den Speicherplatz aber tatsächlich auch vergütet und verlieren ggf. ihren Einsatz, wenn sie ihr Versprechen nicht halten können.

        Zusätzlich birgt die Möglichkeit, große Datenmengen in eine öffentliche Blockchain zu schreiben, rechtliche Risiken für Node Betreiber. Im Gegensatz zu verteilten Daten wie IPFS oder Sia, bei denen ein Node nur (verschlüsselte) Teilstücke der Daten speichert, sind diese von einem öffentlichen Node für jedermann zugänglich. Ein Node Betreiber müsste also auch auf Takedown Requests wegen DMCA, Persönlichkeitsrechte oder Verbreitung illegaler Werke reagieren und diese Daten unzugänglich machen / löschen, wie jeder Plattformbetreiber.

  4. Peter Neuer // 29. März 2019 um 6:47 // Antworten

    Alles offensichtlich, BSV wird vor allem von Vertretern fragwürdiger, nach rechtsextrem neigender Meinungen genutzt.
    BSV wird rasch zum Sammelbecken der amerikanischen Alt-Rights, also der neuen Rechten, etwa Alex Jones vom Daily Stormer oder Milo Yiannopolous. Ein Blick auf die Posts im Bereich „Politics“ zeigt das übliche Einerlei: Gegen Muslime, Flüchtlinge, Homosexuelle und Feministen, für die Volkskultur, Todesstrafe, den ach so diskriminierten weißen Mann, das Recht, Muslime zu beleidigen und Waffen zu tragen. Undsoweiter.

    Ohne jemandem zu nahe treten zu wollen, würde ich sagen, auf BSV tummelt sich der Zorn des weißen Mannes der 70er, der nicht damit klar kommt, dass sich die Welt geändert hat. Ist aber nur mein Eindruck, und mir ist klar, dass es gute Gründe dafür gibt, konservativ zu sein, und dass Meinungen ein Spektrum sind, das von moderat bis extrem reicht.
    Seit einigen Monaten steht BSV nun zunehmend unter Druck.
    Nutzer von BSV haben schreckliche Ereignisse vorausgesagt.
    BSV soll finanziell ausgetrocknet werden.
    Man muss eine Meinung nicht mögen, um ihr Recht auf Meinungsfreiheit zu unterstützen. BitcoinSV spricht eine bestimmte Schicht von Menschen an, die in unserer Zeit offenbar das starke Gefühl hat, dass in der Gesellschaft etwas schiefläuft. Sie leiden darunter, dass in Wirtschaft und Politik scheinbar eine Geisteshaltung die Oberhand gewonnen hat, die ihnen zu links, weich, feministisch, asylfreundlich, tolerant, sozialistisch, grün und verkopft ist. Die Wahl von Donald Trump zum Präsidenten der Vereinigten Staaten zeigt besser als alles andere, wie breit die Ablehnung dieser als elitär wahrgenommenen Haltung ist.
    Es könnte aber auch sein, dass Zensur alles nur noch schlimmer macht: dass wichtige Diskussionen blockiert werden, sich bestimmte Gruppen radikalisieren, weil sie sich zensiert fühlen, und der offene Meinungsaustausch in einer Demokratie dadurch ersetzt wird, dass alle sich nur noch in ihren Filterblasen gegenseitig bestätigen. In Deutschland sieht man, was passiert, wenn die großen Medien rechtskonservative Meinungen ignorieren und belächeln – die entsprechende Zielgruppe wandert auf Medien aus, die auf journalistische und ethische Standards pfeifen, um ihre Zielgruppe in dem zu bestätigen, was sie ohnehin schon denken.

    Wenn man Meinungen zensiert, gibt man sie und ihre Vertreter auf und überlässt sie oft Extremismus und Verschwörungstheorien.

    • Hm, danke für die gruppenpsychologischen Mutmaßungen. Aus meiner Interaktion mit BSV-Anhängern kann ich dir sagen, dass du nicht getroffen hast (wobei ich das Phänomen des Zorns des weißen Mannes der 70er durchaus auch wahrnehme,aber nicht besonders stark in BVSV)

      • Peter Neuer // 29. März 2019 um 9:51 //

        Du hast es genau getroffen, weißer alter Mann.
        gab

    • Selten so ein Schwachsinn gelesen.

    • Testwest78 // 14. Mai 2019 um 2:15 // Antworten

      „Alles offensichtlich, BSV wird vor allem von Vertretern fragwürdiger, nach rechtsextrem neigender Meinungen genutzt.“

      Fragwürdige, nach rechtsextrem neigender Meinungen genutzt ist schon bedenklich und knapp vor Nazi?
      Ich würde sagen, daß gehört zu einer Demokratie dazu. Es ist ein Unterschied und nicht alles gleich Nazi, wenn es etwas konservativer ist.

      Die Politik ist sehr weit nach links gerückt. Man muß nur die alten Wahlplakate mit den aktuellen vergleichen.

  5. Ein Zettabyte sind eine Milliarde Terabyte, was üblicherweise der Platz ist, den eine moderne Festplatte hat

    Wo gibt es diese Festplatte und was kostet sie?

  6. Ich glaube, dass komplette Daten auf einer Blockchain zu halten auch nicht das endgültige Ziel sein wird bzw. sein kann. Hashes ja, aber weniger die komplette Daten – von einigen wirklich wichtigen Dokumenten (Magna Carta, Gründungsurkunden etc) mal abgesehen. Es ist schlichtweg auch mit starken Rechnern und viel Bandbreite für die Menge an Daten zu Komplex, einen für alle gültigen Stand (=Blockchain) vorzuhalten.

    Für die wirklichen Datenmasses sind Netzwerke wie Storj in der Entwicklung. Hier werden die Daten derart auf Rechner verteilt, dass einzelne Rechner ausfallen können und trotzdem alle Daten erhalten bleiben bzw. im Netzwerk wieder hergestellt werden können. Da kann ich mir vorstellen, dass jeder Storj-Node einen Teil seiner Kapazität für „gemeinnützige“ Daten wie Archive bereitstellt. Dieses Netzwerk funktioniert dann auch ökonomisch und der vorhandene Speicherplatz wird bestmöglich genutzt. Und dort ist es auch kein Problem, in größeren Dimensionen (Petabyte, Exabyte…) zu denken.

  7. Danke für den wirklich gut zusammengefassten Artikel. Im Metanet steckt auf jeden Fall viel Potential.

  8. Die taufrischen Metanet-Anwendungen erinnern an das Internet der neunziger Jahren. Ich würde dennoch die Kraft einer skalierenden Blockchain nicht unterschätzen. Und Bitcoin war von Anfang so entworfen, das es skalieren kann. Geschäfte, die in 15 Jahren nicht auf Bitcoin sind, sind möglicherweise wie Geschäfte, die heute ohne Internetpräsenz sind.
    Die „bestimmte Person“ hat bereits in einem Interview am 10 Juli 2014 in Melbourne/Australia Ideen vorgetragen, was Bitcoin verändern kann. So neu sind die Ideen nicht, aber mit BSV eine Umsetzung nun möglich. Hier der erste Teil einer dreiteiligen Doco.

  9. „What was the price when you first came in?“ … „Ähm, there wasn’t a price“
    🙂

  10. schöner blogbeitrag und fast der einzig deutschsprachige zu dem thema. danke!

  11. Der Killer-Use-Case von OP_RETURN ist nicht die Datenspeicherung, sondern die Datenübertragung! Das Schöne an OP_RETURN ist, dass dieser in Transaktionen übertragen werden muss, damit andere Miner die Transaktion validieren können, aber trotzdem gepruned werden kann. D.h. deine bitcoin-Transaktion, welche einen OP_RETURN output enthält, ist prinzipiell dein Datenpaket.
    Dadurch lassen sich alte Ideen für Peer-to-Peer Netzwerke nun mit einem angemessenen Anreizsystem implementieren, indem die Anreize existiert, Daten an Peers zu übertragen, und eine Node zu betreiben (Betreiber werden durch Bereitstellung von Daten aus der Blockchain belohnt).

    • Ja, ich habe ziemlich lange gebraucht, um diese Idee zu verstehen. Ziemlich brilliant.

      Mal wieder einer der Fälle, in denen CSW ein Brökchen hinwirft, und nach langem Nachdenken wird klar, dass es Sinn ergibt.

      • Es mag sinnvoll klingen, ist es aber in meinen Augen leider nicht, wenn man diesen Gedanken weiter spinnt.

        Miner haben in der Tat einen Anreiz (oder sogar eine Art Voraussetzung), alle Transaktionen komplett zu synchronisieren um diese zu verifizieren und ggf. in einen Block zu „packen“, diese werden auch alles synchronisieren (müssen), aber bereits nach dem nächsten Block können sie OP_Return prunen, da es dann bereits unnütz für sie ist. Wie man an der Professionalisierung des (ASIC) Minings sieht, wird jedes Quäntchen genutzt und wenn stärkere Bandbreite einen Vorteil bringt, wird diese auch implementiert, wenn Pruning keinen Nachteil bringt (sondern Kosten- & Effizienz-vorteile) wird dieses ebenso eingesetzt sobald dies sinnvoll erscheint (beim aktuellem Datenaufkommen wohl kaum). Interessant bei einer rasanten Blocksize Erhöhung wäre die Rolle der Great Firewall zu beobachten, denn entweder bootet diese China aus oder den Rest der Welt, falls der Großteil der Hashrate aus China kommt und entsprechend große Blöcke nicht schnell genug in den Rest der Welt propagiert werden sollten.

        Bandbreite, nicht Storage ist nunmal der größte/engste Flaschenhals im Netzwerk und diesen sollte man so weit wie möglich optimieren, wenn man irgendwie skalieren will. Wie soll ich mir ein P2P System vorstellen, wenn es nur eine Hand voll Mining „Nodes“ (also die einzigen übriggebliebenen Pools) auf der Welt gibt, die die Blockchain tatsächlich synchronisieren? Diese werden ganz sicher keine „alten“ Blocks mit anderen Nodes teilen, denn das kostet sie nur Bandbreite, wenn sie die unnötigen Daten überhaupt selbst mittelfristig vorhalten und nicht direkt nach der Validierung prunen… Torrents funktionieren auf einem sozialen Konsens und jeder hält diejenigen für andere bereit, die er für wichtig erachtet. Niemand synchronisiert das gesamte Netzwerk wie z.B. im Usenet (wo man die Serverbetreiber mit entsprechender Retention an einer Hand abzählen kann, die meisten Anbieter koppeln sich an diese). Diese Usenet Betreiber haben allerdings einen finanziellen Anreiz, alle Daten zu synchronisieren und vorzuhalten…

        Analog zu einer Datenbank sollte man (binäre) Daten (meist) nicht darin speichern, sondern nur Verweise auf den Speicherort, da dies deutlich effizienter ist.
        Bei einer dezentralen Blockchain wird dies noch viel deutlicher als bei einer (lokalen) Datenbank…

      • Zum ersten Punkt: Eventuell werden die Miner die alten Transaktionen prunen, falls sich der Aufwand lohnt (Festplattenspeicher ist günstig, für Facebook ist es z. B. einfacher, alles zu behalten, also zu löschen). Wenn es denn so kommt, wird es vermutlich Cloud-Nodes geben, die die Daten speichern und über irgendein Geschäftsmodell hergeben.

        Den zweiten Teil verstehe ich nicht. Wenn Bandbreite der Flaschenhals ist, und nicht Storage – wo ist dann das Problem? Bei der Synchronisierung? Für die braucht man eventuell die return-Daten gar nicht. Sind ja nicht ausgebbar, daher ist es auch egal, ob man sie im Original validiert …

        Anstatt Daten nur die Verweise zu speichern, ist eine Möglichkeit, aber es erfüllt halt einen anderen Zweck.

  12. Svlooolmaidsafeftw // 30. März 2019 um 13:31 // Antworten

    Christop hättest du lieber die Zeit gespart und in Research von Maidsafe investiert und uns das näher gebracht haha

    Mfg

  13. Zum ersten Punkt ist tatsächlich Storage eigentlich kein Problem, aber wenn es unnötig ist, wird es wegrationalisiert, auch wenn es nur 1% der Kosten verursacht.

    Bei der Bandbreite ist es schwieriger, denn diese ist in der Tat sehr begrenzt, auch wenn „starke“ Nodes an 1-100Gbit/s kommen könnten muss sich der Aufwand dafür lohnen. Und dieser lohnt sich erst ab etlichen Blöcken pro Monat/Woche/Tag und damit kommen wir zur Zentralisierung des Minings. Warum sollte ein solche Mining Node Tx mit Dir synchronisieren? Ausgehend… Eingehend kann er erstmal alles akzeptieren. Synchronisierung wird am Ende nur zwischen den relevanten Mining Nodes stattfinden. Eingehende Transaktionen werden stets verarbeitet / verifiziert / evtl. aufgenommen aber den Node anderen Teilnehmern des Netzwerks Tx verschicken zu lassen ist (Bandbreiten)Verschwendung.

    Egal wie man es sieht, läuft es auf eine sehr starke Zentralisierung auf einen oder wenige (mining) Nodes hinaus, die die Blockchain überhaupt synchronisieren. Ein „normaler“ User kann nicht einmal von den P2P Funktionen profitieren, da er von den Mining Nodes nicht wahrgenommen und als Overhead rationalisiert wird.

    • Du gehst immer noch von der unsinnigen Annahme aus, dass jeder „normale User“ ein Full Node ist. Das macht keinen Sinn und war auch nie beabsichtigt. Die Nodes(=Miner) bilden ein Small World Network. Aus Sicherheitsgründen muss jeder Node innerhalb 3 Hops erreichbar sein.

      Siehe auch:
      https://medium.com/@craig_10243/the-asic-myth-583aefbecce3

      • Warum unterstellst Du mir diese Annahme? Ich gehe in meinen Behauptungen durchaus darauf ein, dass es nur finanziell vergüteten Nodes möglich sein wird, diese auch zu betreiben. Je höher die Hürde jedoch wird, desto mehr prozentuale Hashrate muss dieser Miner auch besitzen, um wirtschaftlich zu sein und das läuft eben auf eine gewisse Zentralisierung hinaus, denn für einen Node, der wenige Blöcke pro Monat findet, wird die Synchronisierung irgendwann zu aufwendig.
        Und letztendlich reicht es für die wenigen übrigen Nodes, untereinander synchron zu bleiben und „Außenstehenden“ keinen Sync anzubieten, da dieser ihnen nicht (direkt) nützt.

      • noname // 1. April 2019 um 16:29 //

        Sorry, dann war das ein Missverständnis meinerseits.

  14. herzmeister // 1. April 2019 um 21:20 // Antworten

    „Verwirrend“ aber „interessant“, lol, das Konzept von Content-Addressing statt Location-Addressing gibt es seit BitTorrent, IPFS, ZeroNet und wie sie alle heißen, das ist nicht die Erfindung von faketoshi.

    Und bei BSV sind die Daten auch nicht „ewiger“ als bei den genannten Netzwerken. Es gibt bei BSV ebenso keine Garantie und keinen Anreiz, dass Nodes und Miner (ist bei denen ja dasselbe ne?) die „Zusatzdaten“ für immer und ewig behalten und serven, nur weil ein Miner beim Erstellen des Blocks mal dafür abkassiert hat.

    Benutz das richtige Werkzeug für den Job. Wenn du Cloud willst benutz Cloud. Und wenn man dezentrale Cloud will, muss man das eben auch richtig bauen, anscheinend haben Sia, Storj und wie sie alle heißen allerdings ein paar fundamentale Probleme noch nicht gelöst, da bräucht’s wohl noch ein paar Durchbrüche in der Forschung. Aber zumindest ist es kein so hanebüchender Unsinn (nicht mal „Wahnsinn“, eher einfach nur Blödsinn) wie das, was man bei BSV hier versucht und so tut, als ob das Konzept nicht broken by design wäre. Flat-Earther wär auch noch ein guter Vergleich.

    Aber sehr befriedigend zu sehen, dass die ganzen Wahnsinnigen, die nur alles kaputt machen würden, endlich weg sind von Bitcoin.

    • Aber sehr befriedigend zu sehen, dass die ganzen Wahnsinnigen, die nur alles kaputt machen würden, endlich weg sind von Bitcoin.

      Keine Sorge, die sind noch da. Alleine das starre Blocksize Limit mit eingebautem „Halvening“ sind wahnsinnig und da sehe ich derzeit wenig Bewegungspotenzial…

    • >“Aber sehr befriedigend zu sehen, dass die ganzen Wahnsinnigen, die nur alles kaputt machen würden, endlich weg sind von Bitcoin.“

      Lol, wer im Glashaus sitzt … hast du jemals das Whitepaper gelesen?
      Technisch gesehen ist BSV der Original Bitcoin. BTC hat da schon ziemlich viel kastriert und kaputt gemacht und entfernt sich mit den Änderungen immer mehr davon. Fragt sich wer die Wahnsinnigen sind.

  15. Das Problem mit der Chain-Größe ist nicht spezifisch für Nutzung als Dateispeicherort. Das Ziel ist ja, massives Transaktionsvolumen zu haben. Früher oder später müssen Heimanwender also so oder so auf ihre Full Nodes verzichten.

    Das Uploaded von Bildern usw. halte ich für einen Gag, um das Prinzip zu demonstrieren, dass man keine Angst vor Nutzung des Speicherplatzes haben muss. Nützlich ist das natürlich nicht.

    Technisch gesehen wären 900TB kein Problem. IT-seitig hat man für sowas Lösungen. Z.B. kann man Serverpools zu einem logischen „Laufwerk“ zusammenschließen und so beliebige Mengen Speicherplatz einer Software zur Verfügung stellen. Das ist ein gelöstes Problem, aber natürlich nur für ernsthafte Unternehmen tauglich. In der Cloud kann man sowas aber auch sehr einfach und zuverlässig tun.

    Was das Metanet überhaupt ist, weiß ich aber immer noch nicht 🙂

Schreibe eine Antwort zu JeAntwort abbrechen

Entdecke mehr von BitcoinBlog.de - das Blog für Bitcoin und andere virtuelle Währungen

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen