Newsticker

Das schwierige Problem, im KI-Zeitalter zu beweisen, ein Mensch zu sein

Aus dem Image-Video von Worldcoin

Die kontroverse Kryptowährung Worldcoin ist gestern gestartet. Das Projekt soll Usern erlauben, zu beweisen, dass sie menschlich sind, und sie berechtigen, ein Grundeinkommen zu beziehen. Damit möchte OpenAI-Gründer Sam Altman den Herausforderungen der Künstlichen Intelligenz begegnen. Doch es hagelt auch Kritik.

Gestern ging Worldcoin (WLD) nach drei Jahren Vorbereitung offiziell live. Das Projekt spaltet die Kryptoszene. Die einen beäugen es mit Neugier, die anderen lehnen es hart angewidert ab. Selten war ein neuer Coin so kontrovers!

Wir versuchen hier, eine Schneise durch das Dickicht zu schlagen, so dass ihr euch idealerweise eure eigene Meinung bildet. Wir stellen Worldcoin vor, erklären die Idee dahinter, nennen die Kritik daran, im Allgemeinen und im Speziellen, und steigen dann tiefer in die Umsetzung ein.

Also, mir nach!

Aidrop auf Iris-Scan

Worldcoin hat das Glück, einen prominenten Gründer zu haben: Sam Altman von OpenAI. Falls ihr es nicht wissen: OpenAI hat Künstliche Intelligenz mit ChatGPT populär gemacht, wird mit 30 Milliarden Dollar bewertet und rangiert auf der Liste der „Disruptor 50“ auf Platz Eins.

Die Reputation von Altman dürfte es Worldcoin geholfen haben, ein Investment von 116 Millionen Dollar einzuholen. Unter den Geldgebern findet man die üblichen Verdächtigen, etwa Andreesen Horowitz, Coinbase, Coinfund, Reid Hoffman sowie Gründer von Solana, Polkadot und vielen anderen Web3-Projekten.

Worldcoin ist zugleich ein Projekt und ein Token. Das Token, WLD, läuft auf Ethereum und dem Rollup Optimism. 75 Prozent der insgesamt 10 Milliarden Token werden per Aidrop ausgeschüttet, die restlichen 25 Prozent an Investoren und das Team verteilt.

Um am Airdrop teilzunehmen, muss man einen sogenannten „Orb“ aufsuchen und sich an diesem die Iris scannen lassen. Dafür erhält man 25 WLD-Token sowie eine „World ID“, die wohl als Soulbound-Token designt ist, so dass sie die Wallet nicht verlassen kann. Die WLD-Token bekommt man aber nur, wenn sie in der Jurisdiktion erlaubt sind, was etwa in den USA nicht der Fall ist.

Die World ID ist das Herz des Projektes: Sie erlaubt es jedem, zu beweisen, ein Mensch zu sein.

Bisher hat Worldcoin 1.500 „Orbs“ in 35 Städten verteilt, an denen sich rund zwei Millionen Menschen registriert haben. In Deutschland kann man die Orbs laut Webseite in Berlin und laut anderen Berichten auch in München aufsuchen. In Bayern leitete das Landesamt für Datenschutzaufsicht allerdings eine Prüfung ein, da eine „Datenverarbeitung mit hohen Risiken für die Betroffenen“ vorliege.

Von den insgesamt geplanten 10 Milliarden Worldcoin-Token existieren derzeit etwa 100 Millionen. Bei einem Wert von aktuell zwei Dollar fünfzig je Coin ergibt das eine aktive Marktkapitalisierung von 250 Millionen Dollar, die aber rasant mit der Anzahl von Menschen steigt, die die Orbs aufsuchen. Die Menge der Token ist für 15 Jahre auf 10 Milliarden fixiert, danach vermehrt sie sich mit einer Inflation von 1,5 Prozent.

Durch diese 1,5 Prozent soll eine Art „universelles Grundeinkommen“ finanziert werden, indem jeder User ein WLD je Woche erhält, so der bisherige Plan.

Es ist schwer vorstellbar, wie die die Token-Ökonomie auf 8 Milliarden Menschen skaliert. Die Zahlen gehen nicht auf. Eventuell nehmen nur die ersten paar hundert Millionen Early Adopter am Airdrop teil, und für alle weiteren soll die World ID Motivation genug sein.

Wenn sich Dystopie und Shitcoin treffen

Die Kritik an Worldcoin liegt nahe. Man muss nur die Videos sehen, in denen Leute brav zu den Orbs pilgern, in einer Schlange anstehen und sich ihre Iris scannen lassen – für lachhafte 25 WLD, die Worldcoin sowieso aus heißer Luft geprägt hat. Es erinnert an eine der Doctor Who Folgen, in denen Aliens London erobern.

Wem es bei Worldcoin nicht etwas schaudert, dem mangelt es an Sinn fürs Dystopische. Das ist wie von der schrecklichen Serie Black Mirror abgeschrieben. Wer kann ernsthaft wollen, dass Menschen etwas so einzigartiges und dauerhaftes wie ihre Iris in einer öffentlichen Datenbank speichern? Was wenn was schief geht, trotz aller Beteuerungen?

Und, ganz bitter: Werden hier genau die Menschen, die in kläglichster Armut leben, für ein paar Einheiten eines Shitcoins um das letzte beraubt, das ihnen noch bleibt – um ihre Identität? Worldcoin wirkt, als monetarisiere Sam Altman seine gute Reputation mit einem Shitcoin, ohne Rücksicht auf die Verluste anderer und ohne Skrupel, womöglich Millionen oder Milliarden Menschen in eine Überwachungsdystopie hinein zu ziehen. Wenn einmal die Iris im System ist, kann man sie nie wieder ändern.

Es gibt gute Gründe, Worldcoin grundsätzlich abzulehnen. Aber bevor man das macht, sollte man anhören, was Sam und seine Mitgründer erreichen wollen.

Die Notwendigkeit, in einer Welt der KIs zu beweisen, ein Mensch zu sein

Man kann Sam Altman vieles vorwerfen, aber gewiss nicht, dass er zu wenig über KIs nachgedacht hat. Mit Worldcoin reagiert er auf zwei Probleme, die entstehen können, wenn sich die Technologie durchsetzt:

1.) KIs sind seit ChatGPT imstande, Text so zu formulieren, dass die meisten Menschen nicht erkennen, ob sie mit einem Programm oder einem Menschen kommunizieren. Sie bestehen den Turing-Test, was ein riesiges Problem sein kann. Es öffnet etwa einer beispiellosen Manipulation der öffentlichen Meinung Tor und Tür und macht es unmöglich, Texten, Videos und Tönen zu vertrauen.

2.) KIs werden immer mehr Arbeiten übernehmen – vor allem wenn sie in humanoiden Robotern integriert werden – und damit auch Werte schaffen. Das ist gut, da der Wohlstand zunimmt, wenn man ihn mit weniger menschlicher Mühsal schafft. Doch keiner weiß, wie man ihn ohne den Hebel der Arbeit verteilt.

Worldcoin versucht beide Probleme simultan zu lösen. Die World ID dient als „Proof of Personhood“ (PoP): Als Beweis, dass man ein Mensch ist. Ein Mechanismus wie sie kann schon in naher Zukunft zwingend notwendig sein, um soziale Medien erträglich zu machen und im Internet den Verstand zu behalten.

Die World ID kann darüber hinaus zur Grundlage eines „nichtstaatlichen, KI-generierten universellen Grundeinkommen und der fairen globalen Verteilung digitaler Währungen“ werden. Künstliche Intelligenzen arbeiten, und ihr Lohn wird an jeden verteilt, der beweisen kann, ein Mensch zu sein.

Trotz aller Skepsis vor der Dystopie, die in Worldcoin liegt, muss man anerkennen, dass es keine schlechte Idee ist, vielleicht sogar eine notwendige. Wie sonst soll man die Wahrheit in einer Welt erhalten, in der KIs Millionen von Nachrichten je Sekunde veröffentlichen können? In der KIs, die Informationen tausendfach schneller verarbeiten, die Menschen gezielt manipulieren? Wie soll man den Wohlstand, den KIs schaffen, abschöpfen, anstatt krampfhaft an jedem Job festzuhalten, obwohl ihn Computer günstiger, schneller und besser erledigen können?

Vermutlich geht es weniger um die Frage, ob man einen „Proof of Personhood“ gut oder schlecht findet – sondern wie man den Vorschlag von Worldcoin bewertet, einen solchen zu schaffen.

Der ideale Proof of Personship

Man muss den Worldcoin-Machern zugestehen, dass sie sich Mühe geben, es richtig zu machen: Die beteiligte Software und Hardware ist weitgehend Open Source, das Startup achtet darauf, die Privatsphäre der User zu achten, und es erklärt seine Absichten und Motive in einer vorbildhaften Ausführlichkeit. So viel Transparenz ist selten.

Aber ist der Iris-Scan wirklich der goldene Weg zum Proof of Personhood?

An sich gibt es bereits viele Mechanismen, um zu beweisen, ein Mensch zu sein. Am häufigsten setzt man dabei auf Ausweise oder vergleichbare Dokumente, die man bei einer Bank oder Börse einreicht, oft per Video-Ident. Da man diesen Beweis immer wieder erbringen muss, schafft er einen unschönen Datenbestand mit Videos und Ausweisbildern, der besser nicht in Darknet gelangt. Das macht den aktuellen Standard zur vermutlich schlechtesten Option.

Es gab immer wieder Versuche, solche PoPs zu tokenisieren, etwa mit KYCT vom deutschen Startup Ubirch. Doch bislang konnte sich keines dieser Token durchsetzen, vielleicht, weil es noch keine griffigen Ansatz gibt, den Verkauf von Identitäten zu verhindern.

Andere Varianten sind Online-Accounts, in sozialen Medien, Foren oder Blogs, ein „Web of Trust“, in dem andere die Menschlichkeit bestätigen, oder soziale Graphen, in denen ein Algorithmus aufgrund der Online-Aktivität erkennt, ob man ein Mensch ist. Jedes dieser Verfahren hat Vor- und Nachteile.

Die einzige Methode, die für Worldcoin alle Anforderungen erfüllt – die privat, dezentral, inklusiv und betrugssicher ist – ist die Biometrik: Man beweist durch körperliche Merkmale, ein Mensch zu sein. Das werden KIs vorerst nicht fälschen können.

Auch das ist nicht neu. Smartphones erkennen „ihre“ Menschen bereits durch eine FaceID. Diese biometrische Methode ist gut genug, um das Passwort in Smartphones zu ersetzen. Doch sie reicht, erklärt Worldcoin, nicht aus, um eine globale Einzigartigkeit unter Milliarden anderer Menschen zu schaffen. False Positives, also falsche Treffer, können dazu führen, dass viele User ungerechtfertigt abgelehnt werden. Man will nicht vor einem Orb stehen und dann erfahren, dass es leider keine ID mehr für seine Visage gibt.

Der Scan einer Iris hingegen ist viel weniger anfällig für Irrtümer. Die Rate falscher Treffer lag schon vor zwei Dekaden bei eins zu einer Billion, und eine Iris verändert sich im Lauf der Zeit viel weniger als ein Gesicht. Daher hat sich Worldcoin für diese Methode entschieden.

Orbs und Snarks

Für die technische Umsetzung der Iris Scans sorgt der Partner von Worldcoin, das Startup „Tools for Humanity“, das Sam Altman mit Alex Blania gegründet hat.

Das Unternehmen stellt die „Orbs“ her. Diese Geräte „nutzen verschiedene Neuronale Netzwerke, um die Lebendigkeit und Einzigartigkeit [einer Iris] zu validieren, ohne ein Bild zu speichern, und ein KI-sicheres PoP-Zertifikat herauszugeben.“ Die Hard- und Software der Orbs ist Open Source, so dass auch andere Anbieter sie herstellen können, was wohl nötig sein wird, wenn Worldcoin plant, in den kommenden zehn Jahren einige Milliarden Menschen zu registrieren.

Sobald der Scan abgeschlossen ist, signiert der Orb eine Art Hash der Iris. Es handelt sich dabei um keinen gewöhnlichen Hash, sondern einen speziellen Algorithmus, der durch Machine-Learning in der Lage ist, mit der unvollständigen Exaktheit aller biometrischen Scans umzugehen.

Diese Hash wird in eine Datenbank hochgeladen. So können die Orbs prüfen, ob die Iris einzigartig ist, und verhindern, dass Leute eine doppelte World ID generieren. Diese Hashes liegen zur Zeit noch auf einem zentralen Server, sollen aber auf eine dezentralisierte Blockchain gebracht werden.

Um zu beweisen, dass er ein Mensch ist, kann der Besitzer der World ID einen Zero-Knowledge-Proof generieren, einen sogenannten ZK-SNARK. Dieser macht etwas Zauberhaftes: Er beweist, dass der User den privaten Schlüssel für einen öffentlichen Schlüssel in der Datenbank hält – ohne zu enthüllen, welchen öffentlichen Schlüssel.

Auf die Art minimiert Worldcoin die privaten Daten, die bei einem Leak an die Öffentlichkeit gelangen können.

Was Vitalik Buterin an Worldcoin kritisiert

Die Macher von Worldcoin haben erkennbar darüber nachgedacht, wie sie es richtig machen, und sie legen mit guten Gründen dar, warum sie sich für welche Lösungen entschieden haben. Wenn man die Idee eines Proof of Personhood unterstützt, dürfte Worldcoin nicht der schlechteste Ansatz dafür sein.

Dennoch kann man viele Designentscheidungen skeptisch sehen. Der Ethereum-Mitgründer Vitalik Buterin hat auf seinem Blog eine ausführliche Kritik an Worldcoin veröffentlicht. Grundsätzlich möchte auch er einen Proof of Personship, deshalb ist von ihm keine fundamentale, sondern nur pragmatische Kritik zu erwarten.

Vitalik Buterin erkennt an, dass Worldcoin mit den Orbs und Snarks die Privatsphäre der User schützt, und lobt es, dass das Projekt plant, sowohl Governance als auch Datenbank in Zukunft zu dezentralisieren. Er fürchtet aber, dass dies wie bei vielen anderen Projekten im Sand verläuft, und er ist skeptisch, ob der Scan der Iris nicht unabsichtlich zu viele Informationen enthüllt.

Ein Problem sieht er auch bei der Verfügbarkeit von Orbs. Es wird nicht so schnell so viele geben können, dass sich jeder in der Welt registrieren lassen kann. Die versprochene vollständige Inklusion wird schwer einzulösen sein. Dafür sorgt auch die seltsame Token-Ökonomie, die es rein rechnerisch unmöglich macht, mehr als ein paar hundert Millionen Menschen mit dem Aidrop, geschweige denn einem Grundeinkommen zu beglücken.

Das größte Risiko erkennt er aber in den Orbs selbst. „Wir haben keine Möglichkeit, zu verifizieren, dass die Hardware korrekt konstruiert wurde und keine Backdoors hat.“ Selbst wenn die Software perfekt ist, sind dennoch Backdoors möglich, die es etwa erlauben, menschliche Identitäten zu fälschen. Allein die Möglichkeit dürfte dem Vertrauen in Worldcoin großen Schaden zufügen.

Fraglich ist auch, ob das System zuverlässig genug ist. Kann in Zukunft eine KI Augen 3D-drucken, die echt genug sind, um die Orbs zu überlisten? Sobald dies möglich ist, kann man unendlich viele Identitäten erzeugen. Hat Worldcoin damit schon heute ein Verfallsdatum einprogrammiert?

Bereits jetzt zeigt sich, dass ein Mechanismus fehlt, um den Verkauf von Identitäten zu verhindern. Berichten zufolge gibt es bereits Schwarzmärkte für World IDs auf Telegram. Eine Antwort, wie man damit umgeht, hat Worldcoin bisher nicht geliefert. Vielleicht, weil es keine gibt, da es Identität ein soziales Problem ist, das man mit einer Technologie niemals vollständig lösen kann.

Das alte Problem mit den Airdrops

Es ist typisch für die Krypto-Szene, sich den Kopf über tausend technische Fragen zu zerbrechen und jedes Details bis zum Erbrechen zu diskutieren. Eine Frage übergeht man jedoch gerne: Kann sich eine Sache überhaupt am Markt durchsetzen?

999 von 1.000 Krypto-Projekten scheitern nicht daran, dass es technische Probleme gibt – sondern daran, dass es keinerlei Bedarf am Markt gibt. Selbst Technologien, an deren Brillanz kein Zweifel besteht, etwa MimbleWimble oder Zcash, scheitern am Markt, nachdem sie das Labor verlassen haben.

Die Idee, ein Token per Airdrop an ausgewählte Individuen zu verteilen, ist alles andere als neu. Sie geht soweit ich weiß auf Auroracoin zurück, eine Kryptowährung, die im Jahr 2014 nur an Isländer ausgeschüttet wurde. Später hat Stellar seine Lumen-Token teils exzessiv per Airdrop verteilt, etwa für Anwendungen wie SatoshiPay oder an User von Keybase. Auch El Salvador hat alle Bürger, die die Chivo Wallet benutzen, mit etwa 30 Dollar in Bitcoin belohnt.

All diese Versuche, eine Kryptowährung durch Airdrops ins Leben zu bringen, haben eines gemeinsam: Sie sind krachend gescheitert. In jedem einzelnen Fall haben sich die Menschen die kostenlosen Coins gerne abgeholt – und unverzüglich gegen Bares oder Stablecoins, Bitcoin, Ethereum oder Dollar getauscht. Wer will schon etwas behalten, was jedem geschenkt wird, wenn er auch etwas haben kann, das einen Preis hat? Ein Ökosystem entstand nirgends, selbst in El Salvador nur in Ansätzen, obwohl mit Bitcoin immerhin ein stabiler und global anerkannter Coin verteilt wurde.

Die Frage ist daher: Warum sollte das, was bisher zuverlässig gescheitert ist, bei Worldcoin funktionieren? Wie sollte das WLD-Token jemals einen Wert haben, wenn Millionen oder Milliarden an Menschen es umsonst bekommen? Und wie soll man ein Grundeinkommen in einem Token auszahlen, das keinen Wert hat?

Weil OpenAI-Gründer Sam Altman mit dabei ist? Weil Worldcoin nicht nur einen Coin ausschüttet, sondern auch eine ID, die beweist, dass man ein Mensch ist? Weil Worldcoin mit den Orbs das bisher durchdachteste und raffinierteste System vorstellt, um die Identität als Mensch zu beweisen?

Solche Fragen sind schwer zu beantworten. Ebenso schwer ist es, zu sagen, was wünschenswert wäre. Auf der einen Seite gibt es wenig Alternativen zu einem Proof of Personhood, wenn man ernsthaft über die Konsequenzen einer Künstlichen Intelligenz nachdenkt. Die Orbs sehen aus wie aus einem dystopischen Alptraum, und vielleicht sind sie das auch, aber die Alternative, ein Internet, in dem KIs und Menschen nicht länger unterscheidbar sind, ist nicht weniger gruselig.

Doch selbst ein so durchdachtes System wie das von Worldcoin zeigt bereits jetzt Schwächen, die auf dezentrale Weise schwer zu überwinden sind, vielleicht auch unmöglich.

Über Christoph Bergmann (2639 Artikel)
Das Bitcoinblog wird von Bitcoin.de gesponsort, ist inhaltlich aber unabhängig und gibt die Meinung des Redakteurs Christoph Bergmann wieder ---

14 Kommentare zu Das schwierige Problem, im KI-Zeitalter zu beweisen, ein Mensch zu sein

  1. Fraglich ist auch, ob das System zuverlässig genug ist. Kann in Zukunft eine KI Augen 3D-drucken, die echt genug sind, um die Orbs zu überlisten?

    Reichen nicht auch Kontaktlinsen mit dem Aufdrucken einer künstlichen Iris, die einer auch Lebendprüfung in den Augen eines Nutzers standhalten können und so weitere Nutzeridentitäten erlauben.

  2. Wenn es für jede menschliche Identität etwas geschenkt gibt, kann man sich ohne große Mühen überlegen, wozu das führen wird: den schwachen wird die Identität abgenommen. Wer mehr Identitäten sammeln kann, ist im Vorteil. Gut möglich, dass skrupellose Menschen sogar Babies in die Welt setzen, deren Iris scannen lassen und sich ihrer anschließend gleich wieder entledigen …

    Die Alternative, keine echte PoP zu haben schreckt mich hingegen nicht: auch eine KI kann als eigene Identität oder Individuum betrachtet werden. Wenn eine KI bspw. konstant guten Journalismus abliefert, ist das doch ein Mehrwert für alle. Auch eine KI wird letztlich unter einem Namen, bspw. einer bestimmten geschützten Domain, veröffentlichen und hat dann ihren guten Ruf zu verlieren. Das andere Szenario, dass Menschen sich ihre Karriere durch Verwendung einer KI pimpen lassen (d.h. das schnelle und unreflektierte sich-zu-eigen-machen von Daten/Fakten/Wissen), geht auch nur in Grenzen. Ich bin außerdem überzeugt, dass das jeweils irgendwann auffliegen wird. Spätestens dann ist der gute Ruf ruiniert, weshalb sich das viele zwei Mal überlegen werden.

    • Sehr guter Punkt. Ich denke auch, man wird KIs von Menschen nicht dauerhaft unterscheiden können. Schliesslich geht es in dem gerade entstandenen Hype genau darum, KIs immer menschlicher werden zu lassen. Sobald man Dinge findet die die KI nicht kann dauert es i.d.R. gar nicht solange bis zu einem Fix.

      Das massenhafte Abgreifen von Resourcen muss man trotzdem verhindern, da es ein System andernfalls immer zum Zusamenbruch (bzw. in die Wirkungslosigkeit) bringt.

      Bzw. vielleicht schafft man es ja eher umgekehrt, indem man das Ausnutzen eines Systems extrem leicht macht, es aber automatisch zur Zerstörung eines Systems führt, wenn man das tut.

      Wie man beim letzten Tornado Cash Hack gesehen hat, bringt das Hacken einem Hacker gar nichts, wenn er sich damit selbst die letzte Lebensader durchschneidet.

  3. Ab 2024 soll in der EU die digitale ID ausgerollt werden. 2030 sollen alle EU-Bürger diese besitzen. Mit „ID Austria“ ist Österreich Vorreiter. In Äthiopien soll die Nationalbank für das ID-System „Fayda“ („Wert“) die Iris aller Einwohner erfassen. Wer Banken nutzt, wird „Fayda“ brauchen. Die Open-Source-ID-Plattform wurde in Indien entwickelt und u.a. von der Bill & Melinda Gates Stiftung gefördert. „Das UN-Ernährungsprogramm erklärte, über das Maß des Diebstahls in Äthiopien entsetzt sein, da Rationen gestohlen werden. Man forderte biometrische Kontrollpunkte, bevor es zu Nachschub gibt….“

  4. Vielleicht habe ich die ganze Materie noch nicht ganz durchdrungen, aber was ist am Scannen der Iris prinzipiell schlimmer, als wenn man bei der Beantragung seines Ausweises auch gleich noch den Fingerabdruck mit abgeben muss? Das Geschäft mit gefälschten Ausweisen und Identitäten gibt es auch heute noch, und wird es wohl auch immer geben. Von meinem Bauchgefühl her würde ich meinen, dass der Ansatz von PoP ein Schritt in die richtige Richtung ist. Nichts ist perfekt und nichts wird ewig halten, aber immer noch besser als vor lauter Zweifel ins Nichtstun zu verfallen, und die KI auf einen unkontrolliert zukommen zu lassen.

    • Wenn Dein Iris Scan zentral gespeichert wird und diese Zentrale Speicherung gehackt wird, dann kann man mit den erbeuteten Daten ab dem Zeitpunkt – für immer und ewig – einen Scanner davon überzeugen, das vor der Kamera seist Du.

      Selbst wenn der Hack dafür (printable Iriskontaktlinsen, oder einfacher hacken des Kamerasensors) erst in der Zukunft wirklich nutzbar ist, so ist ab einem solchen Zeitpunkt Deine Iris als Merkmal bestenfalls wertlos.
      Schlimmestenfalls werden die erbeuteten Daten aber unterm Radar nur gegen wenige wichtige Zielpersonen genutzt. Dann fällt der Hack nicht so auf und die erbeuteten Daten bleiben nutzbar.

      Ich glaube die Daten, die die Orbs erfassen, verlassen jetzt erstmal nicht im Klartext das Gerät. Bin nicht ganz sicher, wie die Zero Knowledge SNARKs da genau funktionieren.

      Aber wenn man das z.B. etwas einfacher macht und die Daten mit einem zufälligen Nonce ( konstant pro ScannerConfigGeneration) hasht, das Ergebnis dann speichert, sind die Daten des Hacks durch einen Wechsel dieses Nonce zumindest leicht wieder entwertbar.

      Gegen einen gehackten Scanner, der etwas anderes tut als versprochen, hilft das aber leider nicht. Wenn Du Dich dann bereitwillig vor so ein Gerät stellst und deine Iris scannst – du erkennst die Modifikation ja nicht von aussen -, und das Gerät Deine Irisdaten dann im Klartext speichert, lassen sich hash(Scandaten+Nonce) leider auch für andere zukünftige Nonces berechnen.

      Das gilt im übrigen leider auch bei alle anderen biometrischen Verfahren.

    • An den Finegrabdruck einer Person zu gelangen ist im Vergleich zu einem Irisscann relativ einfach.
      Im Grunde hinterlässt man seinen Fingerabdruck ja andauernd überall. Ähnlich wie bei den biometrischen Maßen des Gesichts, die sind je nach Technik auch aus Bildern repoduzierbar.

      Bei einem Irisscann geht das zumindest im Augenblick noch nicht so einfach. Den kann man vermutlich nur mit einem vergleichsweise hohen Aufwand bei einem Augenarzt oder so “abgreifen”, wenn man die Geräte vorher modifiziert.

      Wird aber vermutlich bei beiden Fällen wie Tom schon erwähnt hat, nur gegen lukrative Ziele eingesetzt werden.

  5. Wenn Dein Iris Scan zentral gespeichert wird und diese Zentrale Speicherung gehackt wird, dann kann man mit den erbeuteten Daten ab dem Zeitpunkt – für immer und ewig – einen Scanner davon überzeugen, das vor der Kamera seist Du.

    Wenn mein zentral gespeicherter Fingerabdruck abhanden kommt, kann man auch mein Handy davon überzeugen “mich” zu sein 😉

    Wir leben also auch jetzt schon in einer Zeit von zentral gespeicherten Identitäten und deren potentiellen Hacks. Worldcoin verbessert diese bisher unzulängliche Art von PoP. Solange sie nicht den Anschein erwecken dadurch eine 100% unfehlbare Technologie zu betreiben, sehe ich keinen Grund weshalb man nicht auf ein verbessertes, aber immer noch unzulängliches, PoP-Verfahren umsteigen sollte. Sobald es eine bessere technologische Umsetzung dafür gibt, darf man Worldcoin auch gerne wieder in die Tonne kloppen. Wichtig wird nur sein, dass man die Gesellschaft dafür ausreichend sensibilisiert, dass der Iris-Hash potentiell auch geknackt werden kann.

    Das gilt im übrigen leider auch bei alle anderen biometrischen Verfahren.

    Ich wüsste jetzt keine anderen Verfahren um PoP sinnvoll an eine Person zu knüpfen, als biometrische Verfahren.

    • Wenn mein zentral gespeicherter Fingerabdruck abhanden kommt, kann man auch mein Handy davon überzeugen “mich” zu sein 😉

      Wie schon weiter oben geschrieben, hinterlässt jeder Mensch seine Fingerabdrücke ununterbrochen überall.
      Dann braucht man nur noch Sekundenkleber, eine Kamera, einen Drucker und ein bisschen Holzleim und man kann problemlos einen Fingerabdruck “faken”. Je nach Fingerabdruckscanner geht das mittlerweile nicht mehr ganz so einfach, aber das Grundproblem bleibt, dass Fingerabdrücke im Vergleich zur Iris überall “hinterlassen” werden. Anschließend obliegt es dem Angreifer, wie viel Aufwand er bereit ust aufzuwenden, um den jeweiligen Fingerabdrucksensor auszutricksen.
      Ähnlich verhält es sich z.B. auch mit DNA, die fällt durch Hautschuppen, Haare, Speichel usw. auch andauernd an und kann von anderen Menschen relativ problemlos “abgegriffen” werden.

      • Kranich // 28. Juli 2023 um 21:35 //

        Wie schon weiter oben geschrieben, hinterlässt jeder Mensch seine Fingerabdrücke ununterbrochen überall.

        Ja, … und genau deshalb eignen sich Iris-Scans besser für PoP als Fingerabdrücke. Ich sehe da keinen Widerspruch.

    • Ich wüsste jetzt keine anderen Verfahren um PoP sinnvoll an eine Person zu knüpfen, als biometrische Verfahren.

      Naja, aber dadurch, das man das im halbgaren Zustand nutzt, werden ggfls. bereits soviele Daten abgegriffen, dass das Merkmal insgesamt für die Zukunft wertlos wird, selbst wenn man das später wesentlich sicherer hinbekäme.

      Erinnert sich noch jemand an die Zeit in der ein eingescannter Perso als Identitätsnachweis genügt hat? Das jetzige Videoidentverfahren wird es dank KI Deepfakes in Echtzeit auch nicht mehr solange geben.

      • Kranich // 30. Juli 2023 um 7:41 //

        Naja, aber dadurch, das man das im halbgaren Zustand nutzt, werden ggfls. bereits soviele Daten abgegriffen, dass das Merkmal insgesamt für die Zukunft wertlos wird, selbst wenn man das später wesentlich sicherer hinbekäme.

        Ja, da gebe ich dir prinzipiell recht. Aber das gilt für alle Technologien. Wenn man sich stets dahinter “versteckt”, dass etwas zukünftig vielleicht besser hin zu bekommen wäre, können wir Fortschritt und Verbesserung unserer Lebensumstände auf den Sankt-Nimmerleins-Tag verschieben. Ich denke, die Leute um Worldcoin haben sich tatsächlich schon viele Gedanken zu dem Thema gemacht. Wäre schön, man hätte auch hier etwas mehr Wettbewerb, und könnte sich aussuchen bei wem man seine Iris scannen lässt. Von daher sehe ich aktuell noch keine Eile, sich jetzt eine “World ID” zulegen zu müssen. Der Zug für PoP hat aber Fahrt aufgenommen, und wer jetzt nicht konkrete Vorschläge macht wie das besser umgesetzt werden kann, wird vielleicht später das Nachsehen haben.

  6. Schlauer Fragesteller // 1. August 2023 um 8:50 // Antworten

    Ich habe die Überschrift gelesen und kann natürlich eine eineindeutige und richtige Antwort dazu geben:

    “In dem ich es grundsätzlich verweigern werde, derartige “Angebote ” anzunehmen ”
    Das grundsätzlich abzulehnen tun übrigens sehr viele und viele sind sehr intelligent.

    Nur ein Beispiel aus aktueller Zeit:
    Niemand nutzt Airbnb!
    1. Telefonate werden erfasst! Ein rechtsbruch
    2. Jeder weiß wo was wie lange leer steht
    3. Erfassung von Bewegungsprofilen
    4. …. Die anderen Schäden können wir uns denken

    Zur Erinnerung wie man es richtig macht:
    Ein Telefonat beim Hotel. Keine Kreditkarte Daten mitteilen!
    Hinfahren.
    Bar bezahlen
    Abreisen.
    Der Spionagezettel muss nach vielen Jahren des Protestes vom Inländer nicht mehr ausgefüllt werden (Erfassung von Geschäftsgeheimnissen)

    Nur mal so…

Kommentar verfassen

%d Bloggern gefällt das: