21. Dezember 2023
Das Start-up Worldcoin will die Welt verbessern, indem es biometrische Identifikation mit einem Krypto-Bezahlsystem verbindet. Doch hinter der glänzenden Oberfläche verbirgt sich die Ausbeutung von Arbeit und Daten armer Menschen im Globalen Süden.
Ein Orb-Operator von Worldcoin führt Iris-Scans in Malaysia durch.
Das Start-up Worldcoin verfolgt eine größenwahnsinnige Mission: den Aufbau eines globalen biometrischen Identifikators, verknüpft mit einem Bezahlsystem. Seine Vision nennt das Unternehmen »World ID«: digitale Identifikation, Kryptowährung und Transaktions-App in einem.
Herkömmliche Methoden zur Überprüfung der Identität erfordern in der Regel gesetzlich anerkannte, staatlich ausgestellte Ausweisdokumente. Worldcoin will das ändern: Durch den Scan der menschlichen Iris sei das System sicher vor Betrug und Menschen könnten bedenkenlos ihre Identität nachweisen.
Und das ist noch nicht alles. Das Unternehmen behauptet, sein Produkt sei ein Schritt hin zu einem gerechteren Finanzsystem und sogar einem bedingungslosen Grundeinkommen. »Worldcoin: Owned by Everyone« heißt es vollmundig auf der Webseite. Doch während die Idee eines fair verteilten globalen Währungssystems zunächst vielleicht progressiv erscheinen mag, haben ethische und Datenschutzbedenken eine kritische Debatte um die biometrische Datenerfassung von Worldcoin entfacht.
Das Währungsexperiment Worldcoin begann im Mai 2021 in insgesamt 24 Ländern – darunter Indonesien, Chile, Sudan und Kenia – mit Pilottests. Vierzehn Länder, in denen Worldcoin an den Start ging, gelten als sogenannte Entwicklungsländer. Das Start-up stellt einen sogenannten »Orb« zur Verfügung – ein kugelförmiges Gerät, mit dem Fotos, Videos und biometrische Scans gemacht werden können. Die glänzende Kugel wirkt makellos in ihrer perfekten Rundung und verkörpert den Traum fehlerfreier Technologie.
Worldcoin betont, dass die biometrischen Scans nicht als solche gespeichert werden, sondern nur in verschlüsselter Form, als sogenannte Hashes – Zahlenketten mit fester Größe. Dies galt jedoch nicht für die Pilottests, wie Recherchen der MIT Technology Review zeigen: Die ersten Nutzerinnen und Nutzer mussten neben Fotos und Videos teilweise auch sensible Daten wie Geburtsdaten, Telefonnummern oder E-Mail-Adressen preisgeben, obwohl Worldcoin selbst schreibt, dass diese Praxis gut dokumentierte »Sicherheits-, Datenschutz-, Praktikabilitäts- und Betrugsbedenken« aufweist.
Zudem beschreibt Worldcoin in einem Dokument über den Testlaunch im Jahr 2021 in einer Fußnote, dass kein »biometrisches System vor Fälschungen oder Manipulationen sicher sei«, das Unternehmen sei jedoch zuversichtlich, »dass die hochmodernen Sicherheitssysteme des Orbs Betrug verhindern werden«. MIT Technology Review enthüllte jedoch, dass bereits in der Testphase digitale Kryptowährung entwendet wurde und die Software der silbrigen Orbs zahlreiche Fehler produzierte, von Mismatches bis hin zu verlorenen Accounts. Die futuristisch anmutenden Kugeln werden von einer Tochtergesellschaft von Worldcoin in Erlangen hergestellt und unterliegen dadurch dem Deutschen Datenschutzgesetz – ein Umstand, die Worldcoin aufgrund ihrer datenschutzrechtlich fragwürdigen Praktiken noch teuer zu stehen kommen könnte.
»Datenschutz-Organisationen warnen vor einem weltweiten Identitätsregister in privater Hand.«
Im Frühling des Jahres 2022 zählte Worldcoin 450.000 registrierte Nutzerinnen und Nutzer. Mit billigen Anreizen heuerte das Unternehmen lokale »Orb-Operators« an, um gering bezahlte Arbeitskräfte für die Registrierung zu gewinnen. Die Operators selbst erhielten auf Provision pro Scan umgerechnet einen Cent-Betrag, um Menschen zu registrieren, und sind – wie Arbeiterinnen und Arbeiter in der Plattform-Wirtschaft von Uber, Amazon und Co. – nicht bei Worldcoin angestellt, sondern selbstständige Gig-Worker ohne Absicherung.
In Kenia etwa scannte ein Operator insgesamt zwischen 150 und 200 Personen und erhielt dafür 50 Kenia-Schilling (etwa 44 US-Cent) pro Scan, ein anderer verdiente pro Scan rund 88 US-Cent. In Indonesien erhielten Orb Operators laut MIT Technology Review 2.000 Indonesische Rupiah (ungefähr 14 US-Cent) pro Scan. Die registrierten Personen wiederum erhielten bei Anmeldung und Download der Worldcoin-Wallet-App unter anderem ein Startguthaben in Worldcoin Token (WLD), der eigenen Kryptowährung des Projekts. WLD ist nicht an eine stabile Fiat-Währung wie den US-Dollar gebunden, was den Wert dieser Entlohnung noch fragwürdiger macht.
Worldcoin, initiiert von ChatGPT-Gründer Sam Altman und dem deutschen Physikstudenten Alex Blania, soll mehr als nur eine weitere Kryptowährung sein. Es ist ein Versuch, jeden Menschen auf dem Planeten über seinen einzigartigen Iris-Scan zu identifizieren und damit eine globale Datenbank aufzubauen. Nutzen kann die Kryptowährung nur, wer biometrisch registriert ist.
Diese Verknüpfung von finanzieller Transaktion und biometrischer Identifikation ist, gelinde gesagt, ein beunruhigendes Modell. Sie bildet eine Variante des Überwachungskapitalismus, die nicht nur die Privatsphäre der Einzelnen bedroht, sondern auch einen Marktplatz für biometrische Daten schafft, der von mächtigen Akteuren im Technologiebereich dominiert wird. Datenschutz-Organisationen warnen daher zu Recht vor einem weltweiten Identitätsregister in privater Hand und dem Potenzial für Informationsdiebstahl.
Worldcoin sammelt also im Austausch für die Kryptowährung WLD, teilweise auch Bargeld oder andere Anreize wie Ipods biometrische Daten von Menschen aus armen Communities, ohne diesen die wahren Absichten des Unternehmens offenzulegen. Nutzerinnen und Nutzer haben oft kaum Kenntnis von der Kryptowelt, keinen Mailaccount und benutzen ihr Smartphone hauptsächlich für Facebook. Viele wussten schlichtweg nicht, dass sie Teil eines Experimentes waren und dass ihre Gesichter sowie dreidimensionale Körperkarten registriert wurden, um ein neuronales Netz zu trainieren.
»Die Zukunft des Westens wird an Orten getestet, an denen laxe staatliche Regulierung, Prekarität und Armut für die Mehrheit der Menschen Normalität sind.«
Dieses neuronale Netz, mit den Körperdaten ahnungsloser Menschen gefüttert, sollte lernen, diese zu unterscheiden. Der riesige Aufwand, dem Worldcoin-Algorithmus beizubringen, Menschen eindeutig zu identifizieren, beruht auf einem Prozess, der sowohl die Operators als auch die gescannten Menschen ausbeutet und entwürdigt.
Auf sieben Seiten kritischer Berichte und Fragen von der MIT Technology Review antwortete Worldcoin, dass es sich bei fast allem, was an technischen Problemen, Fehlern und Negativen aufgedeckt wurde, um »einzelne Vorfälle« handle. Diese würden letztlich keine Rolle mehr spielen, weil die nächste (öffentliche) Version besser sein werde. Die Tatsache, dass bereits fast eine halbe Million Menschen an den problembehafteten Tests teilgenommen hatten, schien für das Unternehmen nicht ins Gewicht zu fallen. Worldcoins Vorgehen wurde als irreführendes Marketing kritisiert, bei dem ohne ausreichende Zustimmung der betroffenen Personen mehr Daten gesammelt werden als angegeben.
Der Fall Worldcoin zeigt auf, wie verlockend geringfügige Anreize im Tausch für biometrische Daten wirken können, besonders wenn das vorhandene Einkommen der Menschen kaum zum Leben reicht. Im Kontext von derlei Zwängen ist es dann umso problematischer, dass unwissentlich viele Fehler auf den Rücken dieser Menschen ausgebügelt wurden. Ein Beispiel: Als Worldcoin von einem webbasierten zu einem mobilen App-basierten System überging, verloren zahlreiche Nutzerinnen und Nutzer ihre Konten und Münzen.
Datenerhebung dieser Art ist alles andere als ein Randphänomen: Menschen in Geflüchtetenlagern überall auf der Welt müssen sich beim UNHCR biometrisch registrieren, um einen offiziellen Status, Unterstützung und sogar Nahrungsmittel zu erhalten. Auch hier ist die Technologie ständig in Bewegung und kein linearer Prozess – sie bildet quasi eine Endlos-Schleife aus Beta-Tests.
Auch wenn nach anfänglichen Pilotprojekten die biometrische Registrierung im Jahr 2015 weltweit zu einem routinemäßigen Bestandteil des UNHCR geworden ist, werden stets neue Versionen und Funktionen getestet. Die Start-up-Kultur des Silicon Valley legitimiert das Real-Life-Testbed mit dem Versprechen, ihre Produkte durch »Lernen« aus Fehlern kontinuierlich zu verbessern. Das bedeutet in diesem Fall nichts anderes als Trial-and-Error zulasten von Geflüchteten.
Da jede technische Lösung ihre Schwachstellen hat, werden gleichzeitig neue Produkte getestet, die versprechen, genau diese Fehler zu beheben. Dabei erfassen sie die Identität, das Verhalten und die Bewegungen der Menschen immer genauer. In den jordanischen Azraq- und Zataari-Camps werden zudem seit 2017 Einkäufe von Geflüchteten nicht mehr über lokale Banken, sondern über eine Blockchain und einen Iris-Scan abgewickelt. Das Pilotprojekt heißt Building Blocks und ist eines von mehreren Vorhaben des sogenannten Innovation Accelerators der Welthungerhilfe.
»Die Hand, die unterstützt, ist zugleich auch die Hand, die kontrolliert und überwacht.«
Der Accelerator bedient sich in vollkommen neoliberaler Manier der Silicon-Valley-Rhetorik und erklärt sich zum Ziel, »Unternehmern und Start-ups Finanzmittel, praktische Unterstützung und Zugang zu den globalen Aktivitäten der Welthungerhilfe (WFP) zu bieten«. Das Projekt nutzt Künstliche Intelligenz, Big Data, Blockchain und datenbasierte Geschäftsmodelle, um die Art und Weise, wie wir »bedürftigen Gemeinschaften auf der ganzen Welt helfen, zu verändern«.
Zugespitzt formuliert wird dabei die Zukunft des Westens an Orten getestet, an denen laxe staatliche Regulierung, Prekarität und Armut für die Mehrheit der Menschen Normalität sind. Digitale Identitäts- und Fintech-Projekte, die mit Inklusion und Ermächtigung marginalisierter Communities werben, wurden und werden auch genutzt, um diese zu regieren. Es ist ein Dilemma, das in der kritischen Migrationsforschung gut dokumentiert ist: Die Hand, die unterstützt, ist zugleich auch die Hand, die kontrolliert und überwacht.
Es sollte daher wenig überraschen, dass Worldcoin – ein Unternehmen, das in Interviews, Blogposts und Whitepapers mit Leidenschaft über seine datenschutzfreundlichen Protokolle spricht – gleichzeitig die Privatsphäre von so vielen Menschen verletzt. In seinem globalen Krypto-Experiment nutzt Worldcoin die bestehenden Ungleichheiten zwischen Arm und Reich aus. Die Augen- und Körper-Scans armer Menschen, die an früheren Tests teilgenommen haben, werden als Trainingsdaten für die noch in Entwicklung befindlichen KI-Netzwerke verwendet.
Die Datenkörper sind dabei lediglich Test-Dummies, nicht aber die eigentlichen vom Unternehmer anvisierten Endnutzerinnen und -nutzer. Im Sommer 2023 hat Worldcoin offiziell den Beta-Status verlassen. Das Unternehmen wirbt mit der beachtlichen Anzahl von zwei Millionen Userinnen und Usern und untermauert so seine Autorität und Seriosität. Deshalb ist es so wichtig, die unsichtbar gemachte Ausbeutung, Arbeit und Fehlerhistorie, die dem vorausging, wieder in den Vordergrund zu rücken.
Die sogenannte World ID, die durch den Iris-Scan erstellt wird, ist nicht nur als Zugangsschlüssel zur Kryptowährung gedacht, sondern auch als universeller digitaler Ausweis, der in verschiedenen Online-Szenarien genutzt werden kann. Worldcoin verspricht auf seiner Webseite, dass bei der Registrierung keine persönlichen Informationen wie Name, Adresse oder Telefonnummer angegeben werden müssen und dass alle notwendigen Daten zur Erstellung der World ID nach der Registrierung standardmäßig gelöscht werden.
Für die erste Million der Teilnehmenden in der Testphase war dies allerdings nicht der Fall. Doch auch und gerade in der Testphase müssen die Rechte und das Wohlergehen aller Betroffenen geschützt und respektiert werden. Der Weg zur Marktreife von Hightech-Produkten wie Worldcoin kann nicht ausgeklammert werden, sondern gehört transparent gemacht und reguliert.
»Stets wurden Managementinstrumente zur Disziplinierung und zur sozialen Kontrolle an den Körpern rassifizierter, kriminalisierter, armer und arbeitender Menschen geschärft, von der Plantage bis zur Fabrik.«
Worldcoin ist nicht nur ein Paradebeispiel für einen biometrischen Hightech-Überwachungskapitalismus, der Universalität beansprucht. Das Unternehmen steht paradigmatisch für unsichtbar gemachte Prozesse des Experimentierens, Absicherns und Testens von neuen Technologien an armen, prekarisierten Communities, die oft von Krisen und Konflikten gezeichnet sind. Dies ist eines der Grundprobleme eines technologischen Solutionismus, der sich anmaßt, menschengemachte Probleme mit Technik zu lösen, aber zugleich durch seine Technologie neues Leid in die Welt bringt.
Der Schaden, den Menschen dabei nehmen, wird als Kollateralschaden nicht nur unsichtbar gemacht, sondern billigend in Kauf genommen, da das nun vermeintlich verbesserte Produkt der Beweis dafür ist, dass es sich lohnt. Diese Praktiken des Krypto- und Biometrie-Kolonialismus bilden historisch betrachtet keine Ausnahme. Stets wurden Managementinstrumente zur Disziplinierung und zur sozialen Kontrolle an den Körpern rassifizierter, kriminalisierter, armer und arbeitender Menschen geschärft, von der Plantage bis zur Fabrik.
Diese Dynamik unterstreicht die düstere Realität, dass Unterdrückung, Armut und Prekariat für einige Bevölkerungsgruppen die Voraussetzung für den Reichtum anderer sind. Sie verdeutlicht auch die oft unsichtbare und zeitaufwändige Arbeit, die unser digitales Leben und Arbeiten unterstützt. Es ist zudem wichtig zu betonen, dass das Phänomen des Testens und Verbesserns sich in ähnlicher Form auch in westlichen Metropolen zeigt, wo Unternehmen wie Google, Facebook, Amazon, Uber und Airbnb die Arbeit durch Plattformisierung verändert haben.
In diesem System besitzen die Menschen, die die Plattformen nutzen, keine Eigentumsrechte an ihm, was es Kapitalisten ermöglicht, Profite aus prekärer Arbeit zu ziehen. Insbesondere im Hightech-Bereich wird mit Werkzeugen für Verwaltung, Kontrolle und Überwachung experimentiert, was ungleiche Machtstrukturen in (digitalen) Arbeitswelten noch weiter verstärkt.
Geflüchtete, Obdachlose, Menschen in Armut – die Weltbank nennt sie »the unbanked«. Der Markt ist riesig: Zwei Milliarden Menschen weltweit haben kein Bankkonto und somit auch keine Bonität. Keine Bank würde diesen Menschen eine Bankkarte geben – aus Angst, dass sie verkauft, gestohlen oder verloren würde, sagt Imad Malhas von Iris Guard, das den UNHCR mit der Hard- und Software versorgt hat. Auch wisse niemand, ob die Person, die Geld abhebt, tatsächlich diejenige ist, die sie zu sein vorgibt.
Ein Pin, eine Kreditkartennummer, ein Telefon mit einer Zahlungs-App oder auch ein Blockchain-Hash könnten jederzeit gestohlen werden. Unterstützerinnen und Unterstützer von Biometrie für Identitäts-, Banking- und Finanzsysteme argumentieren mit der erhöhten Sicherheit gegen Betrug, ob nun Sam Altman von Worldcoin oder Malhas von Iris Guard. Diese Milliarden armer Menschen ohne Bankverbindung mit dem globalisierten Finanzmarkt zu verbinden, ist für beide attraktiv.
Die experimentelle Kombination von Biometrie und Blockchain bringt ein neues Regime hervor, das es erlaubt, die Existenz und Verwaltung von Daten, Kapital, Gütern und Dienstleistungen bis hin zu kleinsten Einheiten wie der menschlichen Iris nach eigenen Vorstellungen und vor allem ohne staatliche Kontrolle zu steuern. Wer für Folgen und Auswirkungen dieser Experimente in globalem Maßstab die Verantwortung übernimmt, bleibt völlig unklar. Die Kontroverse um Worldcoin spiegelt die größeren ethischen und praktischen Herausforderungen wider, die mit dem rasanten Fortschreiten der Anwendung dieser Technologien und biometrischen Daten verbunden sind.
Die neoliberale Privatisierung des »Weltverbesserns« ist tief in den Überwachungskapitalismus eingeschrieben. So fußt die Technologie auf einer Ethereum-basierten Plattform, einer Blockchain also, die in privater und nicht in öffentlicher Hand ist. Die Mission von Worldcoin, finanzielle Inklusion zu fördern und ein universelles Grundeinkommen zu ermöglichen, erscheint progressiv. Im Kontext betrachtet erscheint die weitreichende Begeisterung für globale Verbesserungs- und Rettungsbestrebungen, die typisch für das Silicon Valley ist, jedoch sehr viel zwielichtiger.
Der Geograf Stephen Young untersucht, warum das bedingungslose Grundeinkommen, besonders seit der Covid-19-Pandemie und durch die Unterstützung von Tech-Eliten, im Fokus der Umverteilungspolitik steht. Er zeigt auf, wie Silicon-Valley-Größen wie Chris Hughes (ehemals Facebook), Jack Dorsey (ehemals Twitter), Sam Altman (Y-Combinator/Open AI), Mark Zuckerberg (Facebook/Meta), Elon Musk (Tesla und X), Jeff Bezos (Amazon) und Larry Page (Google) diese Idee finanziell und öffentlich fördern.
Young hinterfragt die Motive der Tech-Elite, die trotz ihrer Abneigung gegen Regulierungen diese Politik unterstützt und argumentiert, dass das Grundeinkommen ein Kompromiss in Zeiten technologiebedingter Arbeitsplatzverluste darstellt. Dieser Kompromiss geht zwar auf die veränderten gesellschaftliche Organisation von Arbeit ein, greift jedoch nicht die Bedingungen für die Vermögensbildung der Tech-Elite an: Überwachungskapitalismus und Datenextraktivismus.
Young verweist auf die Goenchi-Mati-Bewegung in Indien, die ein alternatives Grundeinkommen auf Basis gemeinsamer Ressourcen wie Mineralien vorschlägt, um die demokratische Beteiligung zu stärken und den Umweltschutz zu fördern. Er schlägt vor, von Projekten wie diesem zu lernen. Der Reichtum des Silicon Valley, der sich aus Datenextraktivismus ergibt, könnte so Teil einer »Wissensallmende« werden, die im Sinne des Gemeinwohls demokratisch reguliert wird. Ein Grundeinkommen, das sich über Produktionsverhältnisse finanziert, die als Gemeingüter verstanden werden, könnte eine transformative Politikwende einleiten. Dabei geht es auch darum, die Kontrolle über den eigenen Körper zu behalten beziehungsweise zurückzuerlangen. Diese Debatte kann aber nicht auf Tech-Unternehmen und das bedingungslose Grundeinkommen beschränkt bleiben, sondern muss auf gesamtgesellschaftliche Eigentums- und Machtverhältnisse ausgedehnt werden.
»Weder Unternehmen noch Staaten sollten entscheiden dürfen, wer als Mensch anzusehen ist und wer nicht.«
Das Hauptverkaufsargument von Worldcoin konzentriert sich auf Daten- und Identitätsschutz. Durch die biometrische Identifikation sollen die Nutzerinnen und Nutzer beweisen, dass sie auch wirklich der Mensch sind, der sie zu sein angeben. Jede Iris ist einzigartig. Dieser Ansatz soll garantieren, dass sich hinter jedem Konto ein echter Mensch verbirgt und nicht etwa KI-basierte Bots, die das System missbrauchen könnten. In einer Welt, in der gerade durch Altmans wohl bekannteres Unternehmen OpenAI, das mit generativer KI – also Systemen wie Dall-E oder ChatGPT, die Text, Bilder und Videos erstellen – neue Unsicherheiten und Gefahren erzeugt, ist dies irreführend. Das gleiche Unternehmen, das mächtige Werkzeuge zur KI-gestützten Produktion von Texten, Bildern und Videos zur Verfügung stellt, will nun nichts weniger als die ganze Welt genau vor dieser Gefahr schützen.
Die Diskussion um Worldcoin offenbart die Widersprüche, in die sich die aktuellen Debatten um generative KI verstricken. Heute, da Unternehmen wie OpenAI an vorderster Front der KI-Innovation stehen, ist es entscheidend, den Hype um diese Technologien zu hinterfragen, der vor allem ein Wettlauf um Marktanteile der Tech-Giganten zu sein scheint. In der Welt der Technologie, in der Innovationen und Fortschritt oft als unumstößliche Güter gepriesen werden, offenbart das Beispiel von Worldcoin die Rückseite des glänzend erscheinenden technologischen Fortschritts, der wie der futuristische »Orb« alles ganz einfach aussehen lässt. Diese Rückseite ist die Phase des Experimentierens und Testens, die unter hochproblematischen Bedingungen in von Armut, Krisen und Konflikten gezeichneten Regionen stattfindet.
Der Webauftritt von Worldcoin beschreibt an vielen Stellen, wie sein biometrischer Scan das »einzigartige Menschsein« bestätigt. Das erinnert an Szenarien aus Sci-Fi-Filmen wie Blade Runner, in denen es um die Unterscheidung zwischen echten Menschen und künstlichen Replikanten geht. Altman äußert wiederholt Bedenken über die zunehmende Schwierigkeit, Menschen von KI-Systemen oder Bots zu unterscheiden. Das hat potenziell weitreichende Konsequenzen.
Die koloniale Vergangenheit und rassistische Gegenwart verfügt über viele Beispiele, in denen einer Gruppe das Menschsein abgesprochen wurde und wird. Weder Unternehmen noch Staaten sollten entscheiden dürfen, wer als Mensch anzusehen ist und wer nicht. Die Tech-Elite schickt sich aber gegenwärtig an, diese Hoheit über die Definition des Menschlichen, der Menschheit und des Universellen zu haben. Wir sollten sie – auch wenn ihre Visionen so größenwahnsinnig klingen – nicht als Spinner abtun, sondern genau im Blick behalten.
Ariana Dongus ist kritische Medienwissenschaftlerin und Research Associate an der TU Dresden.