Chinas Social Scoring beim #35C3: Eine gute Portion Unübersichtlichkeit

Chinas geplantes System für soziale Überwachung ist nicht so ausgefeilt, wie es scheint. Eine Forscherin klärt beim #35C3 über die Schwächen auf.

Messe Leipzig: Menschen laufen durch einen bunt beleuchteten Gang

Überwachung ist auf dem CCC traditionell ein wichtiges Thema: Szene vom Kongress 2017 Foto: dpa

LEIPZIG taz | „In China ist Vertrauen ein seltenes Gut“, erzählt Antonia Hmaidi im Saal „Borg“ auf dem 35. Chaos Communication Congress (#35C3) in Leipzig. Menschen vertrauen einander nicht, sie vertrauen Firmen nicht und sie vertrauen dem Staat nicht. Als Beispiel nennt sie die immer wiederkehrenden Milchpulver-Skandale in China: Weil chinesisches Milchpulver oft verseucht ist, wird in Deutschland großflächig das Pulver aufgekauft und nach China verkauft.

Der gesellschaftliche Vertrauensmangel ist – so wird es zumindest offiziell in China behauptet – einer der wichtigsten Gründe für ein bisher beispielloses Überwachungsprojekt: Ab 2020 will die chinesische Regierung alle BürgerInnen überwachen und ihnen Punkte nach Vertrauenswürdigkeit vergeben. So sollen BürgerInnen wissen, wem sie Vertrauen können und wem nicht. Kontrolle ist eben besser als Vertrauen.

Das System soll Daten aus verschiedenen Lebensbereichen bündeln und in einer einzigen Kennziffer ausdrücken: Hat jemand Steuern hinterzogen oder einen Kredit nicht beglichen? Respektiert jemand seine Eltern nicht? Läuft jemand bei rot über eine Straße? Die Zahl soll künftig beeinflussen, welchen Zugang zu Schulen und Ausbildungen Menschen haben, ob, wohin und wie schnell sie reisen können und wer mit ihnen Handel treibt. Die erklärten Ziele: effizientere Ressourcenverteilung, mehr Vertrauen und BürgerInnen, die „gute Menschen“ im Sinne der Regierung sind.

Die Wirtschaftswissenschaftlerin Hmaidi von der Uni Duisburg-Essen hat sich diesen Plan genauer angeschaut und ist zum Schluss gekommen: „Es gibt vor allem viele Dinge, die nicht bekannt sind.“ Nachdem sie mehrere Simulationen zu drei der rund 70 verschiedenen Modellen durchgeführt hat, kommt Hmaidi zu dem Schluss, dass der Erfolg oder Misserfolg des Systems von dessen genauer Ausgestaltung abhängen wird: „Dieses System ist sehr komplex und schon kleine Veränderungen können zu großen Auswirkungen führen.“

Kein großes Überwachungssystem

Grundsätzlich ist das für die Regierung wohl vielversprechendste System, das derzeit in China als Modellprojekt läuft, weit weniger ausgefeilt, als in der Berichterstattung im Westen dargestellt. Statt eines großen allumfassenden algorithmischen Überwachungssystems gibt es vor allem ein vielschichtiges System, das regional je unterschiedlich ausgeprägt ist, abhängig von Einzelpersonen als BerichterstatterInnen und – gerade deshalb – durchsetzt von vielen gegenteiligen Interessen.

„Wenn das Problem ist, dass Menschen bei rot über die Straße laufen, obwohl das schon illegal ist, würde ich am Rechtssystem ansetzen, statt ein neues System einzuführen.“

Die Regionalität kann dazu führen, dass es einen Wettlauf zum niedrigsten Standard gebe, sagt Hmaidi: Also dass Menschen dorthin ziehen, wo sie am wenigsten überwacht werden und am einfachsten Punkte bekommen. Die Abhängigkeit von Einzelpersonen bedeutet, dass diese ein Interesse daran haben, Regeln zu entwerfen, von denen sie möglichst profitieren. Auch korrelieren viele erhobene Werte gar nicht mit dem erwünschen Verhalten: In Zukunft könnten viele ChinesInnen also Kredite erhalten, weil sie einen guten Score haben – obwohl sie gar nicht verlässliche RückzahlerInnen sind.

Und letztlich führe auch das übergroße Interesse der Regierung an der Ermittlung und Bestrafung von „Vertrauensbrechern“ dazu, dass wenig getan werde, um zu vermeiden, dass Menschen fälschlicherweise als nicht-vertrauenswürdig eingestuft werden. Nebenbei gebe es viel offensichtlichere Probleme, beispielsweise, dass mit Spenden an die Kommunistische Partei, der eigene Score verbessert werden könne: „Das heißt, Menschen können für einen guten Score zahlen und sich dann verhalten, wie es ihnen passt.“

Langfristig könne all dies dazu führen, dass das Vertrauen in das Social Scoring erodiert und sich alternative, inoffizielle Systeme etablieren, wie sie auch heute schon in China gängig sind. Und auch Hmaidi hat eine klare Empfehlung: „Wenn das Problem ist, dass Menschen bei rot über die Straße laufen, obwohl das schon illegal ist, würde ich am Rechtssystem ansetzen, statt ein neues System einzuführen.“ Vertrauen ist eben ein seltenes Gut in China – und offenbar leicht zu verlieren.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.