Videoüberwachung nicht ausgereift: Biometrische Paranoia

Der Gesichtserkennungsversuch in Mainz ist gescheitert. Viele Medien fürchten dennoch Orwellsche Verhältnisse - vielleicht unnötig.

Nur weil man paranoid ist, heißt das noch lange nicht, dass sie nicht wirklich hinter einem her sind. Bild: dpa

jetzt ist es also raus: Automatisierte Gesichtserkennung im öffentlichen Raum zu Fahndungszwecken wird es in nächster Zukunft wohl nur auf Kinoleinwänden geben. Das jedenfalls sind die Konsequenzen aus dem Feldversuch, den das Bundeskriminalamt (BKA) im Mainzer Hauptbahnhof durchführte und dessen ernüchternden Ergebnisse jetzt mit einiger Verspätung (geplant war ursprünglich Februar) auf einer Pressekonferenz in Wiesbaden vorgestellt wurden.

Der Versuch, durch die Kombination von Erkennungsalgorithmen, Bilddatenbank und Videokameras gesuchte Personen aus einer Menschenmenge herauszufiltern, darf als gescheitert angesehen werden. "Derzeit nicht praxistauglich" - so lautete das Fazit von BKA-Präsident Jörg Ziercke, der diese Technik wohl wieder von seinem Wunschzettel wird streichen müssen.

Hightechkameras können nichts

Bei der Ankündigung des Projekts vor zehn Monaten klang das noch ganz anders. Da schwärmte Zierckes Stellvertreter Jürgen Stock von den unbeschränkten Anwendungsbereichen der Hightechkameras: Straftäter, Hooligans und "verwirrte Personen" könne man damit umgehend aufspüren, so seine Hoffnung. Mit einigem Bedacht erwähnte Stock nicht den Lieblingsfeind der Freunde des starken Staates, den islamistischen Terroristen. Der wird sich schließlich kaum vorher beim BKA melden und ein standardisiertes Referenzfoto anfertigen lassen.

Das ist aber eine notwendige Bedingung für jede spätere Wiedererkennung. Dass die Mainzer Versuchsanordnung kurz nach den missglückten Kofferbombenattentaten vom August 2006 in der Öffentlichkeit dennoch als rasche Antwort auf den Terror gedeutet wurde, wird Stock nicht gestört haben.

Bemerkenswert an diesem Fall ist nicht das schlechte Abschneiden der angeblich "intelligenten" Systeme, das kaum überrascht, sondern die Bereitwilligkeit der Medien, den Ankündigungen der Hersteller geradezu blind zu vertrauen.

Groß war die Aufregung damals: Die Zukunft der Überwachung beginne in Mainz, hieß es allerorten. Jeder Mensch könne bald überall erfasst werden. Klappern gehört zum Geschäft, aber derart heillose Übertreibungen spielen genau denen in die Hände, die uns vorgaukeln wollen, Sicherheit sei technologisch machbar.

Technik kaum geeignet

Die Paranoia, die so geschürt wird, untergräbt weiter das Vertrauen in den Rechtsstaat. Schlimm auch, dass selbst die Datenschützer, denen man eigentlich etwas mehr Sachverstand zugetraut hätte, damals ins gleiche Horn bliesen und den Mainzer Testlauf als gefährlichen Schritt in Richtung Orwellstaat dämonisierten. Dabei war im Grunde bereits zu diesem Zeitpunkt bekannt, dass die Technik für praktische Polizeiarbeit kaum geeignet ist. Eine Studie des Bundesamtes für Sicherheit in der Informationstechnik (BSI) von 2003 hat Gesichtserkennung unter Laborbedingungen getestet und ähnlich verheerende Resultate geliefert.

Im Londoner Stadtteil Newham sind ein gutes Dutzend Überwachungskameras biometrisch umgerüstet worden, um die Straßen nach bekannten Kriminellen abzusuchen. Das System hat in rund zehn Jahren zu keiner einzigen "automatischen" Verhaftung geführt. Ein britischer Journalist, der es genauer wissen wollte, hat sein Gesicht in die Datenbank aufnehmen lassen und spazierte mehrere Tage lang vor den Kameras auf und ab, ohne auch nur ein einziges Mal erkannt zu werden. Dennoch wird Newham hierzulande von Journalisten ohne Hang zur persönlichen Recherche immer wieder als reibungslos funktionierendes Szenario beschrieben.

"In London", so steht in einem aktuellen Spiegel-Sonderheft zu lesen, "schlägt ein Computer bereits Alarm, wenn ein Verdächtiger auftaucht". Das klingt natürlich viel aufregender als das Mainzer Ergebnis: Eine Hand voll Kameras sind mit teurer, aber nutzloser Software aufgepeppt worden, die hauptsächlich Fehlalarme produziert und Polizisten von ihren eigentlichen Aufgaben ablenkt.

Nun wäre es jedoch ebenso falsch, Entwarnung zu geben. Prinzipiell funktioniert die Technik sehr wohl - das hat Mainz durchaus gezeigt.

Nur ist für den Masseneinsatz die Quote der Fehlermeldungen noch wesentlich zu hoch. Nummernschilder hingegen können Computeraugen ziemlich zuverlässig auslesen, in Echtzeit und in großer Zahl.

Schon jetzt bleibt kein Fahrzeug in der Londoner Innenstadt unregistriert, und die britische Regierung plant, sämtliche Schnellstraßen des Landes mit Kennzeichenlesegeräten aufzurüsten.

Vielleicht klappt es in 3-D?

Weil es in 2-D nicht geklappt hat, setzt man jetzt alle Hoffnungen auf 3-D-Technologien. Die EU hat in weiser Voraussicht vergangenes Jahr ein Forschungsprojekt dazu in die Welt gesetzt. Allerdings wird es dann natürlich heikel mit dem Referenzdatensatz: Ein präventiver 3-D-Scan sämtlicher Bundesbürger? Oder nur der hier lebenden Ausländer, deren Fingerabdrücke man ja auch schon zentral erfassen darf?

Immer noch folgt das Denken dem Motto: Wenn die eine Technik zu fehleranfällig ist, dann bürsten wir die Defizite eben mit anderer, möglichst noch komplexerer Technik aus. Von dieser Logik der Eskalation sollte man sich endlich verabschieden. Dann wäre der Fehlschlag von Mainz eine wertvolle Lektion.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.