Kritik an Forschung der Uni Hannover

Avatar soll EU-Grenzen sichern

Es gibt Protest, weil sich die Uni Hannover an einem Projekt beteiligt, das Kontrollen an EU-Grenzen durch Künstliche Intelligenz effizienter machen soll.

Abbildung eines männlichen Grenzschützer-Avatars in blauer Uniform

Das erste Gesicht bei der Einreise in die EU: animierter Grenzschützer Foto: iBorderCtrl

HANNOVER taz | „Die Leibniz Universität Hannover hilft der EU bei der Abschottung“, lautet der Vorwurf, der auf Plakate gedruckt nun überall im Hochhaus auf dem Conti-Campus in Hannover hängt. Der Allgemeine Studierenden Ausschuss (Asta) der Uni hat am gestrigen Dienstag, unterstützt von anderen Gruppen wie dem Flüchtlingsrat Niedersachsen, Campus Grün, Solinet oder dem Friedensbüro Hannover, einen offenen Brief übergeben, indem er die Uni dafür kritisiert, dass sie sich an einem EU-Projekt für effizientere Grenzkontrollen beteiligt.

Das Projekt iBorderCtrl, das die EU derzeit an den Grenzen von Ungarn, Griechenland und Lettland testet, steht in der Kritik, weil es eine Art Lügendetektortest für Einreisende aus Nicht-EU-Staaten beinhaltet. Menschen, die die europäische Grenze überqueren möchten, müssen vorher mit einem Avatar sprechen und Fragen beantworten. Der sieht aus wie ein animierter Grenzschützer und soll an das Geschlecht, die Herkunft und die Sprache der Reisenden angepasst sein.

Anhand von Gesten und kleinsten Regungen im Gesicht sowie Bewegungen der Augen, die von einer Kamera aufgezeichnet werden, beurteilt ein Computerprogramm selbstständig, ob ein Mensch verdächtig oder ehrlich wirkt.

Intensiverer Check für Hochrisiko-Reisende

Zudem übermittelt der Reisende seine Daten online an die EU. Das Programm prüft die Dokumente, aber auch, ob das Foto auf dem Pass und das Gesicht im Video derselbe Mensch sind. Aus allen gesammelten Daten bildet die Künstliche Intelligenz einen Score, also eine Punktzahl, anhand der die Grenzschützer ablesen können, wie intensiv die Einreisenden überprüft werden sollen.

Das alles soll die Einreise beschleunigen und die EU-Mitarbeiter entlasten. Die Idee dahinter sei es, dass sich die Grenzschützer bei den Kontrollen auf „high-risk travelers“ konzentrieren könnten, sagt EU-Projektkoordinatorin Anastasia Garbi. Zudem könne das System die Betroffenen darauf hinweisen, wenn es Fehler in den Dokumenten gebe, bevor sie sich auf den Weg zur Grenze machten.

Die Unterstützer des offenen Briefes bewerten hingegen die Risiken höher als die Vorteile: „Wir glauben, dass dieses Produkt für problematische Zwecke eingesetzt werden kann“, sagt Brunhild Müller-Reiss vom Friedensbüro Hannover – „für die Selektion von gewünschten und nicht gewünschten geflüchteten Menschen“. So etwas dürfe nicht geschehen, und schon gar nicht automatisch.

Forscher untersuchen ethische Fragen

Die Unterzeichner des offenen Briefes halten nichts davon, dass ein Programm nach Anzeichen von Lügen in den Gesichtern der Einreisenden suchen soll. „Sowohl eine Flucht, als auch die Kontrolle selbst kann nervös machen“, heißt es in dem Brief. „Wir verstehen solche Projekte als eine Kampfansage gegen Menschen ohne EU-Pass, weil ein Generalverdacht hergestellt und extrem weitreichende Überwachung angestrebt wird.“ Die Gruppen fordern von der Universität, „dieses Projekt zu verhindern, anstatt es zu legitimieren.“

In Hannover wird nicht die Technik für das Programm entwickelt. Die WissenschaftlerInnen am Institut für Rechtsinformatik versuchen, ethische und rechtliche Fragen, die das Projekt betreffen, zu klären: Werden Menschenrechte eingeschränkt, wenn Betroffene mit dem Avatar kommunizieren müssen? Werden sie zum Objekt degradiert? Wie kann die EU solchen Problemen entgegenwirken?

Die Professorin Tina Krügel ist Mitglied des Projekts in Hannover. Für sie ist es bei der Beantwortung dieser Fragen entscheidend, dass „der Mensch nicht der Entscheidung einer Maschine ausgeliefert ist, die weder nachvollziehbar, noch empathisch ist“. Am Ende entscheide immer ein Mensch, nämlich der Grenzschützer, über die Einreise.

Ein solches Computerprogramm dürfe zudem keine diskriminierenden Merkmale wie beispielsweise die Hautfarbe zugrunde legen, wenn es prüfe, ob eine Person verdächtig wirke. „Aber genau deshalb sind wir an Bord“, sagt Krügel über den Auftrag des Instituts.

Es sei wichtig, dass sich die Leibniz Universität an der Forschung beteilige und diese aus öffentlichen Geldern finanziert werde, damit solche kritischen Fragen gestellt würden. Auch den Protest der Studierenden und anderer Gruppen finde sie wichtig. „Es ist richtig, dass man darüber diskutiert“, sagt Krügel und klingt dabei auch ohne Überprüfung durch den Avatar so, als würde sie es ehrlich meinen.

Lügendetektoren an Gerichten verboten

Bisher nehmen nur Freiwillige an den iBorder-Kontrollen teil. 2020 endet der Pilotversuch. Ob die Überprüfung mit einem Avatar dann zur Regel werde, sei eine politische Entscheidung, meint Krügel. Dafür seien jedoch Gesetzesänderungen nötig. „Zur Zeit könnte ein solches System nicht eingesetzt werden. Dafür gibt es keine Rechtsgrundlage.“

Gerald Wiese vom Asta der Uni Hannover befürchtet dennoch, dass die Lügendetektoren an der Grenze einmal Standard werden: „Warum sollte die EU sonst Millionen Euro in ein solches Projekt stecken?“

Für Wiese ist das ein Bedrohungsszenario. Daran ändern auch die kritischen Forschungsfragen der Uni nichts. „Es ist äußerst bedenklich, dass eine Künstliche Intelligenz einen Risikoscore für einen Menschen erstellt“, sagt er. Lügendetektoren seien an deutschen Gerichten nicht zugelassen, da das Verfahren unwissenschaftlich sei. „Warum sollte das an der Grenze anders sein?“

Dort gebe es zwischen Grenzschützern und Einreisenden ohnehin schon ein großes Machtgefälle. Wenn ein Mensch einen hohen Risikoscore habe, sei es möglich, dass derjenige von Grenzschützern willkürlicher behandelt werde, weil diese ihn für verdächtig hielten. „Flüchtende können sich dagegen am schlechtesten wehren.“

.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben