Menschenrechtler über Polizeikongress: „Nicht alles, was möglich ist, sollte auch umgesetzt werden“
In Berlin tagt ab Mittwoch die internationale Polizei und tauscht sich über KI-Überwachung aus. Der Jurist Steven Kleemann sieht die neue Technik kritisch.
taz: Herr Kleemann, diesen Mittwoch startet in Berlin der europäische Polizeikongress. Dort soll es unter anderem um neue Einsatzmöglichkeiten von künstlicher Intelligenz (KI) in den Sicherheitsbehörden gehen. Davon sind manche in Berlin schon beschlossen – etwa die KI-gestützte Videoüberwachung. Ist so eine Überwachung mit unseren Grundrechten vereinbar?
Steven Kleemann: Durch die neuen Techniken sehen wir eine Verschiebung: Bisher musste ein konkreter Verdacht vorliegen, bevor der Staat tätig wird. Die Werkzeuge drehen das um. Aus dem „Wir suchen jemand Bestimmtes“ wird so „Wir lassen die Maschine mal schauen, wer auffällt“. Wenn solche Systeme laufen, greifen sie in die Grundrechte aller ein, deren Daten dabei verarbeitet werden. Nicht nur von Beschuldigten. Mit Software, die Verhaltensmuster untersuchen soll, wird „normales Verhalten“ definiert und das anhand statistischer Häufigkeiten in Trainingsdaten. Alles, was dann davon abweicht, wird als Auffälligkeit markiert.
taz: Algorithmen können also Vorurteile wie Rassismus oder Klassismus reproduzieren und Diskriminierung sogar verstärken.
Kleemann: Das klingt technisch, ist aber eigentlich sehr konkret. Wenn man sich vorstellt, jemand bleibt in der Bahnhofshalle länger sitzen, vielleicht, weil er kein Zuhause hat. Er ist dann auffällig. Jemand hat sich aufgrund einer Behinderung anders bewegt? Auffällig. Jemand hat sich aus religiösen Gründen länger an einem Ort aufgehalten? Sehr auffällig. So besteht das Risiko, dass etablierte Diskriminierungspraktiken wie Racial Profiling und so weiter technisch legitimiert werden. Weil diese Systeme genau so funktionieren.
taz: Sie haben zu „vertrauenswürdiger KI für polizeiliche Anwendungen“ geforscht. Kann es so etwas überhaupt geben? Und wenn ja, wie müsste das aussehen?
Kleemann: Recht, Ethik und Technik müssten aufeinander abgestimmt werden, und da gibt es natürlich viele Probleme. Man könnte nah an den rechtlichen Vorgaben bleiben, die aber noch nichts darüber aussagen, ob wir etwas als Gesellschaft wollen. Da gäbe es dann mehr oder weniger konkrete Anforderungen an Datenqualität, Risikomanagement, menschliche Aufsicht, Transparenz, aber auch die Grundrechte. Es kommt auf den Einsatzzweck an. Und da sind wir wieder beim nächsten Problem: Gerade im polizeilichen Bereich, wo es ja Geheimhaltungsinteressen gibt, müsste eigentlich ein Umdenken stattfinden zu einer viel größeren Transparenz über den Einsatz polizeilicher Systeme, damit man das irgendwie legitimieren könnte. Aber so eine Selbsteinschätzung der Polizei oder nur der Blick von außen kann da eigentlich keine pauschale Antwort geben.
taz: Polizeiliche Daten sollen auch für KI-Trainings und die automatisierte Datenanalyse genutzt werden dürfen. Wer garantiert, dass diese hochsensiblen Daten nicht an Dritte weitergegeben werden?
Kleemann: Genau das ist auch aus unserer Sicht ein großes Problem. Von der Verknüpfung der ganzen Datenbanken erhofft sich die Polizei ja sehr viel. Man legitimiert damit jetzt im Nachhinein die schlechte Datenverarbeitung der Polizei. Laut dem neuen Sicherheitspaket auf Bundesebene soll die Polizei die sogar von privaten Anbietern übernehmen lassen können. Wer das kontrollieren soll, lassen die Regelungsvorhaben offen.
taz: Ein Programmpunkt beim Polizeikongress heißt „Polizeiliche Datenanalyse – zwischen Staat und Markt. Wie viel Kooperationen können wir wagen?“ Einige Bundesländer nutzen bereits Software des umstrittenen US-Unternehmens Palantir. Darf ein Staat das wagen?
Kleemann: Nicht alles, was technisch irgendwie möglich ist, sollte auch umgesetzt werden. Wir müssten diesbezüglich eine viel größere Debatte führen. Deswegen empfehlen wir, eine Enquetekommission einzusetzen – um abzuklopfen, wie weit wir als Gesellschaft bereit sind zu gehen. Man muss sich anschauen, was eigentlich die grundlegende Idee hinter solchen Systemen ist. Und wenn man zu dem Schluss kommt, das ist nicht mit unseren Werten vereinbar, dann spielt es keine Rolle, ob das System jetzt aus den USA kommt oder ob ein europäisches System genau das Gleiche macht.
taz: Eine weitere geplante Maßnahme ist der biometrische Abgleich mit öffentlich zugänglichen Daten zum Beispiel aus den sozialen Medien. Wird mit solchen Maßnahmen der Datenschutz einfach ausgehebelt?
Kleemann: Das ist ein sehr kritischer Punkt. Bei den „Internetdaten“ geht es oft um Lichtbilder. Das Problem an Gesichtern ist, man kann sie nicht ablegen. Wer sich nicht irgendwie stark einschränken will, gibt sein Gesicht jeden Tag vielen Kameras preis. Die Technologie macht aus dieser Allgegenwart eine Identifizierung. So ein Eingriff geht weit über Fingerabdrücke oder DNA-Spuren hinaus und wirkt viel einschüchternder.
Gemeinsam für freie Presse
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert