KI

Protest gegen KI-Überwachung: Bürgerrechtsgruppen fordern Transparenz

🎧
Artikel anhören (Text-to-Speech)
0:00 / 0:00

KI scannt dein Gesicht: Warum Bürgerrechtsgruppen jetzt Alarm schlagen

Gesichtserkennung in der U-Bahn, Algorithmen die voraussagen wer als nächstes eine Straftat begeht, Drohnen über der Grenze. Was vor ein paar Jahren noch nach Science-Fiction klang, ist heute Realität. Und viele merken es nicht mal. Bürgerrechtsorganisationen wie AlgorithmWatch und Amnesty International schlagen deshalb laut Alarm. Was steckt dahinter und was kannst du tun?

Dein Alltag unter dem KI-Radar: Das passiert schon heute

KI-Überwachung ist kein einziges großes System, sondern viele kleine. Sie steckt in Supermarktkameras, an Bahnhöfen, in Polizei-Software und sogar auf Social-Media-Plattformen. Konkret heißt das: Gesichtserkennung im öffentlichen Raum, automatische Analyse von Social-Media-Profilen, Auswertung von Gesundheits- und Bewegungsdaten, sowie sogenanntes Predictive Policing, also Algorithmen die "vorhersagen" wer bald kriminell werden könnte.

Laut dem Amnesty International Report 2024/25, für den die Menschenrechtslage in 150 Ländern untersucht wurde, gehört diskriminierende KI-Überwachung zu den zentralen Menschenrechtsproblemen unserer Zeit. Besonders alarmierend: In Deutschland haben Polizeibehörden in mindestens sechs Bundesländern Gesichtserkennungstechnologie eingesetzt, ohne dass dafür eine ausreichende Rechtsgrundlage bestand.

Quelle: Amnesty International Report 2024/25

Predictive Policing: Der Algorithmus als Richter?

Klingt futuristisch, ist aber bereits in mehreren deutschen Bundesländern im Einsatz: Software die auf Basis historischer Verbrechensdaten berechnet, wo und von wem als nächstes eine Straftat begangen werden könnte. Das Problem dabei ist brutal einfach erklärt. Wenn die Daten, aus denen ein Algorithmus lernt, bereits diskriminierend sind, dann ist es der Algorithmus auch.

AlgorithmWatch hat in ihrem Bericht "Automating Injustice" nachgewiesen: Viele dieser Systeme werden in Deutschland entwickelt, getestet und betrieben, ohne dass es eine klare Rechtsgrundlage dafür gibt. Und: Es existiert bis heute kein wissenschaftlicher Beleg dafür, dass Predictive Policing überhaupt funktioniert. Trotzdem weitet die Polizei ihren Einsatz aus. Besonders gefährdet sind dabei muslimisch gelesene Personen, Menschen mit Migrationshintergrund und andere Minderheiten. Sie landen überproportional häufig im Raster der Algorithmen, weil historische Polizeidaten genau diese Gruppen überrepräsentieren.

  • Kein wissenschaftlicher Beleg für die Wirksamkeit von Predictive Policing
  • Viele Systeme laufen ohne ausreichende Rechtsgrundlage
  • Racial Profiling wird durch Algorithmen automatisch weitergefuhrt
  • Kaum unabhängige Audits oder Kontrolle der eingesetzten Systeme

Quelle: AlgorithmWatch: Automatisierte Polizeiarbeit in Deutschland


Was Bürgerrechtsgruppen wirklich fordern

Die Forderungen der Zivilgesellschaft sind klar und konkret. Es geht nicht darum, KI komplett zu verbieten. Es geht darum, dass niemand heimlich mit einer Technologie kontrolliert wird, über die er nichts weiß und gegen die er sich nicht wehren kann. Die wichtigsten Forderungen:

  • Offenlegung aller Algorithmen und Datenquellen, die in staatlichen KI-Systemen verwendet werden
  • Unabhängige Audits vor dem Einsatz jedes KI-Systems
  • Klare gesetzliche Regeln mit echten Sanktionen bei Verstößen
  • Ein Beschwerderecht für alle, die sich durch KI-Entscheidungen diskriminiert fühlen
  • Vollständiges Verbot von Gesichtserkennung im öffentlichen Raum

AlgorithmWatch hat dafür eine Petition gestartet, die in wenigen Wochen über 50.000 Unterschriften gesammelt hat und dem Bundestag übergeben wurde. Die Botschaft dahinter: Das ist kein Nischenthema für Tech-Nerds. Das betrifft jeden der auf einer Demo war, an einem Pride teilgenommen hat oder einfach nur zur falschen Zeit am falschen Ort stand.

Gesichtserkennung auf der Pride: Was in Budapest passiert ist

Ein konkretes Beispiel zeigt wie schnell es ernst wird. Im Sommer 2025 wurden in Budapest zum ersten Mal innerhalb der EU Live-Gesichtserkennungssysteme eingesetzt, um Teilnehmende der Pride-Parade zu identifizieren. Das Ziel war klar: Menschen einschüchtern und kriminalisieren. AlgorithmWatch hat dokumentiert, dass dieses Vorgehen direkt gegen Artikel 5 der EU-KI-Verordnung verstößt. Trotzdem geschah es.

Kurz danach hat Bundesinnenminister Alexander Dobrindt (CSU) einen Gesetzentwurf vorgelegt, der biometrische Fernüberwachung auch in Deutschland ausweiten würde. Das ist kein Zufall. Wenn ein Staat damit durchkommt, testen andere den nächsten Schritt.

Quelle: AlgorithmWatch: 50.000 Unterschriften gegen Gesichtserkennung

EU-KI-Verordnung: Schutz mit Lucken

Seit Anfang 2024 gilt die EU-KI-Verordnung. Sie ist der erste große Versuch, KI rechtlich zu regulieren. Sie verbietet zum Beispiel das anlasslose Anlegen von Gesichtserkennungsdatenbanken durch Scraping aus dem Internet. Auch Predictive Policing und bestimmte Emotionserkennung sollen verboten werden.

Klingt gut. Ist aber nicht genug. Laut Amnesty International enthält die Verordnung zu viele Ausnahmen und zu vage Definitionen. Unternehmen können KI-Anwendungen mit etwas Kreativität aus dem Hochrisikobereich "herausdefinieren" und damit strengere Regeln umgehen. Außerdem fehlt es an konsequenter Durchsetzung. Ungarn hat bereits gezeigt: Wenn ein Verstoß folgenlos bleibt, machen andere weiter.

Widerstand der funktioniert: Von Petitionen bis Verschlusselung

Der zivilgesellschaftliche Widerstand gegen KI-Uberwachung wächst. Und er ist vielfältig. Neben Petitionen und Klagen vor Gerichten setzen Aktivisten auf technische Gegenmaßnahmen: Verschlüsselungssoftware, dezentrale Kommunikationsplattformen und Open-Source-KI-Systeme, die transparent und nachvollziehbar funktionieren.

Kreative Aktionen gehören genauso dazu. In mehreren deutschen und europäischen Städten haben Aktivisten Statuen mit Papiertüten über dem Kopf platziert. Der Punkt dahinter: Ein verdecktes Gesicht ist das Einzige, was dich vor automatischer Gesichtserkennung schützt. Das ist absurd. Und genau das soll es zeigen.

In der Schweiz haben bereits die Städte St. Gallen, Lausanne und Genf ein Verbot von automatischer Gesichtserkennung in ihren Gemeindeordnungen verankert. Das zeigt: Wenn genug Druck entsteht, bewegt sich was.

Quelle: Amnesty International: KI-Verordnung und Menschenrechtsschutz

Wenn Regulierung selbst zum Problem wird

Es gibt ein echtes Paradox in dieser Debatte. Einerseits brauchen wir Gesetze, die uns schutzen. Andererseits können schlecht gemachte Gesetze Überwachung erst legitimieren. Ein Gesetz das sagt "Gesichtserkennung ist erlaubt, wenn..." schafft einen Rahmen, der vorher gar nicht existierte. Und Ausnahmen werden erfahrungsgemäß immer weiter gedehnt.

Genau hier liegt der Kern des Problems: Regulierung muss von der Gesellschaft kommen, nicht von denen, die die Technologie verkaufen oder nutzen wollen. Sie muss unabhängig uberwacht werden. Und sie muss Grundrechte wirklich in den Mittelpunkt stellen, nicht nur in der Praambel.

Die eigentliche Frage: Wie viel Überwachung wollen wir akzeptieren?

Hier gibt es keine einfache Antwort. Mehr Überwachung kann kurzfristig mehr Sicherheit bedeuten. Aber eine Gesellschaft, in der jede Bewegung erfasst wird, in der der Algorithmus entscheidet wer verdächtig ist, in der niemand anonym demonstrieren kann, ist keine freie Gesellschaft. Nicht fur dich. Nicht fur niemanden.

Die Frage ist nicht ob KI-Uberwachung irgendwann stoppen wird. Die Frage ist, welche Grenzen wir ihr heute setzen. Weil die Entscheidungen, die jetzt getroffen werden, die Infrastruktur aufbauen, die vielleicht eine zukunftige Regierung missbrauchen kann. Das ist keine Paranoia. Das ist Geschichte.

Was du jetzt tun kannst

Du musst kein Aktivist sein um mitzumachen. Die Petition von AlgorithmWatch gegen biometrische Massenüberwachung kannst du direkt online unterzeichnen. Du kannst Datenschutz-Tools nutzen, über das Thema reden und Politikerinnen und Politiker fragen, was sie konkret gegen unkontrollierte KI-Überwachung tun.

Denn am Ende entscheiden nicht die Algorithmen darüber, in was fur einer Gesellschaft wir leben wollen. Das entscheiden wir.


Faktencheck: Die im Originalartikel zitierten Personen "Sarah Harrison" (Digital Freedom Fund) und "Anna Schmidt" (AlgorithmWatch) konnten nicht verifiziert werden. Die inhaltlichen Aussagen wurden durch belegte Quellen von Amnesty International und AlgorithmWatch ersetzt. Alle anderen Kernaussagen sind durch offizielle Berichte der genannten Organisationen belegt.

Quellen: Amnesty International Report 2024/25 | AlgorithmWatch: Automating Injustice | Amnesty: Deutschland 2024 | AlgorithmWatch: Petition gegen Gesichtserkennung


David Jacques Ruas
Artikel verfasst von
https://www.redweb.app/oSe-Creation/blog

🎁 Artikel hat dir geholfen?

Wenn dir dieser Beitrag gefällt und du unsere Arbeit unterstützen möchtest, freuen wir uns über eine kleine Spende. Danke!

Jetzt unterstützen