Gesichtserkennung durch die KI – Grundrechte in Gefahr
KI-Systeme der Gesichtserkennung bergen Risiken und bieten nicht mehr Sicherheit. Notwendig ist ein sofortiges Moratorium. Der Gastbeitrag von Marcel Emmerich und Tobias B. Bacherle (Grüne)
Zweifellos kann Künstliche Intelligenz (KI) in Kombination mit Videomaterial aus Überwachungskameras einen wichtigen Beitrag für die Innere Sicherheit leisten: Überschwemmungen können vorhergesagt und Waldbrände entdeckt werden, bevor sie sich ausbreiten. Kritisch wird es hingegen, wenn KI das Handeln von Menschen überwacht und wildeste Science-Fiction-Szenarien Realität werden lässt. Das Streben nach absoluter Sicherheit schlägt schnell in Orwellsche Verhältnisse um, wenn im öffentlichen Raum, auf Bahnhöfen, bei Demonstrationen und Volksfesten flächendeckend Systeme im Hintergrund automatisiert unsere ureigenen biometrische Daten mit allen möglichen Datenbanken abgleichen.
Der Einsatz von KI kann nur dann ein Gewinn für unsere Sicherheit sein, wenn nicht massenhaft personenbezogene Daten gespeichert und Grundrechte ausgehöhlt werden. Bereits heute verschafft sich die Polizei mittels stationärer Videoüberwachung und Drohnen einen weitreichenden Überblick über die Lage bei Großereignissen. Wenn nun zusätzlich im Hintergrund gespeichertes Videomaterial in Echtzeit oder nachträglich durch KI-Systeme massenhaft – oft durch intransparente Algorithmen – ausgewertet werden würde, wird klar: Die schiere Masse dieser hochsensiblen Daten, die flächendeckend erfasst und ausgewertet würden, wäre ein bisher nicht gekannter Eingriff in die Freiheit jedes Einzelnen.
Expert:innen sprechen in der Konsequenz vom Einschüchterungscharakter staatlicher Maßnahmen oder dem sogenannten „Chilling-Effekt“, nach dem Menschen ihr Verhalten verändern, sobald sie sich überwacht fühlen. Besonders gefährlich werden KI-Systeme, wenn sie Diskriminierung befördern, wenn Kriminelle oder ausländische Mächte sich in die Systeme hacken und sie missbrauchen. Vor allem das Beispiel des Social-Scorings der kommunistischen Partei Chinas unterstreicht das Missbrauchspotenzial ohne Fremdeinwirkung. Mit Blick auf den Aufstieg rechter Parteien in der EU bedrohen diese Szenarien auch unsere Demokratie und Rechtsstaatlichkeit in Europa.
Der massive Eingriff von biometrischer Fernidentifizierung in die Privatsphäre von Millionen Menschen geht dabei nicht einmal mit einer Verbesserung unserer Sicherheit einher. Eine Beispielrechnung des Max-Planck-Instituts für einen Pilotversuch am Berliner Bahnhof Südkreuz zeigt, dass 99,3 Prozent der Einschätzungen des Systems falsch waren. Doch selbst bei Fehlerquoten im niedrigeren zweistelligen Prozentbereich ist fraglich, ob diese tolerierbar sind – gerade mit den Folgen, die mit staatlichen Eingriffen und der enormen Streubreite einhergehen.
Anonymität im öffentlichen Raum ist eine der Grundvoraussetzungen für freie Meinungsäußerung, demokratischen Protest und informationelle Selbstbestimmung. Diese Grundrechte gilt es zu schützen.
Sicherheitsbehörden wie das BKA, Landespolizeien in Hamburg und Mannheim setzen KI-Gesichtserkennung in der Videoüberwachung in Trainingsversuchen und Pilotprojekten bereits ein. Und das, obwohl es in Deutschland bislang keine Rechtsgrundlage dafür gibt. Damit greifen sie massiv in die Grundrechte ein, bevor der gesellschaftliche und demokratische Aushandlungsprozess und die Abwägung langfristiger Auswirkungen abgeschlossen sind.
Darüber hinaus verstößt die Nutzung gegen den Grundsatz der Verhältnismäßigkeit. Die massenhafte Überwachung der Bürger:innen führt unter Abwägung aller Interessen zu unangemessenen Gefahren für die Grundrechte der Bürger:innen, Demokratie und Rechtsstaatlichkeit. Die KI-Gesichtserkennung ist aufgrund ihrer Fehleranfälligkeit nicht geeignet, mehr Sicherheit für Menschen zu bieten. Hingegen stehen eingriffsmildere und effektivere Mittel zur Verfügung: finanziell und personell gut ausgestattete Sicherheitsbehörden mit zielgerichteten rechtsstaatlichen Maßnahmen.
In diesen Tagen ist die EU-Regelung zum Einsatz Künstlicher Intelligenz in Kraft getreten, in der unter anderem Gesichtserkennung durch KI geregelt wird. Dieser „AI Act“ ist ein erster Meilenstein für die verantwortungsvolle Gestaltung von KI, erlaubt es uns aber gleichzeitig, national nachzuschärfen. Diese Spielräume im Bereich der Nutzung von KI durch Sicherheitsbehörden gilt es nun zu nutzen, um KI-gestützte Fernidentifizierung auszuschließen.
Bis zur Entscheidung über ein Verbot braucht es ein Moratorium über den Einsatz KI-gestützter Fernidentifizierung sowie den Import und Export der zugehörigen Software. Das Moratorium sollte mindestens so lange gelten, bis die gesamten Überwachungsbefugnisse in den Sicherheitsgesetzen umfassend und unabhängig evaluiert wurden.
Marcel Emmerich ist Innenexperte der Grünen-Bundestagsfraktion.
Tobias B. Bacherle istDigitalpolitiker der Grünen Bundestagsfraktion.