Ende Juni hatten FeministInnen, kurdische AktivistInnen und andere AntifaschistInnen in Wien eine Frauendemo gegen Angriffe der faschistischen Grauen Wölfe verteidigt. Nun nutzt die österreichisch Polizei Gesichtserkennungssoftware und Bilder aus den Social Media, um AntifaschistInnen zu identifizieren.

Der digitale Bildabgleich ist nun standardmäßiges Instrument der österreichischen Polizei. Das Innenministerium bestätigte, dass er bereits zum Einsatz kam, um Gesichter von AntifaschistInnen zu identifizieren.

Ende Juni hatten Graue Wölfe, eine türkische faschistische Struktur, in Wien eine Frauendemonstration angegriffen. Gemeinsam mit kurdischen Aktiven und anderen AntifaschistInnen verteidigten die Frauen ihre Demonstration ebenso wie das Ernst-Kirchweger-Haus. In diesem linken Zentrum ist auch ein kurdischer Verein ansässig, den die Grauen Wölfe ebenfalls angriffen. Hier kam es zu Sachbeschädigungen und Körperverletzungen.

Ergebnisse müssen vom Verfassungsschutz bestätigt werden

Insgesamt gab es nach den Auseinandersetzungen, die sich über mehrere Tage zogen, 106 Anzeigen. 59 davon richten sich gegen Unbekannt. Erste Ergebnisse der Gesichtserkennung muss der Verfassungsschutz nun noch bestätigen.

Um aufgenommene Gesichter abzugleichen, greift die österreichische Polizei nicht nur auf eigene Datenbanken zurück. Auch Bilder auf sozialen Medien haben die ErmittlerInnen herangezogen, um AntifaschistInnen zu identifizieren.

Ob es dafür eine Rechtsgrundlage gibt, ist umstritten. Das Innenministerium beruft sich auf das Sicherheitspolizeigesetz, andere sehen keine Rechtsgrundlage angesichts der konkreten Vorwürfe.

Genaue Funktionsweise unbekannt

Wie genau der Bildabgleich funktioniert, darüber macht das Innenministerium keine Aussage. Dies sei Betriebsgeheimnis der Hersteller. Jedoch ist von Versuchen mit Gesichtserkennungssoftware bekannt, dass diese Rassismus reproduzieren.

Das liegt daran, dass sie auf Grundlage von Daten funktionieren, die ein rassistisches System – etwa auch die Polizei – erhebt und sammelt. Im Algorithmus kann dieser Rassismus sich mittels Künstlicher Intelligenz (KI) verselbstständigen, selbst bestärken und durch die scheinbare Objektivität von Algorithmen eine neue Gefahr für Menschen werden, die von Rassismus bedroht sind.


Wir schreiben für Perspektive – ehrenamtlich und aus Überzeugung. Wir schalten keine Werbung und nehmen kein Geld von Staat oder Konzernen an. Hilf' uns dabei, unseren unabhängigen Journalismus zu erweitern: mit einer einmaligen Spende, einem regelmäßigen Beitrag bei Paypal, Steady oder am besten als Mitglied in unserem Förderverein.