`
Freitag, Juni 14, 2024
More

    Österreichische Polizei nutzt Gesichtserkennung, um AntifaschistInnen zu verfolgen

    Teilen

    Ende Juni hatten FeministInnen, kurdische AktivistInnen und andere AntifaschistInnen in Wien eine Frauendemo gegen Angriffe der faschistischen Grauen Wölfe verteidigt. Nun nutzt die österreichisch Polizei Gesichtserkennungssoftware und Bilder aus den Social Media, um AntifaschistInnen zu identifizieren.

    Der digitale Bildabgleich ist nun standardmäßiges Instrument der österreichischen Polizei. Das Innenministerium bestätigte, dass er bereits zum Einsatz kam, um Gesichter von AntifaschistInnen zu identifizieren.

    Ende Juni hatten Graue Wölfe, eine türkische faschistische Struktur, in Wien eine Frauendemonstration angegriffen. Gemeinsam mit kurdischen Aktiven und anderen AntifaschistInnen verteidigten die Frauen ihre Demonstration ebenso wie das Ernst-Kirchweger-Haus. In diesem linken Zentrum ist auch ein kurdischer Verein ansässig, den die Grauen Wölfe ebenfalls angriffen. Hier kam es zu Sachbeschädigungen und Körperverletzungen.

    Ergebnisse müssen vom Verfassungsschutz bestätigt werden

    Insgesamt gab es nach den Auseinandersetzungen, die sich über mehrere Tage zogen, 106 Anzeigen. 59 davon richten sich gegen Unbekannt. Erste Ergebnisse der Gesichtserkennung muss der Verfassungsschutz nun noch bestätigen.

    Um aufgenommene Gesichter abzugleichen, greift die österreichische Polizei nicht nur auf eigene Datenbanken zurück. Auch Bilder auf sozialen Medien haben die ErmittlerInnen herangezogen, um AntifaschistInnen zu identifizieren.

    Ob es dafür eine Rechtsgrundlage gibt, ist umstritten. Das Innenministerium beruft sich auf das Sicherheitspolizeigesetz, andere sehen keine Rechtsgrundlage angesichts der konkreten Vorwürfe.

    Genaue Funktionsweise unbekannt

    Wie genau der Bildabgleich funktioniert, darüber macht das Innenministerium keine Aussage. Dies sei Betriebsgeheimnis der Hersteller. Jedoch ist von Versuchen mit Gesichtserkennungssoftware bekannt, dass diese Rassismus reproduzieren.

    Das liegt daran, dass sie auf Grundlage von Daten funktionieren, die ein rassistisches System – etwa auch die Polizei – erhebt und sammelt. Im Algorithmus kann dieser Rassismus sich mittels Künstlicher Intelligenz (KI) verselbstständigen, selbst bestärken und durch die scheinbare Objektivität von Algorithmen eine neue Gefahr für Menschen werden, die von Rassismus bedroht sind.

    Mehr lesen

    Perspektive Online
    direkt auf dein Handy!

    Weitere News