Einmal in Adiletten an ner Kamera vorbei zum Späti gelaufen, ein Foto von sich auf Insta gepostet oder Fahrrad als gestohlen bei der Polizei gemeldet – schon kann man im System landen. Und die Bundesregierung? Will das Ganze am liebsten bundesweit einführen. – Ein Kommentar von Alexandra Baer.
„Immer die Augen, die dich beobachten, und die Stimme, die dich umgibt. Ob im Schlaf oder wach, bei der Arbeit oder beim Essen, drinnen oder draußen, im Bad oder im Bett – kein Entkommen. Nichts gehörte dir selbst, außer den wenigen Kubikzentimetern in deinem Schädel.“
Was Orwell als düsteres Zukunftsszenario beschrieb – totale Überwachung, permanente Kontrolle, kein Ort mehr, der wirklich privat ist – wird uns in Deutschland gerade als „Innovationsprojekt“ verkauft. Die umstrittene Analyse-Software „Gotham“ des US-Konzerns Palantir, die bereits in mehreren Bundesländern wie Bayern, Hessen und NRW in Polizeibehörden im Einsatz ist, könnte bald bundesweit eingeführt werden. Bundesinnenminister Alexander Dobrindt (CSU) prüft derzeit den flächendeckenden Einsatz – obwohl die Software in Bayern bereits vor dem Bundesverfassungsgericht angefochten wird.
VeRA: Vorsicht Echt Richtig Ausgespäht
In Bayern nutzt die Polizei die Software unter dem Namen „VeRA“, um riesige Datenmengen aus verschiedenen Polizeisystemen automatisch auszuwerten – Wobei den Namen von etwas zu verändern natürlich nicht den inhaltlichen Charakter dessen verändert. Zu den Daten, die ausgewertet werden, gehören zum Beispiel Informationen aus Fallbearbeitungssystemen, Fahndungsdatenbanken, biometrische Daten wie Fingerabdrücke oder Gesichtsbilder, aber auch ganz alltägliche Vorgänge wie Verkehrsunfälle oder Zeugenaussagen.
Mit sogenannten Data-Mining-Methoden versucht Gotham, Muster und Zusammenhänge zu erkennen – auch zwischen Personen, die keinerlei Bezug zu Straftaten haben. Besonders brisant ist, dass die Polizei mit der Software nicht nur bei schweren Straftaten ermittelt, sondern auch vorsorglich – also bevor überhaupt eine konkrete Gefahr besteht.
Das Problem: Die Algorithmen hinter der Software sind geheim, eine unabhängige Kontrolle gibt es nicht. Bürger:innen erfahren nichts davon, dass ihre Daten analysiert werden – auch nicht, wenn daraus Überwachungsmaßnahmen folgen.
Wer noch nichts verbrochen hat, wird halt vorsorglich gespeichert
Für uns alle stellt sich natürlich die Frage, ab wann man denn in diesen Datenbanken auftaucht. Wenn man sein Fahrrad bei der Polizei als gestohlen meldet, damit man das Geld von der Versicherung zurückbekommt? Wenn man als Zeug:in bei einem Autounfall aussagt? Dann ist man auf jeden Fall im System. Wenn man eine Demonstration bei der Versammlungsbehörde anmeldet? Dann wahrscheinlich auch oder? Wenn man im Park rumhängt und die Polizei einfach mal willkürlich Ausweise kontrolliert? Wenn man falsch parkt oder mit dem Fahrrad über rot brettert?
Wie man wahrscheinlich schnell merken kann, sind die Möglichkeiten endlos. Das Beste daran ist aber: Weder die Unterstützer:innen von Palantir noch unsere Bundesregierung können genau beantworten, ob man bei der Nutzung von Palantir-Software überhaupt jemals nicht im System landet. Im Gegenteil: Gotham fischt so breit, dass am Ende jede:r einmal an der digitalen Angel hängt.
Die genauen technischen Details scheinen nur Peter Thiel und Palantir-Arbeiter:innen zu kennen. Und natürlich stellt sich auch noch die Frage, ob „unauffällige“ Daten jemals aus dem System gelöscht werden oder für alle Ewigkeiten auf irgendwelchen Servern des US-Konzerns Palantir verweilen. Für alle von uns in Deutschland, die ihre Daten eigentlich lieber bei sich haben wollen, gibt es bisher keine befriedigenden Antworten.
Übrigens: Vor zweieinhalb Jahren hat das Bundesverfassungsgericht (BVerfG) die Polizeisoftware „Hessendata“ in Hessen und eine ähnliche Software in Hamburg wegen zu unklarer Regeln einkassiert. Der Urteilsspruch: die automatische Datenanalyse fischt zu breit – auch Unbeteiligte sind betroffen.
Jetzt ist es wieder Hessen sowie Bayern und NRW – die üblichen Verdächtigen, wenn es um Einschränkung von Freiheitsrechten geht – die die Palantir-Software ungeachtet des BVerfG-Urteils 2023 benutzen. Zwar wohl mit Einschränkungen, wie diese aber konkret aussehen ist ähnlich geheim wie die Funktionsweise der Software selbst. Wie auch schon Berlin rund um die Auslieferung von Antifaschist:in Maja nach Ungarn, sehen Hessen und der Rest der Bundesrepublik BVerfG-Urteile anscheinend als eine nette Empfehlung an, der man aber nicht zwangsläufig folgen muss.
An Daten zum „minen“ soll es nicht mangeln
Die geplante bundesweite Einführung von Palantir reiht sich ein in ein umfassendes Überwachungspaket, das CDU, CSU und SPD in ihrem neuen Koalitionsvertrag verankert haben. Auf gleich mehreren Ebenen – von der Telekommunikation über Kfz-Daten bis hin zu biometrischen Merkmalen – sollen staatliche Behörden künftig tiefgreifender und automatisierter zugreifen dürfen.
Vorgesehen ist unter anderem die anlasslose Speicherung aller IP-Adressen und Portnummern für drei Monate, eine Neuauflage der umstrittenen Vorratsdatenspeicherung. Auch das sogenannte staatliche Hacken, etwa mittels Quellen-TKÜ, soll ausgeweitet werden – künftig darf sogar die Bundespolizei digitale Endgeräte infiltrieren. Besondere Brisanz birgt der geplante „biometrische Abgleich mit öffentlich zugänglichen Internetdaten“, bei dem etwa Gesichts- oder Stimmprofile mittels Künstlicher Intelligenz ausgewertet werden könnten. Auch Daten von Gesundheits- und Ausländerbehörden sollen zukünftig ausgewertet werden. „Das wird die Totalüberwachung des öffentlichen Raumes ermöglichen“, fasst Erik Tuchtfeld, Co-Vorsitzender der NGO D64, das Ganze zusammen.
Psychisch krank und unter Generalverdacht – wie der Überwachungsstaat wächst
Racial Profiling? Kein Bug, sondern ein Feature.
Viele von uns Millennial-Babys erinnern sich vielleicht noch an die Zeit, als man beim Cornern vorm Späti höchstens vom genervten Nachbarn, aber nicht gleich von der Polizei angesprochen wurde. Doch diese Zeiten sind vorbei. Seit den 90ern hat sich das Selbstverständnis der Polizei verschoben: Weg von was auch immer die Polizei damals so gemacht hat, hin zur ständigen Präsenz und Kontrolle – besonders dort, wo der Staat Kriminalität „vermutet“. Und das ist selten das Villenviertel.
Die polizeiliche Logik? Wer kontrolliert, findet. Und was gefunden wird, landet in der Statistik. Ein Beispiel: Die sogenannten Tatverdachtsfälle bei Rauschgiftkriminalität entstehen fast ausschließlich durch Polizeikontrollen – ein tatsächliches Handeln mit Drogen muss nicht vorgefallen sein. Trotzdem gelten sie später als „Beleg“ für eine erhöhte Kriminalitätsrate und rechtfertigen noch mehr Kontrollen. Ein selbstgebauter Kreislauf, der vor allem migrantisch geprägte und ärmere Viertel trifft – wie etwa an der Eisenbahnstraße in Leipzig eindrücklich zu beobachten ist.
Cops auf der „Eisi“ – eine Wache, die den Kiez spaltet
Palantir setzt auf genau diese Logik – nur digital. Gotham übernimmt, was vorher Beamt:innen mit „Bauchgefühl“ taten: Es bewertet, verknüpft, filtert – auf Basis historischer Daten, die längst nicht neutral sind. Diskriminierende Kategorien wie „Volkszugehörigkeit“, „Phänotyp“ oder Religionszugehörigkeit, die in Polizeiakten geführt werden, fließen so stillschweigend in die automatisierte Risikoberechnung ein. Und aus strukturellem Racial Profiling wird algorithmische Objektivität – zumindest nach außen.
Das Ganze ist wohl kaum was Neues, es ist allerdings systematisierter, in einer ganz anderen Quantität und vor allem schwerer angreifbar.

