Der Einsatz von Kameras und Software zur automatischen Gesichtserkennung wird immer weiter ausgebaut. Doch wie sicher ist dieses Verfahren?

Mehr Überwachung des öffentlichen Raums und der Einsatz modernster Soft- und Hardware sollen für mehr Sicherheit sorgen. Verschiedene Projekte, bei denen die automatische Gesichtserkennung eingesetzt wurde, zeigen jedoch, dass diese Technik sehr fehleranfällig ist.

So berichtet die englische Zeitung The Guardian etwa von dem Einsatz von modernster Gesichtserkennungssoftware während des Fußball Champions League-Finalspiel im walisischen Cardiff im Juni 2017.

Hier sollen mehrere zehntausend Menschen, die das Spiel live im Stadium verfolgten, durch Kameras aufgenommen und live mit einer Datenbank von mehr als einer halben Millionen Menschen verglichen worden sein.

Für mehr als 2.470 Menschen meldete das System eine Übereinstimmung mit den von INTERPOL und UEFA zusammengestellten Datenbanken. Ein voller Erfolg könnte man meinen – doch leider waren 2.297 Übereinstimmungen des Computers falsch. Das entspricht einer Fehlerquote von ganzen 92 Prozent.

450 Menschen wurden nach der Identifizierung von der Polizei festgesetzt. Auch unter diesen Personen müssten sich laut den Zahlen der Waliser Polizei über 270 zu Unrecht festgenomme Personen befinden. Die Waliser Polizei sieht den Einsatz trotzdem als Erfolg und weist darauf hin, dass jedes System Fehler habe. Außerdem läge der Fehler in erster Linie an der schlechten Qualität der von INTERPOL und UEFA zur Verfügung gestellten Bilder.

Auch in Deutschland wird die automatische Gesichtserkennung zur Zeit intensiv getestet, so unter anderem am Bahnhof Berlin-Südkreuz. Auch hier gibt es eine enorme Fehlerquote. Allein in 30 Prozent der Fälle seien gespeicherte Testpersonen nicht erkannt worden. Und das bei wenigen hundert Fotos. Im realen Einsatz würde die Fehlerquote vermutlich auch hier drastisch ansteigen, da dann hunderttausende Fotos verglichen werden müssten (Link).