Eine Studie untersuchte, inwieweit Software für Objekterkennung – wie sie beispielsweise in selbst fahrenden Autos verwendet wird – Menschen verschiedener Hautfarben erkennt. Menschen mit dunklerer Haut werden schlechter erkannt und es handelt sich nicht um den ersten Bericht von „diskriminierender“ Software.
WissenschaftlerInnen der Georgie Tech untersuchten die „vorhersehbare Ungleichheit“ von Objekterkennungssoftware. Diese finden bereits in vielen Bereichen unseres Lebens Anwendung, sei es Gesichtserkennungssoftware von Überwachungskameras oder eben in selbstfahrenden Autos, wo sie dafür sorgt, dass die Wagen Gegenständen oder PassantInnen ausweichen beziehungsweise vor ihnen abbremsen. Das Ergebnis der Studie zeigt, dass eben diese Software für Menschen mit dunklerer Hautfarbe ein höheres Sicherheitsrisiko darstellt als für hellhäutige Menschen: Unter verschiedensten vergleichbaren Bedingungen wurden Menschen, die zur Gruppe mit dunkler Hautfarbe gehörten, seltener erkannt als die Kontrollgruppe mit hellen Hauttönen.
r
Die Erkennung gelang um circa 5 Prozent schlechter, wenn ein Mensch mit dunkler Haut erkannt werden sollte und wurde stetig schlechter, wenn die zu Erkennenden die dunkelsten Hauttöne auf der Skala besaßen. Die ForscherInnen schlussfolgern, dass Straßen, auf denen selbstfahrende Autos unterwegs sind, für Menschen dunkler Hautfarbe nicht unerheblich gefährlicher sind als für hellhäutige Menschen.
„Rassistische künstliche Intelligenz“
In den veröffentlichten Ergebnissen beschreibt das Forscherteam auch Lösungsvorschläge: Die Softwares müssten im Prozess der Entwicklung schlicht mit differenzierteren Fotos versorgt werden und öfter Bilder von Menschen mit dunkler Haut eingespeist bekommen. Der Rassismus sei direkte Folge von mangelndem Bewusstsein für Diversität in Forschung und Entwicklung zu künstlicher Intelligenz.
Es ist nicht der erste Fall, in dem der Einsatz künstlicher Intelligenz für Persons of Color ein potentiell tödliches Risiko darstellt. In den USA ist Software im Einsatz, die bei einer Verhaftung die Wahrscheinlichkeit ermittelt, dass zukünftig erneut Straftaten begangen werden. Es konnte festgestellt werden, dass sie schwarze Menschen benachteiligt – auch sie wurde mit rassistisch verzerrten Daten gefüttert.