Kommentar zu einer laufenden Debatte unter Technologiefürsten – von Thomas Stark

Facebook-Chef Mark Zuckerberg und Elon Musk, Boss des Elektroautoherstellers Tesla, haben sich öffentlich gestritten und beschimpft. Dabei ging es um die gesellschaftlichen Folgen, die von einer Weiterentwicklung künstlicher Intelligenz zu erwarten sind.

Während Musk in einer Rede vor US-Gouverneuren von der „größten Bedrohung“ sprach, „der wir als Zivilisation gegenüberstehen“ und eine „proaktive Regelung“ einforderte, hielt Zuckerberg dem entgegen, wer „gegen künstliche Intelligenz“ argumentiere, argumentiere „gegen sicherere Autos und gegen bessere Diagnosen für Kranke“. Musk wiederum bescheinigte Zuckerberg öffentlich, dieser habe nur ein begrenztes Verständnis von der Materie. (Link)

Wenn die Bosse großer kapitalistischer Technologieunternehmen sich über die Medien reißerisch um ein Thema streiten, mit dem beide unter anderem ihr Geld verdienen, liegt der Verdacht nahe, dass es sich hier um eine PR-Maßnahme handelt. Allem Anschein nach dürften außerdem unterschiedliche Interessen beider Firmen hinsichtlich der künftigen staatlichen Industriepolitik in den USA eine Rolle spielen. Die Forschung an künstlicher Intelligenz kostet schließlich Geld und bedarf gesetzlicher Regelungen.

Übermenschliche Intelligenz?
Dennoch ist die Frage, um die es geht, hochbrisant: Ist die „wissenschaftlich-technische Revolution“ tatsächlich schon so weit fortgeschritten, dass in absehbarer Zeit mit „übermenschlicher Intelligenz“ in Form denkender Maschinen zu rechnen ist?

Die Idee intelligenter, künstlicher Lebewesen gibt es mindestens seit dem Mittelalter. In der Literatur tauchte der künstliche Mensch als „Homunkulus“ in Goethes „Faust II“ oder in Mary Shelleys Roman „Frankenstein“ schon lange vor der Blütezeit des Science-Fiction-Genres auf. Mit der Entwicklung der Computertechnik entstand bereits Anfang der 1950er Jahre in der realen Wirtschaft ein Boom rund um die künstliche Intelligenz in Form hoher Forschungsinvestitionen, der jedoch wieder abflaute, als sich die damaligen Vorstellungen von den denkenden Maschinen als technisch unrealistisch erwiesen.

Die Entwicklung der Robotertechnik und des maschinellen Lernens in den vergangenen Jahren hat die Verwirklichung dieser Idee nun scheinbar wieder näherrücken lassen (wenn man andere, nicht-computerbasierte, z.B. biologische Ansätze zur Erzeugung künstlichen Lebens außen vor lässt): Intelligente Computersysteme wie das Programm „Watson“ von IBM oder Googles „Alpha Go“, das im Jahr 2016 erstmals einen menschlichen Gegner im sehr komplexen Brettspiel „Go“ geschlagen hat (was bis dahin für unmöglich gehalten wurde), bilden den realen Hintergrund für jüngere Science-Fiction-Filme wie „Transcendence“ oder „Ex Machina“, bei denen Maschinen mit Bewusstsein die Hauptrollen spielen. Das Grundmotiv: Die Verbindung aus Bewusstsein und allen Vorzügen moderner Computersysteme (insbesondere der Rechengeschwindigkeit) machen die Maschinen den Menschen überlegen. Sie können sich selbst verbessern, werden immer mächtiger und schließlich unkontrollierbar.

Davor, dass diese Gefahr in der realen Welt tatsächlich bestehe und das Ende der Menschheit drohe, warnte im Jahr 2014 der bekannte britische Physiker Stephen Hawking (Link). In der Fachwelt und der interessierten Öffentlichkeit geistert der Begriff der „technologischen Singularität“ umher: Damit ist ein Zeitpunkt gemeint, ab dem sich denkende Maschinen selbst verbessern können und damit eine derartige Beschleunigung der technischen Entwicklung hervorrufen, dass ab diesem Zeitpunkt keine Vorhersagen über die Zukunft der Menschheit mehr möglich sind.