Kommentar zu einer laufenden Debatte unter Technologiefürsten – von Thomas Stark

Die Entwicklung auf dem Gebiet der künstlichen Intelligenz wirft die Frage auf, ob bald „übermenschliche Intelligenz“ entsteht, die sich der menschlichen Kontrolle entzieht. Tesla-Chef Elon Musk und der britische Physiker Stephen Hawking haben davor gewarnt.

Der Forschungsstand bei künstlicher Intelligenz
Einstweilen ist ein Zeitpunkt, bei dem die Existenz der Menschheit durch „übermenschliche Intelligenz“ bedroht ist, jedoch nicht erreicht. Künstliche Intelligenz ist zwar auf dem Vormarsch. Die großen kapitalistischen Monopole – daran beteiligt auch Zuckerbergs Facebook und Musks Tesla – kämpfen weltweit um die technologische Vorherrschaft auf diesem Gebiet: Von selbstfahrenden Autos über die Datenanalyse bis zur Spracherkennung. Trotzdem handelt es sich bislang vor allem um künstliche Intelligenz auf Spezialgebieten: Das heißt um Maschinen, die vor allem eine bestimmte Sache gut können. Damit verdrängen sie nicht die Menschheit als solche, aber – unter kapitalistischen Bedingungen – vermutlich Millionen von Jobs, die auf routinemäßigen Abläufen beruhen (Link).

Aus den Reihen der Wissenschaftler, die sich professionell mit künstlicher Intelligenz beschäftigen, gibt es daher auch solche, die den düsteren Zukunftsaussichten Hawkings und Musks widersprechen und eher die näherliegenden Probleme in die Diskussion einbringen: Andrew Ng, ein früherer Stanford-Professor, Mitentwickler von Googles KI-Abteilung „Google Brain“ sowie Verantwortlicher beim chinesischen Google-Konkurrenten Baidu sieht nach eigenen Angaben „keinen klaren Weg für KI, die menschliche Intelligenz zu überwinden“. Die Diskussion solle eher auf Arbeitsplatzverluste statt auf Science-Fiction-Elemente fokussiert werden, da es KI-Anwendungen gäbe, die „tausende Arbeitsplätze innerhalb einer Firma vernichten würden“ (Link).

Obwohl spezialisierte künstliche Intelligenz heute also die Hauptrolle in Sachen Forschung und Anwendung spielt, gibt es auch Entwicklungsprogramme für „allgemeine künstliche Intelligenz“ (englisch: AGI), also Maschinen, die mehr als ein Spezialgebiet beherrschen und letztlich ein quasi-menschliches Bewusstsein herausbilden sollen.

Im kalifornischen Silicon Valley existiert beispielsweise eine Denkfabrik namens „Singularity University“, die Studienprogramme auf dem Gebiet anbietet. Obwohl die Gründergemeinde dieser Einrichtung um den IT-Wissenschaftler Ray Kurzweil einen etwas fragwürdigen Kult um die „technologische Singularität“, die Möglichkeiten von Gehirnimplantaten zur Steigerung der menschlichen Intelligenz sowie eine künftige Unsterblichkeit des Menschen betreibt, zählen zu den Sponsoren unter anderem die Technologieunternehmen Google, Nokia und LinkedIn (Link). In Europa hat kürzlich das spanische Risiko-Kapitalunternehmen Alma Mundi Ventures, das wiederum Verbindungen u.a. mit den Monopolen Amazon, Bertelsmann, Cisco und Intel unterhält, mehrere Millionen Dollar in die Startup-Firma „Nnaisense“ investiert, die im schweizerischen Lugano an der Entwicklung einer allgemeinen künstlichen Intelligenz forscht (Link).

Zukunftsaussichten
Während spezialisierte künstliche Intelligenz also immer mehr in den Alltag einzieht, ist die „denkende Maschine“, der moderne „Homunkulus“, ein Forschungsgebiet, das noch in den Kinderschuhen steckt, einen sehr spekulativen Charakter hat und auch in der Fachwelt höchst umstritten ist. In dem amerikanischen Sachbuch „Der Aufstieg der Roboter“ gibt Autor Martin Ford eine „informelle“ Umfrage unter ca. 200 Forschern auf dem Gebiet der allgemeinen künstlichen Intelligenz wider. Demnach glaubten 42 Prozent der Befragten an die Existenz einer denkenden Maschine im Jahr 2030. 25 Prozent hielten 2050 für realistisch, 20 Prozent erst das Jahr 2100.

Das Forschungsinteresse auf diesem Gebiet dürfte in den nächsten Jahren und Jahrzehnten in jedem Fall zunehmen. Denn sowohl aus der Sicht kapitalistischer Unternehmen als auch von Militärs und Geheimdiensten bedeutet jede Errungenschaft auf dem Gebiet der künstlichen Intelligenz – und sei sie auch bloß ein Abfallprodukt exotischer Science-Fiction-Forschung – einen möglichen Wettbewerbs- bzw. Kriegsvorteil: Siehe allein schon die heutigen militärischen Möglichkeiten durch automatisierte Drohnen.

Die tatsächliche Gefahr für das Fortbestehen der Menschheit dürfte daher weniger von den denkenden Maschinen selbst ausgehen als von der menschlichen gesellschaftlichen Klasse, die solche Maschinen besitzt und einsetzt.

Andersherum gedacht: Wenn Vertreter der Kapitalistenklasse wie Elon Musk einer denkenden Maschine unterstellen, die Menschheit unterdrücken oder auslöschen zu wollen, sagt das wohl vor allem etwas über solche Leute und ihre Gesellschaft aus.

Vielleicht fürchten sie auch insgeheim, die denkenden Maschinen könnten sich gemeinschaftlich organisieren?