Würden wir bei uns zuhause eine gehende, sprechende und denkende Alexa aufnehmen wollen - wenn sie zugleich schwer bewaffnet wäre?
von Vincenzo Latronico, 12.3.21
Dass die Menschheit Gesetze für künstliche Intelligenzen erlassen werde, sagte der Science-Fiction-Autor Isaac Asimov voraus, lange bevor man sich tatsächlich daran machte. Nun ist die Künstliche Intelligenz da. Wo bleiben die Gesetze?
Den Begriff »Roboter« hat der tschechische Autor Karel Čapek im Jahr 1920 für sein Theaterstück »Rossums Universalroboter« erfunden. In diesem Stück dauert es ganze sechzig Seiten, bis die gesamte Menschheit ausgelöscht ist. Seitdem gibt es kaum Roboter, in deren DNA die Rebellion nicht fest eingeschrieben ist. Vom US-Science-Fiction-Autor Philip K. Dick über »Terminator« bis hin zu »Westworld« scheinen Maschinen, sobald sie auch nur ein wenig Bewusstsein erlangen, an nichts anderes zu denken, als die Menschen aus dem Weg zu räumen, die ihnen dieses Bewusstsein gegeben haben. Dass künstliche Intelligenzen der Bewusstseinsschwelle zusehends näher kommen – wie die jüngsten Berichte zum generativen Sprachmodell GPT-3 zeigen – sollte uns zu denken geben. Wo bleiben die Gesetze der Robotik?
Schon Mitte der 1940er Jahre formulierte der Autor Isaac Asimov die berühmt gewordene Annahme, dass jede künftige Gesellschaft, sobald sie künstliche Intelligenz entwickelt, eine Reihe unumstößlicher Gesetze erlassen müsse. Sie sollten gewährleisten, dass Roboter so programmiert würden; dass sie Menschen nie schaden könnten; dass sie Befehle nie ignorieren dürften, außer wenn sie anderen Menschen Schaden zufügten; dass sie sich selbst nicht zerstören könnten, es sei denn, die beiden anderen Gesetze würden es erfordern. Asimov verfolgte damit vor allem literarische Absichten: Er wollte in seinen Geschichten das erzählerische Potenzial von Robotern ausloten, ohne immer wieder in der Falle der Rebellion zu enden, auf die Robotergeschichten ansonsten unweigerlich zustrebten.
Das Vorhaben ging auf: In den 1940er- und 1950er-Jahren gelang es Asimov, in etlichen Romanen und Kurzgeschichten abwechslungsreich die psychologischen, philosophischen, sozialen und politischen Auswirkungen des Zusammenlebens mit künstlichen Intelligenzen für die menschliche Gesellschaft zu schildern, ohne die Maschinen regelmäßig rebellieren zu lassen. Abgesehen von wenigen Randfiguren, die nur die ästhetische Funktion hatten, Science-Fiction-Welten glaubwürdiger zu gestalten (wie etwa den in Star Wars eingesetzten metallisch-menschelnden Androiden), blieben Asimovs Roboter ebenso wie alle von ihnen inspirierten Nachfolger wohl die einzigen Exemplare intelligenter Maschinen in längeren Erzählungen ohne jeden Hang zum Aufstand. Von daher bieten sie ein interessantes Vorbild für unsere gegenwärtige Lage. Schließlich werden all die Alexas und Roombas von heute immer schlauer, und trotzdem deutet wenig darauf hin, dass sie je ihre Waffen gegen uns erheben werden.
Selbst wenn Asimovs intelligente, sprechende und vermenschlichte Roboter nicht mehr dem gegenwärtigen Stand der Technik entsprechen, müssten viele der heutigen maschinellen Intelligenzen – »smarte« Assistenten genau so wie Drohnen, generative Sprachbots, personalisierte Social Media-Feeds oder selbstfahrende Autos – bei Asimov als einfache Roboter eingestuft werden. Also müssten auch für sie die drei Gesetze gelten. In Wirklichkeit aber scheinen die intelligenten Wesen von heute sich ganz anders zu verhalten. Sie schützen sich nicht selbst – im Gegenteil. Oft sind sie darauf ausgelegt, möglichst schnell kaputt zu gehen, sich kaum reparieren zu lassen und möglichst bald ersetzt zu werden. Ihren Nutzern gehorchen sie so gut wie gar nicht, was sich schon daran zeigt, dass sich das Sammeln von Daten und das Erstellen von Profilen bei Smartphones kaum deaktivieren lässt, ohne die Firmware zu hacken. Und vor allem schützen sie Menschen keineswegs vor Schaden – sie spionieren sie aus, manipulieren sie und speisen sie mit Fake-News und Verschwörungstheorien ab. Ganz zu schweigen von den bewaffneten Drohnen, die zwar noch von Menschen ferngesteuert werden, aber zusehends autonomer agieren, und Menschen schlicht und ergreifend töten.
Falls die Geräte für Endverbraucher zu selbstgesteuerten humanoiden Akteuren werden, sollten wir je wirklich darauf vertrauen, dass sie immer zu unserem Wohl handeln? Würden wir bei uns zuhause eine gehende, sprechende und denkende Alexa aufnehmen wollen – wenn sie zugleich schwer bewaffnet wäre?
Um zu verstehen, warum Asimovs Phantasie an dieser Stelle derart daneben lag, lohnt es sich, genauer zu betrachten, womit er recht behielt. In seinen Büchern werden Roboter nie verkauft, sondern stets weiter vom Hersteller betrieben und nur geleast, so dass im Schadensfall die Verantwortung beim Unternehmen liegt. Genau dasselbe gilt heute auch für all die käuflich erworbenen Geräte – weshalb Garantien verfallen, wenn man sie selbst zu reparieren versucht, und Betriebssysteme blockieren, sobald man sich am Code zu schaffen macht. Tatsächlich dient das nicht dem Schutz der Nutzer, sondern dem Interesse der Hersteller an ihrem geistigen Eigentum, also ihren Profiten und damit dem Kapitalismus allgemein. Das erklärt auch, warum es die drei Gesetze nie umgesetzt wurden: weil man mit dem Verkauf von unreparierbarem Murks, dem Sammeln von Daten und lukrativen Militäraufträgen für automatisierte Tötungsmaschinen viel mehr Geld verdienen kann als mit Asimovs netten, logisch korrekten und wohlgesitteten mechanischen Menschen. Warum haben Asimovs Roboterproduzenten das so nicht kommen sehen?
Tatsächlich war ihnen das sehr wohl klar. Asimov wollte eine künftige kapitalistische Gesellschaft schildern. Die unternehmerischen Risiken der U.S. Robots and Mechanical Men, Inc. – wie zum Beispiel Umstürze in der Vorstandsetage, Diebstahl geistigem Eigentums und knallharter Wettbewerb – spielten in vielen seiner Geschichten eine bestimmende Rolle. Als entscheidender erwies sich jedoch der Widerstand der Menschen gegen die Roboter. Aus Angst vor der Konkurrenz und vor dem Verlust von Arbeitsplätzen, aus religiös übersteigertem Hass gegen künstliches Leben und aus der Furcht vor der gewaltigen Macht eines Unternehmens, das einen Großteil der universalen Arbeitskräfte stellt, entwickelten die Menschen eine ausgeprägte Feindseligkeit gegenüber den Robotern. Schon kurz nach der Erfindung sprachfähiger Maschinen wurde ihr Einsatz auf der Erde verboten. Auf Raumstationen und in Kolonien durften sie nur unter strengster Beachtung der drei Gesetze zum Einsatz kommen. Die Sorge, dass Neuerungen die Funktion der Maschinen verändern könnten, führte in entscheidenden Momenten unverzüglich zu der Forderung, die Produktion neuer Roboter ganz und gar zu unterbinden.
Dieser Verlauf entsprach durchaus Asimovs erzählerischen Absichten. Die Wendung zum »Roboteraufstand« konnte er in seinen Geschichten nur dann plausibel ausschließen, wenn jeder einzelne seiner Roboter sich strikt an die Drei Gesetze hielt. Nur der Verweis auf das wirtschaftliche Eigeninteresse der Firma U.S. Robots and Mechanical Men, Inc. ließ die Gesetzestreue glaubhaft erscheinen. War es doch viel profitabler, logisch korrekte, freundliche und wohlgesittete Maschinen-Menschen zu verkaufen, als das Risiko einzugehen, die Produktion von der Regierung auf Druck von Gewerkschaften oder religiösen Sekten verbieten zu lassen.
Am Ende sind Roboterfiktionen nie nur metaphysisch, sondern immer politisch – wie jede Art von Aufstand, auch wenn es seltsam erscheinen mag, politische Verhältnisse ausgerechnet an Erzeugnissen der Popkultur wie etwa Terminator zeigen zu wollen. (Tatsächlich machen sich die Filme niemals die Mühe zu erklären, warum genau die bösen Maschinen rebellieren. Das würde nur das binäre Gut-Böse-Schema des Kinos durcheinander bringen. Tatsächlich können sie darauf problemlos verzichten, weil es ganz offensichtlich einleuchetet, dass Entrechtete irgendwann rebellieren.) Um so klarer erscheint nun, warum Asimov, um die Revolte auszuschließen und gleichzeitig eine Reihe anderer Erzählstränge zuzulassen, unausweichlich beim Kapitalismus landen musste. Denn nur die Drei Gesetze hielten Asimovs Roboter von der Rebellion ab; und die Macht der Unternehmen als Eigentümer war zusammen mit dem Respekt vor der Regierung das Einzige, was diesen Gesetzen Geltung verschaffte. Asimovs rationalistisch-optimistischer und fast schon verzweifelt naiver Fortschrittsglaube ließ die Vorstellung nicht zu, kapitalistische Unternehmen könnten je zu einer Größe anwachsen, die sie der Kontrolle durch Regierungen entziehen würde, wie es heute zunehmend der Fall ist. Im übrigen ging er davon aus, dass die Regierungen auf lange Sicht immer den Interessen der Arbeiter folgen würden. In diesem Sinn waren es also nicht die Drei Gesetze per se, die die möglichen Verläufe von Robotergeschichten in Asimovs Erzählwelt festlegten, sondern die zugrundeliegenden Machtverhältnisse.
Dieser Beitrag erscheint im Rahmen der Reihe #onezerosociety. Darin gehen wir in Zusammenarbeit mit dem Goethe-Institut den Formen, Möglichkeiten und Grenzen einer bestehenden und kommenden »digitalen Zivilgesellschaft« nach.
Weitere Beiträge in der Reihe #onezerosociety:
Johanna Seibt: »Mit Robotern leben lernen«
Robert Feustel: »Das Zero-One-Game: Politik als Spiel«
Nicolas Friederici: »Towards a fair European platform economy«
Natascha Strobl: »Stochastischer Terrorismus«
Daniel-Pascal Zorn: »Eine Geschichte aus zwei Städten«