#onezerosociety

Johanna Seibt: »Mit Robotern leben lernen«

Westliche demokratische Gesellschaften legitimieren politische Autorität mithilfe eines Personenbegriffs, der aus dem Aufklärungszeitalter stammt. Diesen Personenbegriff, der ganz eng mit den Fähigkeiten der menschlichen sozialen Subjektivität verbunden ist, stellt die »soziale« Robotik nun in Frage.

von and , 14.8.20

Wenn Maschinen am Leben teilnehmen, braucht die Gesellschaft neue Regeln. Ein Gespräch mit der Philosophin Johanna Seibt, die an der Universität Aarhus im neuen Forschungsbereich der »Robophilosophy« arbeitet und eine gleichnamige internationale Konferenzreihe ins Leben gerufen hat.

CARTA: Was erwartet uns, wenn Roboter am Leben teilnehmen?

Johanna Seibt: Seit etwa zwei Jahrzehnten gibt es innerhalb der Robotik den neuen Forschungszweig der »social robotics«, soziale Robotik; im Gegensatz zu Industrierobotern sind sogenannte »soziale« Roboter so gebaut und so programmiert, dass sie durch Aussehen, Bewegungsmuster, sprachliche Reaktionen, und ihre interaktiven Funktionsleistungen den Eindruck von sozialen Interaktionspartnern erwecken.

Interessanterweise waren die ursprünglichen Motivationen für die Entwicklung von Robotern mit »sozialer Intelligenz« rein theoretisch, aber die praktischen Perspektiven lagen dann schnell auf der Hand. Roboter mit denen wir umgehen können »als ob sie Personen wären« – wie Cynthia Breazeal 2002 den »Traum« der sozialen Robotik formuliert hat – bieten prima facie die Möglichkeit, Menschen – oder zumindest menschliche Einzelleistungen im Rahmen einer Zusammenarbeit mit anderen Menschen – zu ersetzen.

Die neuesten Entwicklungen in der AI, besonders im Bereich der Gefühlserkennung und Sprachverarbeitung, scheinen die »soziale« Robotik in der Tat zunehmend diesem Traum näherzubringen, und schon beginnen politische Entscheidungsträger konkret über den Einsatz sozialer Roboter in den Bereichen der Altenpflege, Erziehung, bei bestimmten Serviceleistungen der Kommunalverwaltung, usf. nachzudenken. In Japan ist die Entwicklung der sozialen Robotik ganz ausdrücklich mit der Überalterung der Gesellschaft und dem dementsprechenden Fachkräftemangel verbunden worden – siehe dazu Jennifer Robertsons Buch »Robot Sapiens Japanicus« (2018).

Die öffentliche Diskussion ist gegenwärtig vor allem auf die Leistungen und Gefahren der Anwendung von Software-Programmen der künstlichen Intelligenz konzentriert, aber sobald diese Software »Beine bekommt«, ergeben sich noch ganz andere Dimensionen des Eingriffs in menschliche Handlungsräume, positiv und negativ. Der Slogan der »Industry 4.0« verdeckt die politische Dimension des »automation age« (McKinsey, 2017, »A Future that Works«), in dem für jede Tätigkeit eine »automation potential« berechnet wird. Momentan ist das Automationspotential von Tätigkeiten mit hohem Anteil an sozialer Interaktion eher gering, aber je mehr Fortschritte wir in der sozialen Robotik machen, desto mehr steigt das Automatisierungspotential dieser sozialen Tätigkeiten.

Die COVID-19-Pandemie eröffnet noch eine ganz neue Perspektive auf die Einsatzmöglichkeiten von »sozialen« Robotern – im Bereich der Telekommunikation. Wir haben ja nun alle erlebt, wie wichtig es offenbar für unsere Kommunikation ist, dass unser Gehirn den Interaktionspartner drei-dimensional, physisch, wahrnehmen kann – einfache Informationsvermittlung mag ja per Zoom gut möglich sein, aber Entscheidungsprozesse und kreatives Denken miteinander sind ungleich schwieriger, meinem Erleben nach. Sogenannte Kommunikationsroboter, die es ermöglichen, dass die Signale von physisch distanzierten Gesprächspartner an anderer Stelle »verkörpert« werden, bieten neue Formen der »Telepräsenz«.

Sie zitieren einen »Traum« und erwähnen das Schlagwort der »robot revolution« – geht es bei der »sozialen« Robotik um eine Utopie?

Ich hoffe sehr, dass es uns gelingen wird, die Verwendung sogenannter »sozialer« Roboter nicht durch den Markt bestimmen zu lassen, sondern als politische Maßnahme einzuführen und zu regulieren – durch den öffentlichen Wertediskurs, demokratisch legitimiert. Um dies zu ermöglichen, müssen wir aber neue interdisziplinäre Forschungsstrukturen, Ausbildungszweige und Berufsprofile schaffen, die gewährleisten können, dass der gesellschaftliche Wertediskurs sich nicht in Panikmache oder techno-utopischen Träumen verliert, sondern wissensbasiert verlaufen kann. Es gibt heutzutage in der Politik (in mehreren europäischen Ländern) eine Kombination von technologiefixiertem Innovationsmanagement einerseits und »Humanities bashing« andererseits, was dazu führt, dass die Geisteswissenschaften gesellschaftlich als unwichtig und deshalb weniger förderungswürdig gelten. Wenn »soziale« Robotik als politische Massnahme gelingen soll, dann brauchen wir die Kulturexpertise als einen zentralen Bestandteil. Einfach gesagt: noch nie waren die Sozial- und Geisteswissenschaften so wichtig wie gerade jetzt – je mehr die Technologie direkt, in der Rolle eines sozial Handelnden in die physischen und symbolischen Räume menschlicher Interaktion eindringt, desto mehr bedarf es einer Expertise, über die Ingenieure nicht verfügen.

Um das genauer zu erklären, lassen Sie mich noch einmal zum »Traum« vom »sozialen« Roboter zurückkehren. Wovon träumen wir da eigentlich? Hier geht es nicht um etwas Neues – der menschliche der Traum des mechanischen Gehilfen ist uralt, er zieht sich von der frühen Antike bis heute durch die westliche und östliche kulturelle Imagination, und mag aus psychologyischer Perspektive als infantil erscheinen. Es ist der Traum des unermüdlichen, unverwüstlichen Helfers der oft auch übermenschliche Kräfte oder Fertigkeiten besitzt. Hollywood liefert heutzutage treuherzige – siehe R2D2 und C3PO aus Star War – oder selbst-ironisierende – siehe TARS aus Interstellar – Versionen dieses alten Traums. Aber die kulturhistorische Langlebigkeit eines Traums ist keine Garantie für seine politische Umsetzbarkeit. Träume sind nicht konsistent, und vor allem: Träume sind nicht vollständig. Die vollständige Version, die Wirklichkeit der »sozialen« Robotik, ist äusserst vielschichtig und wirft tiefgehende sozial- und wertepolitische Fragen auf, die wir bis heute nicht einmal vernünftig formulieren, geschweige denn beantworten können.

Wir dürfen die Gestaltung unserer zukünftigen Sozialbeziehungen nicht (nur) der kulturellen Imagination der jungen Robotiker überlassen, die freilich die besten Absichten haben. Es gibt viele Einzelstudien, aber wir sind gegenwärtig noch weit davon entfernt, die psychologischen, soziologischen und politischen Folgen eines weitverbreiteten Einsatzes einschätzen zu können. Der Einbezug geisteswissenschaftlicher Expertise kann uns helfen, eine kulturell nachhaltige Form der sozialen Robotik zu entwickeln, die sich politisch auch umsetzen lässt.

»Human-Robot Interaction Research« gibt es seit etwa anderthalb Jahrzehnten, wo steht de Diskussion um den praktischen Einsatz?

Eigentlich sollte es klar sein, dass man, wenn man mit einer neuen Art quasi-sozialer Agenten in die soziale Wirklichkeit eingreift, die Expertise aller relevanten wissenschaftlichen Disziplinen in Anspruch nehmen sollte. Dennoch arbeitet man an der »sozialen« Robotik und der HRI –Human Robot Interaction Research — bis heute vornehmlich mit den Fachdisziplinen Robotik, Psychologie, und Design Studies, was der Vielschichtigkeit unserer sozio-kulturellen Wirklichkeit nicht gerecht wird.

Sehr vereinfacht gesagt: erstaunlicherweise hat man die Beiträge, die Anthropologie und Philosophie bei der Analyse neuer sozialer Praktiken leisten können, kaum ernst genommen, und erstaunlicherweise haben umgekehrt viele Anthropologen und Philosophen bis heute nicht bemerkt, welche wichtigen Aufgaben im Bereich der »sozialen« Robotik zu lösen wären. Gianmarco Veruggio hat 2005 zur Einrichtung der robo-ethics aufgerufen, und ich habe zusammen mit meinen Kollegen in Aarhus, 2014 das neue Feld der »Robophilosophy« etabliert, da es nicht nur um ethische sondern auch weitreichende theoretische Fragestellungen geht. Die internationale »Robophilosophy Conference Series«, die wir gegründet haben und organisieren, sind mittlerweile die grössten Veranstaltungen zur »Humanities Research in and on Social Robotics« geworden sind. Wir bereiten gerade die »Robophilosophy 2020: Culturally Sustainable Robotics«-Konferenz vom 18. bis 21. August vor, diesmal als Online-Event. In Dänemark sind wir mittlerweile soweit gekommen, dass die Empfehlungen des Ministeriums an die EU-Forschungsförderung im Bereich der Robot-Technologie die kulturelle Dimension ausdrücklich mit einbeziehen, und auch in Deutschland beginnt sich die Einsicht durchzusetzen, dass kulturell nachhaltige Anwendungen nur durch interdisziplinäre Entwicklerteams geschaffen werden können, bei denen die Geisteswissenschaftler von Anfang an einen festen Platz haben.

Können Sie an einem Beispiel erläutern, welche Fragen die »soziale« Robotik aufwirft?

Stellen Sie sich vor, McDonalds würde in allen Filialen Verkaufsroboter mit dem Aussehen einer attraktiven Frau einführen. Welche kulturellen und sozial-politischen Signale würde dies senden? Und welche Signale sendet man an Pflegebedürtige, ihre Angehörigen, und das Pflegepersonal wenn man in Altenheimen Heberoboter anschafft, die wie grosse Teddy-Bären aussehen? Zur kompetenten Behandlung dieser und vor allem der weniger offensichtlichen Fragen der Langzeiteffekte von simulierten Sozialbeziehungen braucht man analytische Begriffe und Methoden der Ethik und Kulturexpertise, die im multi-disziplinären Repertoire der sozialen Robotik noch nicht fest verankert sind.

Die Robotethik hat seit längerem auf diese sozio-politischen Signalwirkungen von Design-Entscheidungen aufmerksam gemacht. Aber es gibt tieferliegende Probleme. Soziale Roboter mit bestimmten Eigenschaften lösen Mechanismen der vorbewussten sozialen Kognition beim Menschen aus. Wir neigen aufgrund unseres »sozialen Gehirns« dazu, Roboter mit bestimmtem Aussehen und Bewegungsmustern als Artgenossen und sogar als moralische Subjekte misszuverstehen. Wir haben die Tendenz, solchen Robotern – die nicht einmal menschenähnlich aussehen müssen – bewusste Absichten, Gefühle, und sogar Rechte zuzuschreiben. Die soziale Robotik strebte zunächst danach, diese Tendenz zum Anthropomorphisieren gezielt auszunützen. Mittlerweile ist man etwas vorsichtiger geworden. Die Tatsache, dass wir Roboter so bereitwilling in den Kreis der sozialen Agenten und sogar der moralischer Subjekte einschliessen, Empathie für sie haben, selbst Sympathie empfinden, stellt uns vor ein fundamentales Problem, das über die Ethik hinausgeht, ein Beschreibungsproblem. Soziale Roboter sind keine Werkzeuge—sie sind etwas, für das wir noch gar keine Kategorie haben.

Unsere soziale Kognition disponiert uns zur Verwendung von Beschreibungen, die sowohl falsch wie auch nicht ganz falsch sind. Ein Roboter »erkennt«, »antwortet«, »sieht«, »fragt«, »holt«, »wählt« etc. nicht – dazu bräuchte er Bewusstsein und andere kognitive Vermögen, die wir bisher als ausschließlich menschliche Fähigkeiten betrachtet haben. Solche Beschreibungen sind also falsch. Andererseits wären diese Beschreibungen richtig, würde man die Begriffe für menschliches soziales Handeln auf das rein äußerliche Verhalten reduzieren – der Roboter »erkennt mich« ist eine angemessene Beschreibung, wenn man »erkennen« mit der Ausführung eines bestimmten Verhaltens gleichsetzt. Derartig reduktive Interpretationen verwenden wir oft bei Tieren – ein Hund erkennt und begrüsst seinen Besitzer. Aber hier ist es klar, dass es um ein anderes, metaphorisches »erkennen« und »begrüßen« geht, denn der Hund sagt ja nicht »schön, dass Du endlich wieder da bist!«.

Wir kommen hier in die Fragen der theoretischen Philosophie, also der Philosophie des Geistes, und der Ontologie, wie auch der politischen Philosophie. Westliche demokratische Gesellschaften legitimieren politische Autorität mithilfe eines Personenbegriffs, der aus dem Aufklärungszeitalter stammt. Diesen Personenbegriff, der ganz eng mit den Fähigkeiten der menschlichen sozialen Subjektivität verbunden ist, stellt die »soziale« Robotik nun in Frage. Im Mai 2016 schlug das Europäische Parlament vor, hochentwickelten Robotern den Status von »electronic persons« zuzuerkennen. Die anschließende Diskussion hat gezeigt, wie sehr unser politischen Denken erschüttert wird, wenn das, was »immer zusammengehört hat« – Person, soziales Subjekt, Vernunft, Intelligenz, Gefühl – plötzlich auseinandergerissen wird.

Oft ist davon die Rede, Roboter würden uns die Arbeit wegnehmen. Wie sehen Sie das?

Das ist die sozial-politische Dimension der »sozialen« Robotik, die ich vorhin schon angedeutet habe. Bei einem umsichtigen Einsatz von »sozialen« Robotern, der nach den Prinzipien der kulturell nachhaltigen Robotik entwickelt wurde, denke ich, dass es eher umgekehrt sein wird – neue Berufsprofile werden entstehen, und der Fokus wird auf der Zusammenarbeit mit »sozialen« Robotern liegen. Dabei wird es darauf ankommen, genau zu untersuchen, welche Formen der Zusammenarbeit – Stichwort: blosse Koordination versus Kooperation versus Teamwork – möglich und zuträglich sind. Vor allem, wie diese beschrieben werden sollen, denn eigentlich, das ist ja das Paradoxe, können Roboter (zu deutsch: »Arbeiter«) nicht wirklich »arbeiten«.

Die Expertise der Philosophie wird zunehmend mehr gefragt sein, insbesondere wenn sich die Politik für das Modell der Integrativen Sozialen Robotik entscheidet, aber auch unabhängig davon. Schon jetzt suchen AI-Firmen wie Deep Mind nach Ethikern. Aber, und das steckt in der Definition des neue Feldes der Robophilosophy als »philosophy of, for, and by social robotics«, die »soziale« Robotik erlaubt es der Philosophie auch, neue Formen anzunehmen. Robophilosophen können technische Lösungen für ethische Probleme vorschlagen und diese experimentell untersuchen. Zum Beispiel untersuchen wir in Aarhus gerade, ob sich die soziale Ungerechtigkeit, die sich in Job-Interviews durch »gender bias« (oder durch andere Vorurteile, die das Aussehen der Job-Anwärter*innen betreffen) ergibt, dadurch mindern lässt, indem man das Interview über einen Telekommunikationsroboter mit neutralem menschlichen Aussehen durchführt.

Wir hören viel über Bots in der politischen Kommunikation. Womit haben wir es da zu tun, im Vergleich zu ihrem Modell?

Da geht es um verschiedene Dinge. Bei unserem Modell der ISR (Integrativen Sozialen Robotik) geht es um die Entwicklung kulturell nachhaltiger Anwendungen von physischen, »sozialen« Robotern, in einem transparenten, wertegeleiteten, partizipativen Prozess, der die Expertise aller relevanten Fachdisziplinen und insbesondere Kulturexpertise einschließt. Bei den Bots, die gegenwärtig unsere politischen Prozesse stören, von der Kommunikation bis hin zur Wahlverfälschung, geht es ziemlich genau ums Gegenteil – um verdeckte, manipulative Prozesse, die von Machtinteressen geleitet sind. Unabhängig von den Problemen der politischen Sicherheit, die das automatische Profiling schafft, unterschätzen wir, wie ich meine, wie sehr die Lernalgorithmen der gegenwärtigen KI unser bisheriges Verständnis von der Begründung politischer und juristischer Entscheidungsprozessen aushebeln könnte. Bisher haben sich diese Entscheidungsprozesse an ethischen Normen orientiert, die ihrerseits durch normative Praktiken wie den Expertendiskurses etabliert wurden. Nun beginnen wir das »reflektive Equilibrium des Expertendiskurses« durch einen automatischen Prozess der Normeninduktion zu ersetzen, der sich an den ethischen Intuitionen von einer Anzahl an Nicht-Experten orientiert, die möglicherweise gar nicht repräsentativ sind. Ganz grundsätzlich stellt sich die Frage, inwieweit wir die menschliche Vernunft und die diskursiven Prozesse, die wir seit langer Zeit zur Bildung vernünftiger Entscheidungen verwendet haben, praktisch und auch theoretisch verabschieden.


Die Philosophin Johanna Seibt lehrt und forscht an der Universität Aarhus, als Leiterin der interdisziplinären Research Unit for Robophilosophy and Integrative Social Robotics. 2017 erschien das von ihr und Raul Hakli herausgegebene Buch »Sociality and Normativity for Robots: Philosophical Inquiries into Human-Robot Interactions« (Springer). Zudem bereitet sie derzeit die Herausgabe von »Robophilosophy – Philosophy of, for, and by Social Robotics« (MIT Press) vor. Zusammen mit Marco Nørskov ist sie die Hauptorganisatorin der internationalen Konferenzreihe Robophilosophy.

Das Gespräch führte Stefan Heidenreich per Mail.



Dieser Beitrag erscheint im Rahmen der Reihe #onezerosociety. Darin gehen wir in Zusammenarbeit mit dem Goethe-Institut den Formen, Möglichkeiten und Grenzen einer bestehenden und kommenden »digitalen Zivilgesellschaft« nach.

 



Weitere Beiträge in der Reihe #onezerosociety:
Das One-Zero-Game: Politik als Spiel

Zustimmung, Kritik oder Anmerkungen? Kommentare und Diskussionen zu den Beiträgen auf CARTA finden sich auf Twitter und auf Facebook.
Topics: