Direkt zum Inhalt

re:publica 13 | Ethische Frage oder künstlicher Glaube?

Druckversion
Brauchen wir eine Grundrechtecharta für Roboter? Diese verrückte, posthumane Frage stellte die amerikanische Politologin Kate Darling auf Deutschlands größter Internet-Konferenz re:publica 13. Wie bitte? Grundrechte für rollende Blechcontainer? Ein Bericht über Spielzeugdinosaurier und die Schwierigkeiten, diese gegen die Wand zu schleudern.
Dienstag, 7. Mai 2013
Re:publica 13 II

Rationale Irrationalität auf der re:publica 13 | Foto: Thomas Hummitzsch

Man muss kein Prophet sein, um die Annahme, in den nächsten Jahren würden zahlreiche Roboterformen in den Alltag der Menschen treten, als ziemlich gesicherte Tatsache wahrzunehmen. Roboter und Arbeitsmaschinen für den Einsatz in Krankenhäusern, bei der Pflege und im weiteren Dienstleistungssektor sind längst in der Erprobungsphase. Auf der diesjährigen Internetkonferenz re:publica 13, die in diesen Tagen in Berlin stattfindet, stellte die amerikanische Politologin Kate Darling vom Media Lab des renommierten Massachusetts Institute of Technology die Frage, ob vor diesem Hintergrund über Grundrechte für Roboter nachgedacht werden müsste. Sie fordert damit nichts weniger, als den Gegenentwurf zu Isaac Asimovs Robotergesetzen, in denen der Science-Fiction-Autor definiert, was und wie ein Roboter sein sollte. Kate Darling geht es nämlich darum, wie der Mensch sein sollte im Umgang mit Robotern und Maschinen. 

Zu Beginn ihres Vortrags betonte Kate Darling, dass Roboter nicht so schnell zu fühlenden Lebewesen werden würden. Aber Roboter beeinflussen schon jetzt unser soziales Leben. Und sie agieren in irgendeiner weise sozial in dem Sinne, als dass ihr Handeln direkt auf den Menschen wirkt. Dies zumindest haben Darling und andere Wissenschaftler festgestellt. Je autonomer Maschinen und Roboter agieren, desto eher neigen Menschen dazu, sie wie echte Lebewesen zu behandeln, erklärt die Amerikanerin am Beispiel eines Experiments mit Spieldinosauriern für Kinder. Dabei mussten ihre Probanden eine Stunde lang mit dem batteriebetriebenen Spieldinosaurier interagieren und wurden anschließend aufgefordert, den Spielgegenstand zu zerstören. Zur Überraschung Darlings taten sich ausnahmslos alle Probanden schwer damit, das Spielgerät zu zerstören. Als sie aufgefordert wurden, das Ding auf den Boden zu schleudern oder mit einem Gegenstand darauf einzuschlagen, zögerten sie und agierten überaus zurückhaltend. Stanislaw Lems Robotermärchen lassen grüßen.

Menschen reagieren auf soziale Verhaltensweisen von lebensähnlichen Maschinen, selbst wenn sie wissen, dass diese nicht echt sind. Roboter berühren unsere Gefühle, fanden Wissenschaftler der Universität Duisburg-Essen in ähnlichen Versuchsreihen erst kürzlich heraus. Dies würde erklären, warum es den Menschen, die zuvor in Interaktion mit den Maschinen standen, so schwer fällt, diese zu zerstören. Dieses Verhalten ist aber auch aus dem Alltag mit nicht-lebensähnlichen Maschinen bekannt. Menschen reagieren mit Befremden, Unwohlsein und Aggression, wenn andere mit ihren Gegenständen nicht „adäquat“ in ihrem Sinne umgehen, wobei der Sinn dabei selbst gegeben und individuell ist.

Damit könnte man es bewenden lassen. Darling aber fragt im Stile der technik-affinen Philosophin, was die wissenschaftlichen Beobachtungen für Konsequenzen auf den vor uns liegenden Alltag mit Robotern und lebensähnlichen Maschinen haben. Was heißt das für den Umgang zum Beispiel mit Robotern, die bereits jetzt getestet werden, um mit autistischen Kindern zu arbeiten oder für Pflegeroboter? Wenn wir diese Roboter anders wahrnehmen, müssen wir sie dann auch anders behandeln, müssen wir sie in irgendeiner Art und Weise beschützen, etwa so wie Tiere?

Kate Darling auf der re:publica 13

Kate Darling in der Diskussion nach ihrem Vortrag auf der re:publica 13 | Foto: Thomas Hummitzsch

Zugegeben eine provokante Frage, aber wenn man sich erst einmal auf diesen Denkversuch einlässt, dann entdeckt man durchaus einige interessante Fragen, die zutiefst mit dem, was den Menschen zum Menschen macht in Verbindung stehen. Denn bei der Ergründung der Frage, was diese Maschinen von Tieren unterscheidet, stellt man schnell fest, dass wir Tiere (fernab der religiösen „Wir sind alle Geschöpfe des Herrn“-Position) aufgrund einer sozialen Erfahrung schützen. Weil Tiere auf menschliche Aktionen sozial reagieren, wenn der Mensch mit ihnen interagiert, werden sie beschützt. Daran gekoppelt ist ein Wertesystem, in dem die Menschlichkeit einer Person an ihren grundsätzlichen Umgang mit Tieren gekoppelt ist. Wer gut zu Tieren ist, kann kein schlechter Mensch sein. In dieser Binsenweisheit ist dieses Wertesystem auf seinen Kern zusammengeschmolzen.

Aber gilt das auch für Roboter und Maschinen? Brauchen wir eine Robot Ethic, so die Überschrift des Beitrags von Kate Darling? Es sei sicher nicht das wichtigste Anliegen, was bei der Annäherung von Mensch und Maschine demnächst zu klären sei, aber durchaus eines, mit dem sich aufgeklärte Menschen auseinandersetzen müssen, so ihr Plädoyer. Denn es gehe dabei keineswegs um das Beschützen von Objekten, sondern vielmehr um das Bewahren unserer gesellschaftlichen Werte in der sozialen Interaktion, so ihr Argument. Es spreche wenig dafür, dass wir für die einen kaum vernunftbegabten Wesen ein wertebasiertes Schutzsystem geltend machen, während wir für die (noch?) nicht vernunftbegabten Maschinen - längst arbeitet man an Maschinen mit künstlicher Intelligenz - auf ein solches grundsätzlich verzichten.

Eine solche posthumane These muss Widerspruch hervorrufen. Zweifelsohne ist es kein Geheimnis, dass Menschen Gefühle und Beziehungen zu Dingen und Gegenständen entwickeln, man denke nur an die Lieblingskuscheltiere, das erste Auto oder irgendetwas anderes, mit Sinn angereichertes Ding. Aber genau hier liegt der Kern, der Darlings Argument ins Wanken bringt. Es handelt sich hier um künstliche Glaubenssysteme und irrationale Konstruktionen, die von ihren Besitzern wider besseren Wissens aufrecht erhalten werden.

Diesem Argument begegnete Kate Darling mit der Geschichte eines Freundes, der auf ihr Geheiß einen Roboter gekauft hat und ihr nach einigen Wochen erzählte, dass er seine Kinder daran gehindert habe, diesen zu treten oder kaputt zu machen. Er begründete das nicht wie man erwarten mag mit dem pekuniären Wert des Roboters, sondern mit dessen ideeller Funktion. Seine Kinder sollten den Roboter nicht treten, weil er befürchtete, dass wenn sie den Roboter treten würden, dann würden sie auch die Katze oder den Hund treten. Er war also der Meinung, wer es wagt, einen autonom bewegenden Gegenstand zu beschädigen, schrecke auch nicht vor Tierquälereien zurück. Wenngleich diese Geschichte keineswegs repräsentativ ist und die Frage nach einer Roboterethik nicht einmal ansatzweise einer Lösung entgegenbringt, so ist sie doch zumindest überaus interessant.

Ego-Shooter

Screenshot des frei zugänglichen Ego-Shooter-Computerspiels "Open Arena" | wikimedia commons

Man kann diese Frage noch weitertreiben. Wenn der Unterschied zwischen natürlicher und künstlicher Existenz keine Rolle spielt, spielt dann die zwischen physischer und virtueller Präsenz eine Rolle? Oder anders gefragt: Muss man diese Theorie in ihrer philosophischen Behandlung vielleicht nicht sogar ausdehnen auf den Bereich der Videospiele und die Rolle des Avatars? Schließlich werden in der virtuellen Welt täglich ganze Heerscharen von virtuellen Personen im wahrsten Sinne des Wortes über den Haufen geschossen.

Kate Darling verneint dies vorsichtig. Ihrer Erfahrung nach spiele die physische Präsenz eine große Rolle in Fragen der sozialen Interaktion und ihrer Folgewirkung. Sie gibt aber zu, dass ihre Antwort einen nicht unwesentlichen Unsicherheitsfaktor beinhaltet, denn am Ende gehe es immer um den Menschen und die Frage, wie er auf soziale Verhaltensweisen reagiere.

Man denkt hier unweigerlich an die These, dass Menschen, die Ego-Shooter-Spiele spielen, eher zu Gewalt neigen würden als andere bzw. verkürzt, dass diese Ballerspiele zu Gewalt verleiten würden. Ist die moderne humane Gesellschaft vielleicht schon posthuman unterwandert? Oder wie kommt es, dass sich inzwischen nicht wenige der Theorie anschließen, dass diejenigen, die mit begeisterter Leichtigkeit virtuelle Menschen über den Haufen schießen, zunehmend auch dazu zu neigen scheinen, schlechte Menschen zu sein und zu echter Gewalt zu greifen. Die Gruppe der Verfechter von Ego-Shooter-Spielen ist zumindest mit jedem weiteren Amoklauf kleiner geworden.

Wer sich dieser Theorie anschließt oder aber mit ihr sympathisiert, der kommt aber nicht umhin, sich mit einem Rechtekanon für künstliche Lebewesen oder lebensähnlichen Maschinen – ob physisch oder virtuell – auseinanderzusetzen, denn unter diesen Voraussetzungen ist der soziale Umgang mit diesen nicht ohne Folgen für das soziale Miteinander der Menschen. Ein solcher Rechtekanon hätte dann allein den Selbstzweck des Schutzes vor uns selbst.

Das mag am Ende alles ziemlich futuristisch sein und offenbar wenig mit den drängendsten Problemen der Menschheit und der sozialen Interaktionen der Menschen zu tun haben. Aber die von Kate Darling aufgeworfenen Fragen gehören keineswegs in die Kategorie „Nicht der Rede wert“.