JavaScript ist in Ihrem Browser deaktiviert. Ohne JavaScript funktioniert die Website nicht korrekt.
Das Online-Magazin der Angestellten Schweiz

Roboterrecht in den Kinderschuhen

Roboter sollen uns das Leben und die Arbeit erleichtern, selbstfahrende Autos die Strassen sicherer machen. Verursachen diese Systeme aber einmal einen Schaden, dann wird die Situation rechtlich schnell einmal verzwickt. Vieles ist noch nicht schlüssig geregelt. Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht an der Universität St. Gallen, verrät im Interview, wo die Stolpersteine liegen und wie sie aus dem Weg geräumt werden könnten.

Frau Wildhaber, vor mehr als 70 Jahren formulierte der Science-Fiction-Autor Isaac Asimov drei Robotergesetze. (1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.) Was halten Sie von diesen Regeln?

Die drei Gesetze wurden von Asimov, einem amerikanischen Autor russischer Abstammung, 1942 in der Kurzgeschichte „Runaround“ formuliert. Später fügte Asimov noch ein nulltes Gesetz dazu: Ein Roboter darf der Menschheit nicht schaden oder die Menschheit durch Unterlassung zu Schaden kommen lassen. Die Asimov-Gesetze sollen das Verhalten der Roboter kontrollieren und die Roboter zum Schutz der Menschen moralischen Regeln unterwerfen. Damit gilt Asimov als Begründer der Idee, Regeln zur Kontrolle des Roboter-Verhaltens zu erstellen. Die drei Gesetze wurden im Film “I, Robot” der breiten Masse bekannt gemacht. Ich finde es tatsächlich sehr wichtig, über ethische Probleme im Kontext der Robotik nachzudenken, heute mehr noch als 1942.

Kein heutiger Roboter ist aber so programmiert, dass er gezwungen wäre, den drei Gesetzen zu folgen. Warum nicht?

Damit ein Roboter die drei Gesetze befolgen würde, müsste er die Folgen seines Handelns so weit überblicken, dass er feststellen könnte, ob die Ausführung eines Befehls einem der drei Gesetze widersprechen würde. Das können Roboter aber bis heute noch nicht. Roboter können Asimovs Gesetze nicht verstehen und befolgen, zumindest die Roboter der Gegenwart nicht.

Werden die Asimov-Gesetze also bei der Konstruktion eines Roboters gar nicht berücksichtigt?

Die Grundideen der Asimov-Gesetze werden beim Design von Robotern durchaus mitberücksichtigt. Das erste Gesetz zeigt sich in der Minimierung der Mobilität von Robotern, in Gittern und Abschrankungen, welche Menschen von Robotern abgrenzen. Eine Kombination des ersten und zweiten Gesetzes widerspiegelt sich darin, dass man einen „human in the loop“ behält, also ein menschliches Eingreifen möglich macht. Dies ist z.B. bei Fahrerassistenzsystemen in automatisierten Fahrzeugen der Fall. Das dritte Gesetz zeigt sich im Alarm, dass der Nutzer die Batterie laden muss, oder in der Möglichkeit, dass die Maschine selber eine Stromquelle findet und sich lädt.

Wenn wir die Asimov-Gesetze den Robotern nicht einprogrammieren können, könnten wir sie stattdessen als Grundlage für moderne Robotergesetze benutzen?

Die Sicht von Asimov, dass sich Roboter an Gesetze halten müssen, wird von Politikern der EU geteilt. Anfang Juni 2016 wurde ein Entwurf eines „Draft Report“ des Europäischen Parlaments an die EU-Kommission über neue zivilrechtliche Regelungen für Roboter an die Presse gestreut. Viele Zeitungen haben davon berichtet. In diesem Bericht wird u.a. vorgeschlagen, dass sich die Asimov-Gesetze an Hersteller, Produzenten und Nutzer von Robotern richten müssten, da ja die Gesetze nicht als Maschinencode programmierbar seien. Es werden auch viele weitere Vorschläge gemacht.

Es ist richtig, dass sich das Verhalten des Menschen im Umgang mit dem Roboter regeln lässt. Man kann also dafür sorgen, dass der Mensch Roboter oder Systeme sorgfältig programmiert. Oder man kann gewisse Dinge wie Kinder-Sexroboter ganz verbieten. Allerdings bewähren sich die drei Asimov-Gesetze als Rechtsnormen für die Praxis nicht. Sie sind denn auch ohne rechtliche Umsetzung geblieben. Man könnte sie in der Form nicht in einem heutigen Gesetzestext verankern.

Ende Juni hat Tesla bekannt gemacht, dass im Mai 2016 bei einem Unfall mit einem teilweise selbstfahrenden Auto in den USA der Fahrer getötet worden ist. Wer haftet?

Diese Frage interessiert natürlich alle, die Autofahrer, die Autokonzerne und die Versicherer. Wer haftet? – Es spielt eine Rolle, welches der Automatisierungsgrad des Fahrzeuges ist. Die Automobilindustrie und die Medien haben aus der Terminologie im Bereich der automatisierten Fahrzeugsysteme ein Chaos gemacht. Die Begriffe „autonom“, „fahrerlos“ und „selbstfahrend“ sind unklar. Aus diesem Grund hat die „Society of Automotive Engineers“ verschiedene Automatisierungsgrade definiert: 1. „driver only“, 2. „assistiert“, 3. „teil-„, 4. „hoch-„ und 5. „vollautomatisiert“. Die Haftung ist abhängig von dieser Automatisierungsstufe. Das Tesla-Auto, welches in den Unfall verwickelt war, war nicht vollautomatisch gesteuert. Der Tesla wies den Fahrer beim Einschalten des Autopiloten darauf hin, dass er weiterhin die Kontrolle über das Fahrzeug innehält. Insgesamt kann man sagen: Wie die Verantwortlichkeit zwischen Autolenker und Autohersteller aufgeteilt ist, ist schwierig und abhängig vom Automatisierungsgrad.

Was ist, wenn der Mensch auf der Stufe „vollautomatisiert“ gar nicht mehr eingreifen kann?

Wenn ein Auto wirklich vollautomatisiert wäre, so hätte es womöglich nicht mal mehr ein Lenkrad, ein Brems- und ein Gaspedal. Es wäre dann der „Roboter am Lenkrad“ und nicht mehr der Mensch, der für den Unfall verantwortlich wäre. Es käme also letztlich zu einer Verlagerung der Haftung auf den Autohersteller. Das Haftungssystem müsste für die vollautomatisierte Automatisierungsstufe überdacht werden. Unser derzeitiges Strassenverkehrsrecht geht weiterhin von einem menschlichen Fahrer aus.

Gerade bei selbstfahrenden Autos sind Situationen denkbar, bei denen das Auto quasi einen moralischen Entscheid fällen muss. Zum Beispiel, wenn ein Unfall nicht mehr vermeidbar ist und es nur noch darum geht, ob das Auto in eine Gruppe Kinder am Strassenrand fährt oder gegen eine Betonmauer. In beiden Fällen würden Personen getötet – entweder die Kinder oder die Auto-Insassen. Wie weit ist es überhaupt sinnvoll, solche moralischen Aspekte in Systeme einzuprogrammieren?

Wenn Fahrzeuge selbstfahrend sind, gibt es in meinen Augen sogar eine moralische Pflicht, das Auto so zu programmieren, dass auch ethische Aspekte berücksichtigt werden. Aber nach welchen Grundsätzen sollte das geschehen? Und wer sollte diese Grundsätze festlegen? Derzeit fehlt es an Vorgaben für die ethische Programmierung von Fahrzeugen. Das ist für die Fahrzeughersteller unbefriedigend, da sie sich mit jeder Programmierung die Finger verbrennen könnten.

Es gibt neben den Fahrzeugen zahlreiche andere Roboter. Viele Akteure sind bei der Nutzung eines Roboters oder Systems involviert, vom Programmierer, über den Verkäufer und Besitzer bis zum Nutzer. Wie kann man eine einfache Kette der Verantwortung aufstellen?

Grundsätzlich können sowohl Programmierer, Hersteller, Verkäufer, Besitzer oder Nutzer zur Verantwortung gezogen werden, sowohl zivilrechtlich als auch strafrechtlich. Wer für einen Roboter im Schadensfall haftet, bestimmt sich von Fall zu Fall. Es kommt sehr auf den Roboter, dessen Einsatz und dessen Lernfähigkeit an. Einfach wird die Kette der Verantwortlichkeit aber genau nicht sein. Und der Roboter selber haftet nicht. Das klassische Haftpflichtrecht, welches von einer Voraussehbarkeit des Schadens ausgeht, kommt bei intelligenten Robotern an seine Grenze.

Welche Ansätze für die Haftung von Robotern gibt es?

Man kann sich die Frage stellen, ob man für einen Roboter wie für ein Tier (Art. 56 OR) oder für ein Kind (Art. 333 ZGB) haften sollte. Der Gedanke einer Aufsichtspflicht über Roboter, ähnlich wie bei Tieren oder Kindern, drängt sich auf. Allerdings müsste man dazu das Recht revidieren.

Oder sollte der Roboter selber haften?

Es wird oft vorgeschlagen, dass man einen Roboter ähnlich wie eine juristische Person haften lassen könnte. Dazu müsste man ihn öffentlich registrieren und über ein Vermögen verfügen lassen. Man könnte ihn auch zusätzlich mit einer obligatorischen Haftpflichtversicherung versehen. Das ist in meinen Augen in Zukunft durchaus denkbar.

Glauben Sie, dass eine solche Haftung von Robotern kommen wird?

Sicher nicht in naher Zukunft. Aber man wird vermehrt darüber nachdenken, je autonomer die Roboter werden und je öfter es Situationen geben wird, in denen das bestehende, klassische Haftpflichtrecht nicht mehr genügen wird.

Wenn man das zu Ende denkt, müsste man Roboter in Zukunft auch vor Gericht stellen können.

Man könnte Roboter nur dann vor Gericht stellen, wenn sie handlungsfähig wären. Heute haben Roboter aber keine Handlungsfähigkeit im juristischen Sinne. Das haben nur Menschen und juristische Personen.

Finden Sie, man sollte Roboter zum Rechtssubjekt machen?

Wenn Roboter vernunftgemäss urteilen und handeln, so kann man sich tatsächlich die Frage stellen, ob sie in Zukunft nicht handlungsfähige Rechtssubjekte sein sollten. Sie könnten dann, wie natürliche und juristische Personen, durch ihre Handlungen Rechte und Pflichten begründen. Sie könnten z.B. in der Logistik einen Vertrag abschliessen. Diese Frage wird unter dem Stichwort „electronic personhood“ (elektronische Persönlichkeit) international immer öfter diskutiert. Auch eine Aktiengesellschaft ist kein Mensch und sie ist dennoch handlungsfähig. Man könnte Roboter demnach mit einer elektronischen Persönlichkeit versehen und handlungsfähig machen. Denkbar wäre aber auch die Handlungsfähigkeit eines Roboters in Form einer schon existierenden juristischen Person. Eine „electronic personhood“ kann man sich langfristig überlegen, wenn Roboter in der Zukunft wirklich über ein gewisses Mass an künstlicher Intelligenz verfügen. Sie wird auch in dem erwähnten EU-Bericht vom Mai 2016 vorgeschlagen.

Maschinen sollen immer klüger werden und den Menschen vielleicht intelligenzmässig bald einmal übertreffen. Braucht es neben den Menschenrechten und dem Tierschutz bald auch eine Charta der Maschinenrechte?

Sie meinen, dass man die Misshandlung von Robotern regulieren würde, ähnlich wie bei Tieren? Forschungsstudien zeigen, dass wir Emotionen nicht nur auf Tiere projizieren, sondern auch auf Roboter, speziell auf soziale Roboter, welche mit uns kommunizieren und auf uns reagieren. Diese emotionale Projektierung könnte es rechtfertigen, dass wir die Interaktion des Menschen mit sozialen Robotern regulieren, dass wir diese Roboter schützen. Roboter leben zwar nicht, es gibt aber überzeugende psychologische und philosophische Gründe für einen Roboterschutz. Je realistischer soziale Roboter werden, umso grösser wird das Risiko, dass wir sie unterbewusst wie lebende Dinge behandeln, und dass wir das Verhalten gegenüber Robotern auf lebende Dinge verschieben. Auch wenn Roboter also keinen Schmerz empfinden, so könnte es notwendig und gerechtfertigt sein, Grausamkeit gegenüber Robotern zu verbieten. Das philosophische Argument von Kant für den Tierschutz ist, dass unsere Handlungen gegenüber Nicht-Menschen unsere Moral widerspiegeln – wenn wir Tiere unmenschlich behandeln, werden wir unmenschliche Personen. Diese Überlegung könnte man auf Roboter ausdehnen.

Nun gibt es auch zweifelhafte Roboter, zum Beispiel die erwähnten Sexroboter.

Auch im Zusammenhang mit Sexbots gibt es Bedenken, dass das Verhalten gegenüber Robotern auf Menschen übertragen werden könnte. Es wird kritisiert, dass weibliche Sexroboter stereotypische Charakteristika unterstützen. Sexbots seien in der Regel passiv, gehorsam und sexualisiert, was falsche Erwartungen an Frauen und an Sex und Intimität stelle. Ausserdem sei die Zustimmung zu einer sexuellen Handlung beim Roboter nicht nötig, was sich auf die Zustimmung in wirklichen sexuellen Beziehungen negativ auswirken könnte. Aus diesen Gründen haben die britische Professorin Kathleen Richardson und ihr schwedischer Kollege Erik Brilling im Sommer 2015 eine „Kampagne gegen Sexroboter“ gestartet. Wir müssen uns überlegen, wie wir rechtlich mit dem Phänomen von Sexbots umgehen wollen, insbesondere mit Sexpuppen, die wie Kinder aussehen. Der Gründer von Trottla in Japan findet, dass Pädophile so ihre Phantasien ausleben könnten, ohne sich an wirklichen Kindern zu vergreifen. Es ist aber umstritten, ob solche Sexpuppen bei Pädophilen das Verlangen nach Sex mit echten Minderjährigen nicht erst recht anheizen. Auch hier geht es also letztlich um den Schutz der Menschen.

Brauchen wir alles in allem ein neues Robotergesetz?

Ich finde, man sollte mit neuen Gesetzen und Regulierungen Zurückhaltung üben, bis deren Notwendigkeit klar wird. Denn Digitalisierung und Robotik bringen ja auch immense Chancen. Eines ist aber klar: wir müssen uns über die Fragen, die wir hier diskutiert haben, ernsthafte Gedanken für die Zukunft machen. Denn die Brisanz der Fragen wird zunehmen, je intelligenter Roboter werden.

Interview: Hansjörg Schmid

Donnerstag, 11. Aug 2016

Zurück zur Übersicht

Teilen:

Zur Person

Prof. Dr. Isabelle Wildhaber ist seit einem Jahr ordentliche Professorin für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen. Zuvor arbeitete sie als Rechtsanwältin in Basel, New York und Frankfurt. Sie war wissenschaftliche Assistentin an der Harvard University und Lehrbeauftragte an der Humboldt-Universität zu Berlin.