JavaScript ist in Ihrem Browser deaktiviert. Ohne JavaScript funktioniert die Website nicht korrekt.
Das Online-Magazin der Angestellten Schweiz

Von moralischen und unmoralischen Maschinen

Nach einem guten entwickelt Oliver Bendel mit einem Studenten an der Fachhochschule Nordwestschweiz nun einen bösen Softwareroboter, einen Lügenbot. Warum der Ethiker dies tut und was es mit der Maschinen- und Roboterethik auf sich hat, erfahren Sie im Interview.

 

 

Oliver Bendel, vor mehr als 70 Jahren formulierte der Science-Fiction-Autor Isaac Asimov drei Robotergesetze. (1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.) Was halten Sie von diesen Regeln?

Man vergisst oft, dass Asimov sie im fiktionalen Kontext erfunden hat. Er war einer der grössten Science-Fiction-Autoren. Er hatte nicht ernsthaft vorgehabt, die Regeln an Robotiker weiterzugeben. Asimov merkte selber, dass die Regeln nicht ausreichten und revidierte und ergänzte sie mehrmals. Die Regeln sind insofern interessant, als es sich um Metaregeln handelt. Solche braucht es. Wir entwickeln an der Fachhochschule Nordwestschweiz selber solche Regeln.

Haben Sie ein Beispiel?

Wir programmieren nach dem Goodbot gerade einen Liebot. Der Goodbot ist, wie der Name sagt, ein guter Chatbot (ein sprachbasiertes Assistenzsystem, das Gespräche zwischen Menschen und Computern ermöglicht; ein Beispiel war Anna auf der Website von Ikea). Er passt auf Leute auf, erkennt Probleme und gibt Hilfestellungen. Der Goodbot hatte sieben Metaregeln. Eine davon war: Er soll nicht so tun, als wäre er ein Mensch. Ein andere war: Er soll nicht lügen. Diese Regel haben wir nun für den Liebot umgekehrt. Er wird systematisch die Unwahrheit sagen.

Warum entwickeln Sie ausgerechnet einen Bot, der lügt?

Wir wollen Erkenntnisse gewinnen im Zusammenhang mit der Maschinenethik. Dazu bauen wir moralische und unmoralische Maschinen. Wir wollen zeigen, dass maschinelles Lügen möglich ist. Der Student, der am Liebot arbeitet, hat hochinteressante Strategien für maschinelles Lügen gefunden. Diese wollen wir bekannt machen, und wir wollen vor ihnen warnen.

Wie sieht so eine maschinelle Lüge aus?

Der Liebot könnte zum Beispiel, um Touristen anzulocken, für Olten Sonnenschein und warme Temperaturen verkünden, wenn es dort tatsächlich schüttet und kühl ist. Dazu würde der Liebot den Wetterbericht systematisch verfälschen. Missbrauchspotenzial besteht gerade bei Social Bots. Diese sind dazu da, Kommentare zu schreiben und Social Media mit bestimmten Meinungen zu überschwemmen. Man kann Social Bots zur Propaganda einsetzen.

Wann kommt der Liebot offiziell zum Einsatz?

Ab dem frühen Herbst wird er über luegenbot.ch und liebot.org verfügbar sein. Dann kann man mit ihm chatten und sich anlügen lassen.

Was werden Sie aus den Erkenntnissen machen, die Sie aus dem Projekt Liebot gewinnen?

Wir wollen eine Diskussion auslösen. Der mit dem Liebot beschäftigte Student wird in seinem Ausblick Strategien vorstellen, wie man maschinelle Lügen erkennt. Er wird vielleicht auch noch darauf eingehen, wie Entwickler Systeme bauen können, die verlässlich auf wahre Quellen zugreifen. Das ist gar nicht so einfach, denn auch Quellen wie Wikipedia können Lügen enthalten.

Kommen wir zu einer anderen Maschine. Gesetzt den Fall, ein selbstfahrendes Auto verursacht einen fatalen Unfall, bei dem Menschen zu Schaden kommen. Wer haftet?

Es gibt Autobauer, welche die Haftung übernehmen. Andere wenden ein Modell der gemischten Haftung an. Moralisch gesehen kann das Auto selber keine Verantwortung übernehmen. Autos wird man auch nie vor Gericht stellen können. Vorstellbar wäre hingegen, dass Autos kleine Schäden direkt untereinander regeln. Verursacht eines bei einem anderen einen Schaden, könnten sie in einen Dialog treten und eine Schadenssumme aushandeln. Dazu müssten sie mit einem Guthaben aufgeladen sein. Das verursachende Auto könnte dann dem geschädigten die vereinbarte Summe überweisen.

Wie kann die erwähnte gemischte Haftung aussehen?

Die Autobauer haften dafür, dass die Systeme im Prinzip richtig funktionieren. Da diese zum Beispiel im Nieselregen Mühe haben, könnte in den allgemeinen Geschäftsbedingungen stehen, dass das Auto sich bei bestimmten Bedingungen nicht autonom bewegen darf. Weiter könnte man festhalten, dass sich der Fahrer, der ja dann eher ein Beifahrer wäre, verpflichten müsste, jederzeit einsatzbereit zu sein. Allerdings macht unter solchen Einschränkungen das autonome Fahren vielleicht nicht mehr so viel Spass.

Gerade bei selbstfahrenden Autos sind Situationen denkbar, bei denen das Auto quasi einen moralischen Entscheid fällen muss. Zum Beispiel, wenn ein Unfall nicht mehr vermeidbar ist und es nur noch darum geht, ob das Auto in eine Gruppe Kinder am Strassenrand fährt oder gegen eine Betonmauer. In beiden Fällen würden Personen getötet – entweder die Kinder oder die Autoinsassen. Wie weit ist es überhaupt sinnvoll, solche moralischen Aspekte in Systeme einzuprogrammieren?

Ich muss zu diesem Beispiel vorausschicken, dass es zu solchen Dilemmata selten kommen wird – es sind eher Gedankenexperimente. Ich modelliere Entscheidungsbäume für autonome Autos, die moralisch abwägen, für welche Tiere sie bremsen sollen. Für einen Käfer nicht, für einen Igel schon, wenn kein Hintermann vorhanden ist. Für Tiere kann man das sehr gut machen, für Menschen rate ich davon ab. Ich halte nichts davon, Menschen durchzuzählen oder zu bewerten. Das finde ich unappetitlich. Manche vertreten die Meinung, dass man den Zufall entscheiden lassen soll. Das finde ich ebenfalls keine gute Lösung.

Das Auto soll nicht entscheiden, der Zufall nicht – wie soll denn das aufgehen?

Für mich ist klar: Selbstfahrende Autos gehören auf Autobahnen, dort kommt es kaum zu schwierigen Situationen. In der Stadt dürften sich jedoch relativ häufig Unfälle ereignen. Ich rate daher davon ab, in der Stadt autonom zu fahren. Ausser, die Autos bewegen sich sehr langsam und sind weich.

Aber ist nicht gerade in der Stadt das selbstfahrende Auto ein grosser Vorteil?

Man kann die selbstfahrenden Autos heute noch relativ einfach verwirren – durch Lichtreflexe, Schatten usw. Kameras und Sensoren, die damit umgehen können, sind sehr teuer. Ich schliesse nicht aus, dass es in entfernterer Zukunft Autos geben wird, die sich gut in der Stadt bewegen können.

Maschinen sollen immer klüger werden und den Menschen vielleicht intelligenzmässig bald einmal übertreffen. Braucht es neben den Menschenrechten und dem Tierschutz bald auch Maschinenrechte?

Ich sehe das für die nächsten 30 bis 50 Jahre nicht. Ich würde mich derzeit nicht für Rechte von Maschinen einsetzen. Rechte passen nicht auf Maschinen. Diese sind einfach spezielle Akteure. Nur wenn es gelingt, Maschinen mit einem Bewusstsein, mit Empfindsamkeit oder Leidensfähigkeit auszustatten, dann würde es anders aussehen. Ich würde Rechte z.B. an den Lebenswillen koppeln.

Im benachbarten Ausland werden Kommissionen gegründet, die sich mit der Ethik der Digitaltechnologie auseinandersetzen. Sie machen sich Gedanken über die Wirkung der Roboter. Wo stehen wir in der Schweiz?

Die Politik schläft in Bezug auf die Ethik der Digitaltechnologie. In der Schweiz existiert nur das kleine Gefäss TA-SWISS (Zentrum für Technologiefolgen-Abschätzung). Dort werden Studien auch zu moralischen Fragen gemacht. Zum Beispiel aktuell eine über zivile Drohnen. In Deutschland läuft zum Thema Digitalisierung und Ethik viel mehr.

Was denn so?

Es wird ein Internet-Institut gegründet, das genau solche Fragen erforscht. Es wird in der ersten Phase 50 Millionen Euro erhalten. Im Weiteren sollen in Deutschland neue Kommissionen entstehen, z. B. wird über eine Datenethikkommission diskutiert. Im Bundestag gibt es ferner einen digitalen Ausschuss. Nicht zuletzt finden öffentliche Veranstaltungen und damit Dialoge statt.

Auf europäischer Ebene gibt es das „RoboLaw“. Kann die Schweiz sich daran orientieren?

Die Empfehlungen sind auf jeden Fall eine gute Grundlage.

Wie weit kann man Robotern Autonomie einräumen?

Früher hat man Industrieroboter hinter Gittern eingesperrt. Heute arbeiten die so genannten kollaborativen Roboter eng mit den Menschen zusammen. Das macht man z. B. bei BMW. Der Roboter drückt die Türdichtung in die Tür und die Arbeiterin oder der Arbeiter ist unmittelbar daneben. Ich habe neulich sogar eine Vorführung gesehen, in der jemand eine Stunde lang mit einem Industrieroboter tanzte. Die Roboter dürfen also Autonomie haben, sie müssen aber „wissen“, wie nah sie den Menschen kommen dürfen und sie dürfen die Menschen nicht verletzen.

Wie können wir sicherstellen, dass der Mensch weiterhin im Zentrum steht und nicht die Maschine?

Wir müssen sicherstellen, dass der Roboter unser Assistent ist. Die Hierarchie muss klar sein. Die Roboter müssen unseren Befehlen gehorchen und im Zweifelsfall ausgeschaltet werden können. Es wird Leute geben, die für total autonome Systeme plädieren werden, in denen der Mensch nichts mehr darf. Sie werden mit tieferen Unfallzahlen argumentieren. Das ist eine ähnliche Diskussion wie mit den persönlichen Daten, die man zum Beispiel für die Krebsforschung zur Verfügung stellen soll. Man wird sagen, es sei unverantwortlich, die Daten zurückzuhalten. Ich will aber selber entscheiden, was ich preisgebe und was nicht.

Wenn Sie quasi gezwungen sind, die Daten herauszugeben, ist dies ein totalitärer Ansatz.

Genau, und dem gilt es vorzubeugen. Meine Vorschläge sind: Der Roboter muss hierarchisch immer unter uns bleiben und ausschaltbar sein. Wenn ich zwischen Freiheit und Sicherheit entscheiden muss, dann bin ich immer für die Freiheit. Wir müssen auch Fehler machen dürfen.

Dann muss ich aber auch die Verantwortung dafür übernehmen.

Studenten von mir meinten kürzlich, dass sie die Verantwortung gerne an das Auto abgeben würden. Sie würden lieber das Auto entscheiden lassen, wer totgefahren wird. Ich bin der Meinung: Das müssen wir auf uns nehmen, auch wenn es weh tut oder einem das Leben kaputt macht.

Was sagen Sie zu Robotern, die Polizei- oder Militäraufgaben übernehmen?

Die gibt es bereits. Ich begegnete kürzlich einem Überwachungsroboter in einer amerikanischen Shopping Mall, der sich autonom bewegte. Er meldete alles Verdächtige – Menschen, die rennen, Glas, das in die Brüche geht. Die chinesische Variante solcher Roboter ist zusätzlich mit einem Elektroschocker augerüstet. Dieser muss allerdings noch von einem Menschen ausgelöst werden.

Wird der Roboter eines Tages selber darüber entscheiden?

Er wird es irgendwann tun. Daran forscht das Pentagon. Dort werden Kampfroboter als „moralische Maschinen“ entwickelt. Sie sollen möglichst wenige Kollateralschäden verursachen.

Irgendwann werden Roboter gegen Roboter kämpfen…

Bei der Software ist dies bereits der Fall. Die Hardwareroboter werden folgen. Man kann sich fragen, was der Sinn dabei ist. Es wird wohl weniger darum gehen, dass sich Roboter gegenseitig den Schädel einschlagen. Vielmehr schickt man Roboterarmeen los, um in anderen Ländern Schäden anzurichten. Zum Beispiel, um Infrastrukturen lahmzulegen, Böden zu verseuchen, Atombomben abzuwerfen.

Interview: Hansjörg Schmid

Donnerstag, 04. Aug 2016

Zurück zur Übersicht

Teilen:

Zur Person

Der studierte Philosoph, Germanist, Informationswissenschaftler und promovierte Wirtschaftsinformatiker Professor Dr. Oliver Bendel unterrichtet am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft (Fachhochschule Nordwestschweiz) neben Wirtschafts- auch Informations- und Maschinenethik. Bendel arbeitete in Deutschland und in der Schweiz als Projektleiter im Bereich Neue Medien und leitete technische und wissenschaftliche Einrichtungen an Hochschulen, u.a. das Competence Center E-Learning an der Universität St. Gallen, die Arbeitsgruppe Business Communication am Fraunhofer ISST in Dortmund und das Zentrum für Innovation, Medien und Technologien (ZIMT) an der PH Weingarten. Ein Spezialforschungsgebiet ist die Idee der künstlichen Kreatur von der Antike bis heute. Weitere Informationen hier!