Die Stunde der Wahrheit

Vor mehreren Jahren wurde der GOODBOT im Kontext der Maschinenethik erdacht. In einem Projekt am Institut für Wirtschaftsinformatik (IWI) der Hochschule für Wirtschaft FHNW wurde er umgesetzt. Die UnternehmerZeitung Nr. 7/8 (2013) und andere Medien berichteten über die einfache moralische Maschine, den sich vorbildlich verhaltenden Chatbot, der Probleme von Benutzern erkennt und im Extremfall eine Notrufnummer herausgibt. In einem Folgeprojekt wurde von März bis August 2016 der LÜGENBOT (auch LIEBOT genannt) entwickelt. Assistenzsysteme wie Siri und Cortana und Chatbots auf Websites scheinen meistens die Wahrheit zu sagen, nicht aus moralischen, sondern aus pragmatischen Gründen. Es handelt sich um Programme und Dienste, die den Menschen unterhalten, unterstützen und informieren sollen. Wäre keinerlei Vertrauenswürdigkeit vorhanden, würden sie keine Akzeptanz finden. Eine Münchhausen-Maschine ist ein Gegenentwurf. Sie konstruiert in Kenntnis der Wahrheit die Unwahrheit, als Wetterbericht, Nachrichtendienst oder Dialogsystem. Der LÜGENBOT ist eine Münchhausen-Maschine, die als Chatbot realisiert ist. Vielleicht steckt mehr von ihm in Siri und Cortana, als wir glauben. In der UnternehmerZeitung Nr. 9 (2016) widmet sich Oliver Bendel in seinem Artikel „Die Stunde der Wahrheit“ seinem Geschöpf (das von Kevin Schwegler im Rahmen seiner Bachelorarbeit im Detail ausgeformt und in der Praxis umgesetzt wurde). Er geht darauf ein, wie man von ihm lernen kann, zugunsten einer verlässlichen virtuellen Welt, in der man Diskussionen führt und Transaktionen durchführt, ohne Angst vor Schwindel und Betrug. Der Artikel kann über die Website des IWI heruntergeladen werden.

nase_waechst

Abb.: Der LÜGENBOT bei seiner Lieblingsbeschäftigung

Maschine und Moral

„Maschine und Moral, Roboter und Recht“ ist der Titel eines Beitrags von Hansjörg Schmid und Virginie Jaquet, der im August 2016 in der APUNTO (3/2016) erschienen ist, der Zeitschrift für die Angestellten in der Schweiz. Im Teaser heißt es: „Maschinen und Roboter durchdringen unser Leben immer mehr. Das Zusammenwirken von Mensch und Maschine ist aber, gerade in der Schweiz, noch erstaunlich wenig geregelt, wie Rechtsexperten und Ethiker feststellen.“ (APUNTO, August 2016) Zu Wort kommen Prof. Dr. Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen und Expertin für Roboterrecht, Nicolas Capt, Rechtsanwalt bei Barreaux de Genève & Paris und Spezialist für neue Technologien, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel liegt in der selben Ausgabe in französischer Sprache vor, unter dem Titel „Machines et morale, robots et droit“. Der Teaser lautet dort: „Les robots envahissent toujours plus notre vie. Pourtant, la cohabitation entre l’homme et la machine est très peu réglée en Suisse, comme le constatent des experts en droit et un éthicien.“ Das gesamte Heft kann über angestellte.ch/assets/Apunto/apunto-3-16-GzD-low.pdf heruntergeladen werden.

roboter_maid

Abb.: Ist dieses Robotermädchen schon moralisiert?

Moralische Maschinen aus dem MIT

Die Maschinenethik ist eine junge, dynamische Disziplin. Insbesondere in den USA werden Konferenzen durchgeführt, Fachbücher veröffentlicht und Plattformen aufgebaut. Auch in Holland, England, Polen und in der Schweiz ist man aktiv. „Welcome to the Moral Machine!“ heißt es auf einer Website des MIT. „A platform for gathering a human perspective on moral decisions made by machine intelligence, such as self-driving cars.“ (Website MIT) Und weiter: „We show you moral dilemmas, where a driverless car must choose the lesser of two evils, such as killing two passengers or five pedestrians. As an outside observer, you judge which outcome you think is more acceptable. You can then see how your responses compare with those of other people.“ Es geht also um moralische Entscheidungen autonomer Systeme, denen wiederum moralische Urteile von Menschen folgen sollen. Damit verweist man auf eine lange Tradition von Gedankenexperimenten, die bereits in der Antike beliebt waren und mit dem Trolley-Problem und dem Fetter-Mann-Problem mit Blick auf Fahrzeuge und Menschen einschlägig wurden. Nun gibt es inzwischen einige Plattformen, die Dilemmata visuell aufbereiten, und auch das SRF hat sich Verdienste in diesem Bereich erworben. Besonders ist freilich folgende Option: „If you’re feeling creative, you can also design your own scenarios, for you and other users to browse, share, and discuss.“ Weitere Informationen über http://moralmachine.mit.edu/.

Tramway

Abb.: Berühmt ist das Trolley-Problem

Haben Igel lange Ohren?

An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Die LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden. Die Logindaten sind bei Oliver Bendel erhältlich.

Hedgehog

Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?

What can we ethically outsource to machines?

Prior to the hearing in the Parliament of the Federal Republic of Germany on 22 June 2016 from 4 – 6 pm, the contracted experts had sent their written comments on ethical and legal issues with respect to the use of robots and artificial intelligence. The video for the hearing can be accessed via www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996. The documents of Oliver Bendel (School of Business FHNW), Eric Hilgendorf (University of Würzburg), Norbert Elkman (Fraunhofer IPK) and Ryan Calo (University of Washington) were published in July on the website of the German Bundestag. Answering the question „Apart from legal questions, for example concerning responsibility and liability, where will ethical questions, in particular, also arise with regard to the use of artificial intelligence or as a result of the aggregation of information and algorithms?“ the US scientist explained: „Robots and artificial intelligence raise just as many ethical questions as legal ones. We might ask, for instance, what sorts of activities we can ethically outsource to machines. Does Germany want to be a society that relegates the use of force, the education of children, or eldercare to robots? There are also serious challenges around the use of artificial intelligence to make material decisions about citizens in terms of minimizing bias and providing for transparency and accountability – issues already recognized to an extent by the EU Data Directive.“ (Website German Bundestag) All documents (most of them in German) are available via www.bundestag.de/bundestag/ausschuesse18/a23/anhoerungen/fachgespraech/428268.

Verkehrspyramide für automatisiertes Fahren

Die zentrale Botschaft der Verkehrspyramide ist, dass die „natürliche Umgebung“ für das vollautomatisierte Fahren und das autonome Auto die Autobahn ist. Dort gibt es nur wenige Einflüsse und Faktoren, die zu berücksichtigen sind, und die Unfallzahlen können drastisch gesenkt werden. Das Fahren in der (Innen-)Stadt hingegen ist hochkomplex, und die zahlreichen Teilnehmer und Objekte führen zu einer Informationsflut, die das Auto bewältigen muss. Zwar kann es das als rollender Computer im Prinzip gut, aber anders als ein Mensch kann es z.B. nur schlecht priorisieren: Der erfahrene Autofahrer ignoriert unwichtige Details, die das System erst einmal zu erkennen und zu verarbeiten hat. Im Stadtverkehr bietet sich ein teilautomatisierter Verkehr an, und manuelle Eingriffe müssen die Regel sein. Generell gilt, dass automatisiertes Fahren von Beschränkungen in Raum und Zeit profitiert. Die Höchstgeschwindigkeiten müssen angepasst, spezielle Spuren eingerichtet werden. Wichtig ist generell eine Zunahme und Kopplung von Sensoren, nicht nur von Kameras, Ultraschall und Radar, sondern auch von Lidar und Infrarot. Wärmebildkameras sind ein wichtiger Bestandteil des Moralmoduls und helfen dabei, Lebewesen in der Nacht zu erkennen. Menschenleben sollen geschützt, aber weder qualifiziert noch quantifiziert werden, allenfalls bei großen Menschenansammlungen; Tiere dagegen können qualifiziert und quantifiziert werden, und die Maschine vermeidet Tierleid und rettet Tierleben – vor allem auf Landstraßen – durch selbstständige Eingriffe, eine passende Verkehrslage vorausgesetzt.

Automatisierter Verkehr

Abb.: Die Verkehrspyramide für automatisiertes Fahren

Krieg und Spiele

Der RFF REAL FICTION FILMVERLEIH informiert in einer Pressemitteilung über den Kinostart der Dokumentation „Krieg und Spiele“ von Karin Jurschick am 18. August 2016. „Die unbemannten Kriegsroboter der Zukunft sind nach dem Vorbild von Tieren gebaut. Perfekte Maschinen, die im Wasser, an Land und in der Luft die Bewegung jeder Maus und jedes Menschen erfassen. Und sie können töten. Autonom. Diese technische Entwicklung verändert jetzt schon die Kriege und unsere Vorstellungen von Ethik und Moral. Ja: unsere Stellung als Menschen in der Welt. Werden am Ende die Maschinen sogar die besseren Entscheidungsträger?“ (Information RFF) Weiter heißt es: „Bringt uns die neue, aus der Ferne steuerbare Kriegstechnologie Aufklärung und Sicherheit, wie es die herstellende Industrie und die Regierungen versprechen, oder macht sie die Version eines totalen Überwachungsstaates möglich? Und was ist mit denen da unten, den Menschen im Fadenkreuz?“ (Information RFF) Nicht zuletzt werden zentrale moralische und rechtliche Fragen angesprochen: „Was passiert mit dem Begriff der Schuld, wenn Maschinen autonom töten? Wer ist verantwortlich, wenn sie einen Fehler machen?“ (Information RFF) Zu Wort kommen u.a. Peter W. Singer, Politikwissenschaftler, Ronald Arkin, Robotiker und Maschinenethiker, Daniel Statman, Moralphilosoph, und Yvonne Hofstetter, KI-Expertin. Weitere Informationen zum Film über realfictionfilme.de.

Kampfflufzeug

Abb.: Ein bemanntes Kampfflugzeug

Ethik und Stochastik

Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel „Von moralischen und unmoralischen Maschinen“ online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.

IMEC-Tagung 2016

Maschinen als Subjekte der Moral werden seit einigen Jahren erforscht, in der Disziplin der Maschinenethik, Maschinen als Objekte der Moral seit mehreren Jahrzehnten, in einem Teilgebiet der Roboterethik und in der Künstlichen Intelligenz. Es geht vor allem um intelligente bzw. teilautonome und autonome Maschinen. Wichtige Grundlagenwerke der Maschinenethik sind „Moral Machines“ (2009) und „Machine Ethics“ (2011); auch Spezialisierungen wie „Machine Medical Ethics“ (2015) und Konkretisierungen wie „Programming Machine Ethics“ (2016) sind auf dem Markt. Aus der Medienethik kamen bisher kaum Beiträge zur Thematik, obwohl auch bestimmte neue Medien und neuere Informations- und Kommunikationstechnologien zum Gegenstand der Maschinenethik gehören können, etwa Münchhausen-Maschinen. Diese Lücke der Disziplin versucht eine Konferenz an der PH Ludwigsburg im Dezember 2016 zu schließen, Auf der Website ist zu lesen, es handle sich um eine Kooperation der Forschungsgruppe Medienethik der PHL und der Professur „Kommunikations- und Medienwissenschaft mit dem Schwerpunkt soziale Kommunikation und Mediatisierungsforschung“ am ZeMKI der Universität Bremen. Thema der Tagung seien „die ethischen Konsequenzen aus einer zunehmenden Kommunikation und Steuerung durch autonome Systeme vor dem Hintergrund der Mediatisierungskonzeption“ (Website PHL). Der Call for Papers kann über die Website der Hochschule heruntergeladen werden.

Radio

Abb.: Die Medienethik ist eine altehrwürdige Disziplin

Autonome Autos im ARD-Mittagsmagazin

Im ARD-Mittagsmagazin vom 27. Juli 2016 stand Oliver Bendel als Technikphilosoph und Maschinenethiker der Moderatorin Hannelore Fischer Rede und Antwort. Zuvor war ein Film zum automatisierten Fahren gebracht worden. Der Bundesverkehrsminister Alexander Dobrindt ist sozusagen auf der Überholspur und lässt Bedenken, so ist es manchen der Stimmen zu entnehmen, die zu hören sind, weit hinter sich. Womöglich wird „wahrnehmungsbereit“, enthalten in der aktuellen Gesetzesvorlage, sogar Begriff des Jahres – der Interpretationsspielraum ist auf jeden Fall nicht weniger groß als die Bedenken. Der Fahrer soll wahrnehmungsbereit sein, wenn er sich auf das Autoauto verlässt, und weil er dieses voll nutzen will, wird er es nur eingeschränkt sein. In seinen Antworten versucht Oliver Bendel zu vermitteln. Er hat nichts gegen automatisiertes Fahren, ist aber der Meinung, dass es in erster Linie auf der Autobahn stattfinden soll, in der „natürlichen Umgebung“ des Automobils. Städte seien zu komplex; während die Maschine dort in zahlreiche Unfälle verwickelt sein und die eine oder andere falsche (u.U. auch in moralischer Hinsicht schlechte) Entscheidung durch sie getroffen wird, ergeht es ihr auf der Autobahn, wenn es sich nicht gerade um einen amerikanischen Highway mit Wendemöglichkeit handelt, ganz anders, ist sie in ihrem Element, und die seltenen Unfälle – viele kann das Auto vermeiden helfen – wird die Gesellschaft verschmerzen können. Er ist ebenso wie Alexander Dobrindt der Meinung, dass automatische und autonome Autos nicht Menschen qualifizieren sollen, hält aber auch das Quantifizieren für nur bedingt tauglich. Eine befriedigende Lösung, die von der Ethikkommission, die vom Bundesverkehrsminister eingesetzt wird, erarbeitet werden könnte, sieht er im Moment nicht. Weitere Informationen über http://www.daserste.de/information/politik-weltgeschehen/mittagsmagazin/index.html; dort kann auch einige Wochen lang der Podcast aufgerufen werden.