System erkennt Lügen von Menschen

Jeden Monat überprüft der Harvard Business Manager nach eigener Aussage die Thesen von Wissenschaftlern. „Diesmal geht es um die Annahme: Textalgorithmen können Lügen in E-Mails enttarnen.“ (SPON, 28. September 2016) Spiegel Online meldet am 28. September 2016: „Daran forschen Stephan Ludwig, Associate Professor an der University of Surrey (zum Zeitpunkt des Interviews noch Junior Professor für Marketing an der University of Westminster), und Tom Van Laer, Junior Professor für Marketing an der Cass Business School der City University London. Das Ergebnis ihrer Analyse: Wer lügt oder die Wahrheit stark verbiegt, hält sich beim Schreiben unbewusst an bestimmte Regeln.“ (SPON, 28. September 2016) Sie haben vor diesem Hintergrund einen Algorithmus entwickelt, der Lügen von Menschen erkennt. Mit dem LÜGENBOT, der 2016 an der Hochschule für Wirtschaft FHNW implementiert wurde, hätten die Wissenschaftler einen idealen Trainingspartner. Dieser spezielle Chatbot sagt meistens die Unwahrheit, aber nicht immer. Dabei benutzt er verschiedene Lügenstrategien, die er teils kombiniert. Ob das System der Briten auch die maschinellen Lügen des LIEBOT zu erkennen vermag, ist eine spannende Frage, die vielleicht in den nächsten Monaten beantwortet werden kann, wenn die Wissenschaftler zusammenfinden.

directory

Abb.: Hier geht’s zur Lüge

Vorbild Mensch

„Mehr als 600 Ausgaben sind in den vergangenen Jahrzehnten von bild der wissenschaft erschienen. Das erste Heft kam 1964 an den Kiosk. Ersonnen hat es Heinz Haber. Der Physiker produzierte und moderierte … die ersten Wissenssendungen im deutschen Fernsehen.“ (Website bdw) So schreibt es die Zeitschrift selbst auf ihrer Website. In der aktuellen Ausgabe (Oktober 2016) ist ein vierseitiges Interview mit Prof. Dr. Oliver Bendel zu finden, unter dem Titel „Maschinen können Moral lernen“. Es geht um Maschinenethik, um Robotik und Künstliche Intelligenz. Der Mensch ist für die Maschine sozusagen Vorbild. Sie versucht ihn zu imitieren und zu kopieren. Und so entwickelt sie Ansätze einer Moral. Die Fotos hat der Stuttgarter Fotograf Kai R. Joachim angefertigt. Er hat für Magazine wie Metal Hammer, Glamour UK und Cosmopolitan gearbeitet und Aerosmith, Roger Hodgson, Mike Rutherford und Destiny’s Child abgelichtet. Oliver Bendel ist auf den Fotos auf dem Campus Brugg-Windisch unterwegs, in den imposanten oberen Stockwerken, an der spektakulären weißen Wendeltreppe der Bibliothek und am berühmten alten Hallerbau. In dem Heft geht es zudem um den tödlichen Tesla-Unfall in den Vereinigten Staaten. Nicht zuletzt wird nach der Sicherheit auch in anderer Hinsicht gefragt; die „Fülle an Elektronik in den Autos macht es Dieben und Hackern leicht“ (bdw, 10/2016).

machine_brain

Abb.: Maschinen können von Menschen lernen

Mädchen und Frauen unter den Rock schauen

Die Schweizerische Post erprobt Lieferroboter, die Pakete zustellen sollen. Auf dem Gelände des Unternehmens in Wankdorf bei Bern hatte der Betreiber dieser Plattform im September 2016 die Gelegenheit, das Produkt der Starship Technologies unter die Lupe zu nehmen. Die Tester wiesen auf die Kameras mit 360-Grad-Aufnahmetechnik hin und auf das Ultraschallsystem. Sie öffneten die Klappe und erlaubten den Blick auf die Last. Bis zu zehn Kilogramm können auf den sechs Rädern bis zu sechs Kilometer weit befördert werden. Das hauptsächliche Problem der Paketroboter ist, dass sie neuartige Verkehrsteilnehmer darstellen, die die Gehsteige bevölkern und die Straßen überqueren. Das eine tun sie in der Regel autonom, das andere wird in den meisten Ländern, in denen sie getestet werden, von einem Operator unterstützt. Wenn es viele Lieferroboter dieser Art gibt, werden Innen- und Vorstädte noch komplexer für die etablierten Verkehrsteilnehmer. Unabhängig von der Zahl stellen sie Stolperfallen dar. Die Paketroboter sind wie herrenlose Hunde, können aber nicht so gut wie diese ausweichen und sind auch nicht so schnell. Skater, Radfahrer und Fußgänger können über sie stürzen, was durch die geringe Höhe begünstigt wird. Selbst wenn sie an die Leine gelegt und durch wenig frequentierte Gebiete navigiert werden, ist die Gefahr nicht ganz gebannt. Ein nicht ganz nebensächliches Problem ist, dass der Lieferoboter mit seinen Kameras auch Personen erfassen und womöglich Mädchen und Frauen unter den Rock schauen kann – ein weites Feld für Informations- und Technikethik. Es wird sich zeigen, wie hoch die Akzeptanz von Kunden und Passanten ist und welche Erfahrungen in den verschiedenen Ländern gemacht werden.

girlskirt

Abb.: Was sieht der kleine Roboter?

Ein bisschen Mensch in der Maschine

In der neuen Ausgabe von RED, dem Magazin der Schweizer Börse SIX, sind Frank M. Rinderknecht von Rinspeed und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW im Gespräch. Bereits im Juli 2016 traf man sich in der Werkstatt in Zumikon, in der es von futuristischen Fahrzeugen nur so wimmelt. Man stieg in diese hinein und aus diesen wieder heraus – und rollte zusammen die mächtigen Räder. Die Bilder dazu findet man in dem vierseitigen Beitrag mit dem Titel „Wie viel Mensch soll in der Maschine stecken?“. Iris Kuhn-Spogat fragte im Büroraum bei Kaffee und Wasser nach autonomen Autos, maschinellen Entscheidungen und verrückten Erfindungen. Ihre Gesprächspartner waren sich in vielen Dingen einig. Man liebt das Spielerische, Verrückte, man versucht das scheinbar Unmögliche, bei der Entwicklung von Roboterautos und Amphibienfahrzeugen sowie von guten und bösen Chatbots. SIX und Rinspeed haben schon mehrmals zusammengearbeitet. Ein Video – abrufbar über six.swiss/rinspeed – gibt Einblicke, nicht zuletzt in die Werkstatt. Auch Oliver Bendel und die Finanzexperten haben sich bereits einmal getroffen, bei seinem Vortrag über Maschinenethik an der Börse in Zürich. Der Beitrag wurde von den Verantwortlichen freundlicherweise zur Verfügung gestellt und kann als PDF heruntergeladen werden.

Sinn und Zweck von Lügenmaschinen

In einem ganzseitigen Interview, das in der SonntagsZeitung vom 18. September 2016 publiziert wurde, erläutert Oliver Bendel, welche Gefahren von Münchhausen-Maschinen ausgehen und welche Zwecke er mit dem LÜGENBOT verfolgt. Dessen Entwicklung sei mit einem Dilemma verbunden. „Ähnlich wie bei der Erforschung der Kernspaltung besteht die Gefahr des Missbrauchs. Im Prinzip könnte sich der Lügenbot als unmoralische Maschine in der Welt verbreiten und Schaden anrichten. Aber er ist einerseits mit einem Passwort geschützt, andererseits glaube ich, dass der Nutzen des Lügenbots überwiegt.“ Der Nutzen wird von Oliver Bendel immer wieder erläutert, bei Veranstaltungen und in Veröffentlichungen. Wenn man alle maschinellen Strategien des Lügens kenne, könne man diesen auch jeweils begegnen, sowohl als Entwickler als auch als Benutzer. Entwickler müssen, so der Vater des LÜGENBOT, die Wissensbasen schützen und die externen Quellen kontrollieren. Sie können grundsätzlich darauf achten, dass die Maschine mit Hilfe ihrer Begriffe, Sätze und Regeln nicht zu lügen vermag. Die Anbieter können offenlegen, wie die Chatbots funktionieren, die Benutzer wachsam sein, nach dem Anbieter fragen, dem Kontext, und die Systeme testen. Die Erkenntnisse mag man in der Maschinenethik und in der Wirtschaft nutzen, um moralische Maschinen zu bauen. Mit Anti-Münchhausen-Maschinen kann man Verlässlichkeit und Vertrauen aufbauen. Das Interview wurde von Joachim Laukenmann geführt und ist auf Seite 60 der Schweizer Zeitung zu finden. Es kann hier als PDF heruntergeladen werden.

blueandroid

Abb.: Ob er die Wahrheit spricht – oder nicht?

Grüne Robotik

Der Livestream der Veranstaltung „Merging of man and machines: questions of ethics in dealing with emerging“ vom 8. September 2016 wurde aufgezeichnet und kann über web.greensefa.streamovations.be/index.php/event/stream/merging-of-man-and-machine aufgerufen werden. Ins Europäische Parlament in Brüssel eingeladen hatte der Grünen-Abgeordnete Jan Philipp Albrecht von der Green Working Group Robotics. Auf der Website wurde wie folgt eingeführt: „Technology has fundamentally altered our lives and will continue to do so. Ethical considerations must remain guiding posts at all times. Undoubtedly, how we approach the regulation of emerging technologies will have wide implications for our definition of human dignity and the equality of individuals.“ (Website Albrecht) Es ging um Fragen dieser Art: „How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ (Website Albrecht) Den Track „Ethics & Society: Examples of how our lives, values and society will change“ haben Yvonne Hofstetter (Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dr. Constanze Kurz (Chaos Computer Club e.V.) bestritten. Bendels Vortrag wurde mit Folien unterstützt; diese können hier heruntergeladen werden.

sun_flower

Abb.: Wo die Grünen sind, sind die Sonnenblumen nicht weit

Roboter haben kurze Beine oder keine

Roboter haben kurze Beine. Zumindest manche von ihnen, etwa der LÜGENBOT. Genaugenommen hat dieser nicht einmal Beine, sondern nur ein Rad. Wolfgang Schmitz von VDI nachrichten war im September 2016 im Gespräch mit Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker. Eine Frage von ihm lautete, worin der Nutzen des LÜGENBOT bestehe. Die Antwort lautete: „Es gibt bereits Münchhausen-Maschinen. Wir wollen mit dem Lügenbot, der als Chatbot realisiert ist, zunächst auf ihre Existenz und ihre Strategien hinweisen. Kennt man diese, kann man ihnen effektiv begegnen. Entwickler können Wissensbasen schützen und externe Quellen kontrollieren. Mit moralisch verlässlichen Maschinen können Anbieter Vertrauen aufbauen. Die Benutzer werden wachsamer, indem sie etwa nach dem Anbieter fragen. Nicht zuletzt kann die Maschinenethik die Erkenntnisse für ihre Forschungen nutzen.“ Das Gespräch drehte sich weiter um Münchhausen-Maschinen, menschliche und maschinelle Lügenbolde und moralische und unmoralische Maschinen. Das LÜGENBOT-Projekt wurde seit 2013 von Oliver Bendel mit mehreren Artikeln vorbereitet. 2016 konnte der Chatbot dann realisiert werden. In dieser Form konzipiert und programmiert hat ihn Kevin Schwegler. Das ganze Interview mit dem Titel „Lügentechnik zerstört Vertrauen“ ist am 16. September 2016 in der gedruckten Ausgabe der VDI nachrichten erschienen und seit 15. September online über www.vdi-nachrichten.com/Schwerpunkt-Meinung/Luegentechnik-zerstoert-Vertrauen abrufbar.

rot_anlaufen

Abb.: Der LÜGENBOT wird rot

Nervenzellen auf Platinen

Ein sechsseitiges Interview mit Oliver Bendel ist in der Absatzwirtschaft (Sonderausgabe dmexco, 14. September 2016, S. 36 bis 41) erschienen. Peter Hanser ist in die Schweiz gereist und hat den Wirtschaftsinformatiker und Maschinenethiker im Au Premier im Zürcher Hauptbahnhof getroffen. Es war ein Gespräch über Technik und Ethik, in dessen Verlauf u.a. die folgenden Worte fielen: „Ich unterscheide Maschinenethik als Gestaltungsdisziplin und andere Disziplinen wie Informationsethik oder Technikethik als Reflexionsdisziplinen. In der Maschinenethik wollen wir wirklich Maschinen konzipieren und am Ende auch prototypisch bauen. Dabei arbeiten wir eng mit KI, Robotik und anderen Disziplinen zusammen. In der Informationsethik und Technikethik reflektieren wir Probleme, die sich beim Einsatz von Robotern ergeben. Es ist beides sinnvoll und notwendig. Wir haben zum ersten Mal in der Geschichte der Ethik eine Form der Ethik, die danach fragt, wie man maschinelle Moral umsetzen kann. Zugleich haben wir zunehmende Probleme durch den Einsatz von Robotern, etwa durch den Ersatz von Arbeitskräften, Kollisionen von Menschen und Maschinen und technikbezogene Sexpraktiken. Es stellt sich die Frage, was wir künftig mit Maschinen tun wollen. Damit sind dann Bereichsethiken gefordert wie Informations-, Technik-, Medizin-, Sexualethik und so weiter.“ Die Maschinen, die das Licht der Welt erblickt haben, sind der GOODBOT und der LIEBOT, und beiden wird im Artikel mit dem Titel „Vielleicht haben Maschinen eines Tages Bewusstsein“ ein Infokasten gewidmet. Das mit dem Bewusstsein hält Oliver Bendel für unwahrscheinlich, aber nicht für ausgeschlossen. Ein Weg könnte sein, auf informationstechnischen Strukturen, auf Platinen etc., tierische oder menschliche Hirnzellen wachsen zu lassen. Ein umgekehrter Cyborg sozusagen.

neuronen

Abb.: Hirnzellen könnten auf informationstechnischen Strukturen wachsen

Olli im Playboy

Local Motors und IBM haben ein autonomes Shuttle präsentiert, das an das autonome Shuttle der PostAuto AG erinnert, das in Sitten im Wallis verkehrt. Anders als dieses kann Olli aber – so sein Name – nicht nur denken, sondern auch sprechen, beides auf hohem Niveau und mit Hilfe von IBM Watson. Es werden Wünsche von Passagieren entgegengenommen, etwa in Bezug auf Fahrziele, und diese sogar vorgeschlagen; wenn es heiß ist, fährt das Auto zur nächsten Eisdiele. Olli kann auch beruhigend auf die Passagiere oder die Passanten einreden: „For citizens of Maryland, many of whom have never seen a self-driving car, Watson’s reassuring communications could be critical to making them more comfortable with the idea that there’s no human being at the wheel.“ (Information IBM) Das Auto an sich wandelt sich ständig. Es ist nicht mehr nur ein Wagen, der von einem Fahrer beherrscht wird; es ist ein automatisches Transportmittel, das seinen Weg allein findet, das Menschen aufsammelt, das Wünsche erfüllt und weckt, das mit seiner Umgebung und mit Lebewesen interagiert, das beobachtet und mitdenkt und entscheidet, das selbst bezahlen und selbst etwas besorgen und einladen kann. Local Motors hat es mit seinen Innovationen bereits in den Playboy geschafft. Auch eine Kooperation mit BMW war 2012 verkündet worden. Ob Olli es in den Playboy schafft, ist noch ungewiss. Weitere Informationen über www-01.ibm.com/common/ssi/cgi-bin/ssialias?htmlfid=WW112356USEN und localmotors.com/olli/.

page

Abb.: Bettie Page hat es geschafft (Quelle: Wikipedia)

Die Suche nach dem Moralmodul

„Das Auto hat sich und seine Umwelt immer wieder stark verändert. Am Anfang versuchte man, die Kutsche nachzuahmen, und fast wie in den Jahrhunderten zuvor holperte und wankte man über das Pflaster. Dann entdeckte man die Stromlinienförmigkeit, duckte sich in den Fahrerraum hinein, wand sich aus dem Sitz heraus. In die Lücke, die die Steine hinterlassen hatten, floss der Asphalt. Die Städte wurden umgebaut. Sie wurden so autofreundlich, dass der Gehsteig in manchen Ländern zum Strich verkam, auf dem man sich vorsichtig zwischen Verkehr und Mauer vorwärts bewegte. Vorwärts, vor allem im Sinne des Fortschritts, das war die Devise, bis man die Innenstädte wieder für die Fußgänger erschloss und Fußgängerzonen entstanden. Dann tat sich eine Weile nichts. Autoindustrie und Stadtplaner wirkten müde und schwach. Bis die Idee des autonomen Autos geboren wurde.“ So beginnt ein Artikel zu Roboterautos und zur Maschinenethik von Oliver Bendel, erschienen am 9. September 2016 im Tagesspiegel, der traditionsreichen Zeitung aus Berlin, für Berlin und ganz Deutschland. Er kann über https://causa.tagesspiegel.de/die-suche-nach-dem-moralmodul.html abgerufen werden.

kutschenfahrt

Abb.: Den Pferden und dem Kutscher ausgeliefert