Direkt zum Inhalt
Technik

Einfache moralische Maschinen

Die junge Disziplin der Maschinenethik hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Robotern, Drohnen, Computern im automatisierten Handel und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden. Die Maschinenethik erweist sich mehr und mehr als Prüfstein für die Ethik. Sie kann neue Subjekte und Objekte der Moral beschreiben und aufzeigen, welcher normative Ansatz jenseits der auf Menschen bezogenen Moralphilosophie sinnvoll ist. Plattformen wie www.maschinenethik.net und www.robotergesetze.com widmen sich Ethik und Robotik.

Die Entwicklung moralischer Maschinen klingt für manche Menschen, sogar für Fachleute wie Ingenieure, Informatiker und Ethiker, nach Science-Fiction. Einerseits wird vielleicht die Komplexität menschlicher Moral überschätzt, so wie sie in anderen Zusammenhängen unterschätzt wird, andererseits wird offensichtlich nicht gesehen, dass man die Komplexität maschineller Moral reduzieren kann und muss. Man kann ohne weiteres einfache moralische Maschinen bauen. Als solche werden hier (teil-)autonome Systeme verstanden, die einfache Regeln in den Standardsituationen befolgen, für die sie entwickelt wurden, und damit moralisch (oder moralisch gut) handeln.

An dieser Stelle werden Beispiele aufgeführt, die mehrheitlich auch für KMU relevant sind:

  • Serviceroboter sind in zahlreichen Ausführungen erhältlich und erleben einen Boom. Ein gewöhnlicher Saugroboter saugt das auf, was seinen Weg kreuzt. Dazu gehören etwa Spinnen und Käfer. Nach der Meinung vieler Menschen sollte man Tiere nicht einfach verletzen oder beseitigen. Es ist möglich, den Roboter mit Bilderkennung und Bewegungssensoren auszustatten und ihm beizubringen, Lebewesen vor dem Tod zu bewahren.
  • Private Drohnen verbreiten sich in der Schweiz immer mehr. Sie können, entsprechend ausgerüstet, Objekte fotografieren und filmen. Die meisten Menschen wollen nicht heimlich aufgenommen und in ihrer Privatsphäre beeinträchtigt werden. Man kann die Drohnen mit Gesichts- und Bilderkennung ergänzen, die mit der Aufnahmefunktion zusammenspielt, und sie eine Aufnahme von Gesichtern verhindern lassen.
  • Chatbots informieren auf Websites über Produkte und Dienstleistungen und dienen Unterhaltung und Kundenbindung; deshalb werden nebenbei persönliche und soziale Aspekte berücksichtigt. Sie sind i.d.R. so gestaltet, dass sie niemanden irritieren und diskriminieren. Bei Suizid- und Amoklaufankündigungen reagiert die Mehrzahl inadäquat. Ein «guter Bot» würde eine Notfallnummer heraus- oder den Benutzer an eine Ansprechperson übergeben. Ein solches Verhalten lässt sich durch eine Erweiterung der Wissensbasis und die Nutzung der IP-Adresse erreichen. An der Hochschule für Wirtschaft FHNW wurde im Juni 2013 ein Projekt gestartet, aus dem der GOODBOT hervorgehen soll.
  • Selbstständig parkierende, bremsende und fahrende Autos nehmen dem Fahrer (bzw. «Beifahrer») bestimmte oder sogar sämtliche Aktionen im Strassenverkehr ab. Sie können dadurch Unfälle verhindern und so das Leben der Insassen, anderer Verkehrsteilnehmer und von Tieren retten. Neue Nachtsichtgeräte und Bilderkennungssysteme, wie sie etwa Daimler integriert, können zwischen Menschen und Tieren unterscheiden und damit Prioritäten setzen. Assistenzsysteme solcher Art erlauben schon heute moralische Maschinen im weitesten Sinne.

Diese Beispiele verdeutlichen verschiedene Aspekte und Chancen:

  • Der Marktwert der Maschinen und die Kaufanreize können erhöht, die Anliegen der Kunden miteinbezogen werden. Man kann nicht nur mit Bio- und Fair-Trade-Produkten, sondern auch mit moralisch optimierten Werkzeugen und Robotern an das Gewissen appellieren.
  • Die Entwicklung von einfachen moralischen Maschinen ist mit den verfügbaren technischen Mitteln ohne weiteres möglich. In mehreren Fällen wären lediglich zwei, drei Komponenten hinzuzufügen. In manchen kann man bereits von Ansätzen einer moralischen Maschine sprechen.
  • Die vorhandenen und denkbaren Ansätze verbessern die autonomen Systeme ganz offensichtlich. Sie respektieren und retten Leben, sie beschränken die Potenziale der Maschine, ohne dass ihre Autonomie aufgegeben wird, sie beziehen Personen mit ein, die den Vorgang weiterführen.
  • Es sind zum einen Komponenten notwendig, die der Analyse der Aussenwelt dienen, der Beobachtung von Bildern und der Auswertung von Tönen und IP-Adressen, und die zum anderen Regeln enthalten, ableiten und umsetzen oder auch Folgen erkennen und bewerten.
  • Bei den skizzierten Beispielen sind kaum moralische Dilemmata zu erkennen. Viele Menschen bzw. die Besitzer der Maschinen wären mit den Entscheidungen der Maschinen einverstanden und würden genauso oder ähnlich verfahren.
  • Die Rigorosität der Maschinen wäre sogar ein Vorbild für die Menschen. Wenn sie immer Leben schonen oder versuchen zu retten, würde man ihnen u.U. nachzueifern versuchen. Ein Töten aus Bequemlichkeit könnte eingedämmt werden.

Ebenso sind Probleme und Risiken zu verzeichnen:

  • Nicht jedes Unternehmen und nicht jeder Benutzer will, dass die Maschine in ihre Schranken gewiesen wird. Diese könnte an Wert verlieren und vom Markt verschwinden.
  • Die einzubauenden Komponenten sind im Einzelfall nicht ganz günstig, wobei sie im Zusammenhang mit Luxusgütern zu sehen sind, die man sich etwas kosten lässt.
  • Das Involvieren von Personen und Einrichtungen – wie bei der Kommunikation mit dem Chatbot – könnte als Eingriff in die Privatsphäre verstanden werden.
  • Das Sammeln und Auswerten von Daten, etwa von IP-Adressen, führt zu neuen Herausforderungen, vor allem zu informationsethischen Problemen.
  • Auch wenige moralische Dilemmata können für viel Aufregung sorgen. Wenn intelligente Autos nur für Menschen eine Vollbremsung hinlegen, nicht für Füchse und Rehe, wird das Tierrechtler und -ethiker – anders als im Falle der dressierten Saugroboter – nicht erfreuen.

Grundsätzlich könnten die oben genannten Experten, vor allem die Ethiker, den Begriff der Moral beanstanden. Sie könnten einwenden, dass Maschinen zu keiner Moral fähig und sittliche Urteile etwas zutiefst Menschliches seien. Zum einen darf man aber davon sprechen, dass (teil-)autonome Maschinen Entscheidungen fällen, die moralisch relevant erscheinen, in Situationen, die «moralisch aufgeladen» sind. Zum anderen kann man erwidern, dass eine solche (durchaus legitime) Begriffskritik kaum etwas an der Sache ändert. Man kann die Systeme und mit ihnen das Leben verbessern.

Natürlich sind Sicherheitsvorkehrungen – in diesem Sinne könnte man die zusätzlichen Komponenten deuten – bei Maschinen nichts Ungewöhnliches und für KMU nichts Unbekanntes. Allerdings geht es hier um (teil-)autonome, teils intelligente Systeme, um ihre begründeten Entscheidungen und ihre adäquaten Akte bzw. Sprechakte. Es geht nicht um eine Säge, die bei einem Widerstand blockiert, nicht um eine Tür, die sich bei einem Widerstand öffnet (was nicht ausschliesst, dass man Säge und Tür «moralisieren» könnte). Sondern um gute und schlechte Entscheidungen, um folgenreiche Handlungen, um Menschen- oder Tierleben. Dass die einfachen moralischen Maschinen so problemlos funktionieren, liegt freilich an ihrem klar definierten Aufgabenbereich und der wenig komplexen Situation. Es können Probleme auftreten, wenn die Lage verworrener ist als gedacht. Und wirkliche Probleme stehen an, wenn man humanoide Roboter mit weitreichenden moralischen Fähigkeiten im Handeln und Sprechen ausstatten will. Das will jedoch im Moment kaum jemand. Die führenden Vertreter der Maschinenethik sind ziemlich bescheiden.