Dr. Janina Loh

»Technik ist nie neutral«

Die promovierte Philosophin arbeitete als wissenschaftliche Mitarbeiterin an der Christian-Albrechts-Universität in Kiel. Dort beschäftigte sie sich insbesondere mit der Roboterethik. Seit 2016 ist sie als Universitätsassistentin im Bereich der Technik- und Medienphilosophie an der Universität Wien tätig. Als Technikphilosophin gilt ihr besonderes Interesse der Verantwortungsforschung.

05. Dezember 2018
Bild: Andrea Vollmer
Bild 1: "Technik ist nie neutral" (Bild: Andrea Vollmer)

Frau Dr. Loh, Sie sind Technikphilosophin. Mit was beschäftigen Sie sich genau?

Meine Schwerpunkte innerhalb der Technikphilosophie sind die Roboterethik, der Trans- und Posthumanismus, Feministische Technikphilosophie, Ethik in Technik und Wissenschaft sowie Verantwortungszuschreibung, beispielsweise in der Mensch-Maschine-Interaktion, im Umgang mit den neuen Informations- und Kommunikationstechnologien, in der Entwicklung einer starken künstlichen Intelligenz und so weiter.

Inwieweit ist die Diskussion, dass Roboter zum Beispiel in der Industrie einmal die Arbeit von heutigen Arbeitnehmern übernehmen – und sie nicht nur unterstützen – auch eine moralisch-ethische Diskussion?

Letztlich lassen sich Fragen nach der technologischen Transformation der Arbeitswelt darauf zurückführen, dass wir uns damit auseinandersetzen müssen, was gute Arbeit ist, welchen Wert Arbeit im menschlichen Leben haben sollte und ob wir jegliche Arbeit – oder eben nur die Arbeit, die entfremdet – theoretisch von Robotern übernehmen lassen wollen.

Kann man den Begriff der Moral eigentlich auch auf die Technik übertragen? Oder anders gefragt: Ist es möglich, Dingen einen moralischen Wert zuzuschreiben?

Die kurze Antwort lautet uneingeschränkt ja. Und nicht nur das – wir tun es bereits. Menschen sind bewertende Wesen, ihrem Handeln liegen immer Intentionen, Zwecke und damit auch Werte zugrunde. Jedes technologische Artefakt verkörpert Werte – moralische, ästhetische, ökonomische und so weiter. Ein Maschinengewehr beispielsweise ist dafür gemacht worden, ein Gegenüber zu schädigen. Wenn man damit theoretisch auch einen Nagel in die Wand schlagen oder es als Gehkrücke benutzen könnte, ist es für einen anderen Zweck gemacht und verkörpert damit primär moralische Werte, die – im Fall des Maschinengewehrs – mit der Zufügung von Leid zu tun haben. Technik ist nie neutral.

Was verbirgt sich hinter dem Begriff der Roboterethik?

Die Roboterethik ist die philosophische Disziplin, die sich mit den moralischen und ethischen Kriterien befasst, die im Bau von Robotern, im Umgang mit Robotern und im Verhältnis von Menschen und Robotern eine Rolle spielen. Sie stellt innerhalb des sogenannten westlichen Kulturraums eine verhältnismäßig junge Bereichsethik dar, eine Teilbereichsethik der Maschinenethik. Denn alle Roboter sind Maschinen, aber nicht umgekehrt alle Maschinen auch Roboter. In der Roboterethik wird darüber nachgedacht, inwiefern das fragliche Gegenüber, also der jeweilige Roboter, ein Wert- und vielleicht gar Rechtsträger und damit Objekt moralischen Handelns ist, und inwiefern ein Roboter sogar selbst als moralischer Akteur interpretiert werden muss. Außerdem diskutiert die Roboterethik Alternativen zu der klassischen Unterscheidung zwischen Subjekten und Objekten moralischen Handelns.

Wird oder sollte der Mensch seine Verantwortung an eine Maschine abgeben, zum Beispiel beim autonomen Fahren? Wie sieht es da mit dem Verständnis von Verantwortung aus?

Artifizielle Systeme – auch autonome Fahrassistenzsysteme – sind theoretisch in der Lage, in einem rudimentären Sinne Verantwortung zu übernehmen. Es hängt davon ab, um welche konkreten Roboter es sich jeweils handelt – und abhängig davon, inwiefern sie in der Lage sind, die für die Verantwortungsfähigkeit notwendigen Kompetenzen zu simulieren. Das wären unserem traditionellen Verständnis von Verantwortung zufolge Kommunikationsfähigkeit, Handlungsfähigkeit beziehungsweise Autonomie sowie Urteilskraft. Das bedeutet aber noch lange nicht, dass wir unsere Verantwortung gänzlich abgeben.

Verantwortung kann grundsätzlich geteilt werden und im Fall von Robotern, und konkret im Fall autonomer Autos, verbleibt die Hauptlast der Verantwortung bis auf Weiteres bei den involvierten Menschen; den Fahrzeuginsassen, den Besitzern der Autos, den Herstellern, den Designern und Programmierern – um nur ein paar verantwortliche Akteure in diesem Kontext zu nennen. Denn die involvierten Menschen verfügen über die gerade genannten Kompetenzen, die nötig sind, um jemandem Verantwortung zuzuschreiben, immer noch in einem deutlich größeren Ausmaß als jede noch so smarte Maschine.

Und wie sieht es mit der Weltherrschaft von Maschinen aus, so wie wir sie aus der Science-Fiction kennen – ist das eine Zukunftsvision, die Sie für möglich halten?

Rein theoretisch ist diese Dystopie vermutlich nicht absolut unmöglich – ebenso wenig wie im Übrigen auch die Utopie, dass Menschen durch Technik ihre Fähigkeiten steigern und erweitern und sich schließlich zu einem posthumanen Wesen transformieren; so würden das etwa die Transhumanisten ausdrücken. Allerdings tun wir uns aus meiner Sicht keinen Gefallen damit, solche negativen oder positiven Extremszenarien vor Augen zu haben, wenn es um die Bewertung von Technik geht. Wir sollten ein kritisches Bewusstsein für den Umgang mit Technik entwickeln und müssen uns damit in den großen Graubereich wagen, der zwischen den Polen einer positiven Utopie und einer negativen Dystopie liegt.

Die Maschine ist eine Abstraktion – es gibt sie ebenso wenig, wie es das Tier gibt, sondern es gibt spezifische Maschinen für ganz konkrete Kontexte mit ganz konkreten – und je nach Aufgabenbereich beschränkten – Fähigkeiten. Bereits mit diesen Maschinen – ob nun Militär-, Industrie-, Pflege-, Serviceroboter oder autonome Autos – gehen moralische Fragen einher. Und das nicht erst, wenn man die Entwicklung der modernen Technologien vor dem Hintergrund einer gedachten Utopie oder Dystopie denkt. Lassen Sie uns diese Fragen in ihren konkreten und aktuellen Kontexten in den Blick nehmen.

Werden Maschinen jemals über Kreativität verfügen? Oder gibt es vielleicht bereits Ansätze dahin gehend?

Es gibt ja bereits Zeichenroboter, die ganz brauchbare Ergebnisse liefern, und auch Roboter, die Texte oder Musikstücke schreiben. Mit Blick auf die Zeichenroboter war es über viele Jahrhunderte auch ein Kriterium guter Kunst, so naturgetreu und realistisch wie möglich zu malen. Das können besagte Zeichenroboter auch – zumindest mehr oder minder. Unter Kreativität wird häufig etwas Metaphysisches verstanden, ebenso wie das bei vielen anderen Kompetenzen der Fall ist, die Menschen als für ihr Selbstverständnis relevant empfinden.

Wenn es um Menschen geht, sind wir immer bereit, eine Zusatzannahme zu treffen, dahin gehend, dass jedes Wesen, das in etwa so aussieht wie ich und sich ähnlich verhält, schon über ähnliche Fähigkeiten verfügen wird. Und wenn ich mich selbst als willensfrei und autonom empfinde, werde ich gewillt sein, diese Eigenschaften auch anderen Menschen zuzuschreiben, obwohl sie empirisch gar nicht nachweisbar sind. Wenn Sie meinen Schädel öffnen würden, würden Sie nirgendwo in meinem Gehirn die Willensfreiheit finden. Mit Kreativität verhält es sich ganz ähnlich, denke ich. Wir haben bereits jetzt alle möglichen unterschiedlichen Roboter konstruiert, die über diverse Fähigkeiten verfügen – vielleicht nicht in derselben Weise und in demselben Ausmaß wie Menschen, aber zumindest kann man über alle diese Fähigkeiten keinen kategorialen Unterschied zwischen Menschen und Robotern ausmachen.

Erschienen in Ausgabe: 08/2018

Schlagworte