Hat Künstliche Intelligenz ein Gewissen?

Sie ist überall. Und sie polarisiert. Dass Künstliche Intelligenz nützlich ist, bestreitet niemand. Wie weit wir KI (noch) in unser Leben lassen, wird dagegen durchaus kontrovers diskutiert. Grund genug, sich dem Thema auch aus philosophischer Sicht zu nähern: Ein Interview mit dem Wissenschaftler Dr. Tobias Holischka.

Was kann Künstliche Intelligenz heute schon – und was nicht?

KI ist immer dort besonders erfolgreich, wo es um das Erkennen von Mustern, um Ähnlichkeiten geht – also bei allem, was ich mit Algorithmen erfassen kann. Aktuell ist Bilderkennung das große Thema, wie Gesichtserkennung oder das Identifi zieren von Objektklassen: Ist das, was zu sehen ist, tatsächlich ein Mensch oder doch ein Tier oder ein Gegenstand? In der Medizin lässt sich KI trainieren, um Röntgenbilder zu analysieren – mit einer Treffsicherheit, die Experten schon heute in kaum etwas nachsteht. KI versagt umgekehrt dort, wo klare Kriterien überschritten werden und mehr Kontext erforderlich ist. „Hund“ oder „Katze“ sind noch recht eindeutige Parameter, bei „niedlich“ wird es kompliziert.

Warum macht KI Menschen Angst?

Dass Menschen Angst vor Technik haben, hat eine lange Tradition. Dahinter stehen oft der Konkurrenzgedanke und die Sorge: „Das ist eine Maschine, aber die kann das besser als ich!“ Menschliches Denken war hier bisher außen vor, doch auch dem kommt KI vermeintlich immer näher oder doch sehr nah. Da stellen sich viele die Frage: „Was macht den Menschen dann noch aus?“ Ein weiteres Thema ist Autonomie versus Fremdbestimmung: Wie weit lasse ich mir von KI etwas vorschreiben? Von einer rein berechnenden Instanz? Denken Sie nur an das ungute Gefühl, wenn Sie eine andere Route fahren, als die, die Ihr Navigationsgerät Ihnen vorschlägt …

Kann KI ein Gewissen entwickeln?

Die Kategorie „Gewissen“ gibt es für Technologie nicht. Dafür braucht es ein „Selbst“, das Verantwortung übernimmt und sich entweder freiwillig an Regeln hält oder eben nicht. KI ist kein moralischer Akteur, sondern entscheidet ohne ein Verstehen der konkreten Situation.

Welche Fragen sollten wir uns in Hinblick auf KI stellen?

Ganz klar: Wie viel Autonomie wollen wir abgeben und wo, in welchen Bereichen? Im Straßenverkehr würden viele noch sagen ja, im Privaten eher nein. Aber schon das autonome Fahren zeigt, wie komplex die Debatte ist. Bei Robotern kommt noch etwas anderes hinzu: Wie menschlich sollen oder dürfen etwa Assistenzroboter aussehen? Wo fange ich an, mich unwohl zu fühlen, weil Mikro-Gesichtsausdrücke doch nicht ganz stimmen? Das wirkt auf uns tatsächlich eher gruselig.

Welche Science-Fiction-Visionen kommen dem, was wir über KI wissen, am nächsten?

Die meisten Filme legen die Möglichkeiten sehr viel weiter aus, als das, was tatsächlich machbar ist. „Matrix“ zum Beispiel ist schon sehr weit weg. Und die Vorstellung, dass Menschen nur noch in einer rein virtuellen Welt leben, ist ja auch ausgesprochen negativ. Dann schon eher Commander Data aus „Star Trek“: Als Android versucht er natürlich, alle Situationen rein formal zu lösen. Er wird aber immer wieder damit konfrontiert, dass er keine Emotionen entwickeln kann, und menschliche Entscheidungen deshalb oft genug einfach nicht versteht. Dieses Dilemma trifft viele Aspekte der aktuellen Debatte schon ganz gut.

Dr. Tobias Holischka

hat Philosophie, Informatik sowie Soziologie studiert und arbeitet als promovierter Philosoph und Akademischer Rat an der Katholischen Universität EichstättIngolstadt. Seine Forschungsthemen sind Technikphilosophie und Ortsphänomenologie. Zuletzt von ihm erschienen: CyberPlaces. Philosophische Annäherungen an den virtuellen Ort (transcript 2016).