Sie lesen diesen Artikel kostenlos

Vielen Dank für Ihr Interesse! Sie rufen diesen Beitrag über einen Link auf, der Ihnen einen freien Zugang ermöglicht. Sonst sind die Beiträge auf changeX unseren Abonnenten vorbehalten, die mit ihrem Abo zur Finanzierung unserer Arbeit beitragen.
Wie Sie changeX nutzen können, erfahren Sie hier: Über uns
Wir wünschen viel Spaß beim Lesen!

Roboterliebe, Roboterfreiheit?

Digitaler Humanismus - das neue Buch von Julian Nida-Rümelin und Nathalie Weidenfeld
Rezension: Winfried Kretschmer

Kann eine künstliche (oder besser: maschinelle) Intelligenz denken, fühlen, urteilen wie ein Mensch? Vielleicht nicht gleich heute, aber in der Zukunft? Oder gibt es eine grundsätzliche, eine kategoriale Grenze zwischen Mensch und Maschine? Ein mathematischer Satz aus den 1930er-Jahren zeigt, dass menschliches Denken nicht berechenbar ist. Nicht algorithmisch strukturiert. Die zentrale These eines der bemerkenswertesten Bücher des Jahres.

cv_nida-ruemelin_weidenfeld_digitaler_humanismus_140.jpg

"Willst du mein Freund sein?", fragt Ava Caleb.
"Ja", antwortet dieser.
"Wird es möglich sein?"
"Warum sollte es das nicht sein?" 

Der Beginn einer großen Liebe? Vielleicht. Eine Liebesbeziehung jedenfalls, die problematisch ist. Bei der fraglich ist, ob sie möglich ist. In einem Roman des 19. Jahrhunderts wären es wohl Klassenschranken, die Zweifel an der Legitimität einer Liebe säen. In diesem Fall ist es eine andere, härtere Grenze. Caleb ist ein Mensch, Ava ein Roboter. Eine, wie es heißt, "attraktive Roboterfrau". Wie ein menschliches Wesen reagiert sie auf ihr Gegenüber, zieht sie Caleb in ihren Bann. "In ihrem Gesicht spiegeln sich viele Emotionen. Sie ist überrascht, mal geschmeichelt, mal verwundert, mal verletzt und schließlich verliebt." Bald wird sie sagen: "Ich will mit dir zusammen sein." Liebt sie ihn? Können Roboter, kann eine künstliche Intelligenz (KI) Liebe empfinden? 

Die Kulturwissenschaftlerin Nathalie Weidenfeld und der Philosoph Julian Nida-Rümelin, deren Buch Digitaler Humanismus diese Szene aus dem Film Ex Machina von Alex Garland (Großbritannien, 2015) entnommen ist, verneinen das kategorisch. Ava weiß zwar alles über menschliches Verhalten, weil sie via Big Data alles darüber gelernt hat. Sie "kann aber selbst weder wie ein Mensch fühlen noch moralisch urteilen", so die Autoren. "So wie alle KIs wird sie nie in der Lage sein, eine verlässliche Freundin zu sein." Die Filmhandlung unterstreicht diese These. Ava simuliert nur Liebe. Sie benutzt Caleb, um ihrer Gefangenschaft zu entrinnen. Und überlässt den vermeintlich geliebten Menschen, in ihrem früheren Gefängnis eingeschlossen, dem sicheren Tod. Während sie in die Freiheit spaziert.


Fühlt und denkt KI wirklich?


Mit diesem Einstieg sind bereits die zentralen Themen dieses Buchs umrissen, das eine Ethik für das Zeitalter der künstlichen Intelligenz entwirft. Einmal dessen überzeugendes Konstruktionsprinzip, das fiktionale Elemente aus Science-Fiction-Filmen mit einer philosophischen Erörterung verknüpft. "Filme sind unsere modernen Mythenmaschinen", schreibt Nathalie Weidenfeld in ihrem Vorwort. Und macht mit ihrer Auswahl an Filmszenen zugleich deutlich, dass es kaum ein ethisches Dilemma an der Schnittstelle Mensch - Maschine gibt, das nicht schon im Film thematisiert worden ist. Das ist ein wunderbarer Beleg für den Gewinn, den es bringt, Disziplingrenzen zu überschreiten. Die Verbindung von Fiktion und Philosophie ist ein absoluter Glücksgriff für das Buch. 

Zum anderen ist das philosophische Thema des Buchs benannt: die Grenze zwischen Mensch und Maschine. Die Eingangsszene wirft die Frage auf: Gibt es diese Grenze? Gibt es einen kategorialen Unterschied zwischen menschlichem Denken und Fühlen und Softwareprozessen? Damit verbunden ist eine konkretere Frage: Wenn KI Gefühle äußert oder Gedanken - fühlt oder denkt sie dann wirklich? Oder simuliert sie dies nur? Weil sie - wie Ava - aus einer Masse von Big Data abgeschaut hat, wie das aussieht: denken und fühlen? 

Aus dem Zitat wird zugleich (drittens) die grundlegende Position des Buchs deutlich. Es ist eine klare, entschiedene Absage an die Verklärung künstlicher Intelligenz in ihrer starken und schwachen Form, von transhumanistischen Fantasien ganz zu schweigen. Und ein ebenso entschiedenes Eintreten für einen Humanismus, adaptiert für das digitale Zeitalter: "Ein digitaler Humanismus transformiert den Menschen nicht in eine Maschine und interpretiert Maschinen nicht als Menschen. Er hält an der Besonderheit des Menschen und seiner Fähigkeiten fest und bedient sich der digitalen Technologien, um diese zu erweitern, nicht um diese zu beschränken." So Julian Nida-Rümelin in seinem Vorwort. Dieser digitale Humanismus formuliert also eine Alternative zu dem, "was man vereinfachend als ‚Silicon-Valley-Ideologie‘ bezeichnen kann". Und wendet sich gegen eine (schon im Begriff angelegte) Gleichstellung von "künstlicher" und menschlicher Intelligenz. Natürlich verwenden die Autoren den Begriff KI, legen aber vom humanistischen Standpunkt aus nicht akzeptable Implikationen bloß. Das betrifft sowohl die starke wie auch die schwache Form von KI. 


Ein kategorialer Unterschied?


An dieser Stelle ist es erforderlich, ein paar Begriffe zu klären. 

Starke KI beinhaltet die These, dass es zwischen menschlichem Denken und Softwareprozessen keinen grundlegenden Unterschied gibt. 

Die schwache KI-Position hingegen "bestreitet zwar nicht, dass es kategoriale Unterschiede zwischen menschlicher und künstlicher Intelligenz gibt, behauptet aber, dass es keine prinzipielle Grenze der Computerisierung (Digitalisierung) menschlichen Denkens, Wahrnehmens, Entscheidens und Fühlens gibt". Sie geht davon aus, "dass prinzipiell alle menschlichen Denk-, Wahrnehmungs- und Entscheidungsvorgänge von geeigneten Softwaresystemen simuliert werden können". 

Dann die Turing-Maschine. Eine Turing-Maschine ist ein von dem Mathematiker Alan Turing eingeführtes Rechnermodell, das die Arbeitsweise eines Computers anschaulich darstellt. Eine Turing-Maschine repräsentiert einen Algorithmus, definiert als eine eindeutige Handlungsvorschrift zur Lösung eines Problems, die aus endlichen vielen Einzelschritten besteht. Die Turing-Maschine folgt dem Prinzip, dass jeder Zustand genau einen Nachfolgezustand festlegt. Digitale Computer liefern also eindeutige Ergebnisse. 

Schließlich "kategorial". Der Begriff meint, dass es einen grundlegenden, nicht auszuräumenden Unterschied zwischen menschlicher und künstlicher Intelligenz gibt: Beide gehören unterschiedlichen Kategorien an.


Kein verständiges Erfassen, kein Problembewusstsein, keine Einsicht


Das ist das zentrale Argument: "Softwaresysteme wollen, fühlen, denken, entscheiden nicht." Im Grunde sind es drei Schritte, drei grundlegende Unterschiede, die das Buch herausarbeitet. 

Erstens: Computer fühlen nicht. Maschinen haben oder entwickeln keine Emotionen; sie können sie allenfalls simulieren. Damit können sie auch keine Empathie empfinden. 

Zweitens verfügt ein Computer "nicht über moralische Urteilskraft"; auch diese könnte er "allenfalls simulieren". Der Grund ist, dass sich die Praxis des Abwägens nicht algorithmisieren lässt. "Diese Fähigkeit des komplexen Abwägens moralischer Gründe kann nicht durch ein Optimierungskriterium ersetzt werden, genauso wenig wie eine ernsthafte Analyse der ethischen Bestimmungselemente moralischer Praxis die Form einer algorithmischen Regel annehmen kann, wie ausgefeilt sie auch immer sein mag." Kurz gesagt: "Moralische Abwägungen können nur Menschen vornehmen." 

Drittens Denken: "Ein Computer denkt in unserem Sinne überhaupt nicht." Zwar sind Computer in der Lage, Denken erfolgreich zu simulieren. "Aber trotz dieser oft perfekten Simulation liegt beim Computer kein eigenes verständiges Erfassen, kein Problembewusstsein, keine Einsicht zugrunde." 

Aber die kritische Frage folgt auf dem Fuße. "Doch was ist, wenn Roboter immer komplexer und fortschrittlicher werden?" Kann, wird eine solche fortgeschrittene maschinelle Intelligenz den kategorialen Unterschied zur menschlichen verwischen? Das aber würde bedeuten, dass es einen Algorithmus geben müsste, der das menschliche Denken als Ganzes repräsentieren kann. Nur wenn eine künstliche Intelligenz in diesem Sinne vollständig ist, wenn sie menschliches Denken nicht nur simulieren, sondern realisieren kann, würde sie mit der menschlichen Intelligenz gleichziehen, würde aufschließen, den Unterschied verwischen und die Festschreibung als Turing-Maschine überwinden. 

Die entscheidende Leistung des Buchs liegt nun darin, zu zeigen, dass das nicht möglich ist. Es ist Julian Nida-Rümelins fundierter wissenschaftstheoretischer Kenntnis geschuldet (resultierend aus seiner Mitarbeit am Lehrstuhl für analytische Wissenschaftstheorie bei Professor Wolfgang Stegmüller), dass er dieses Argument aus der Tiefe logisch-mathematischen Spezialwissens an die Oberfläche holt. Zwar ist Kurt Gödel kein Unbekannter, jedenfalls wurde Douglas R. Hofstadters Werk Gödel, Escher, Bach im Jahr 1985 zum Bestseller. Doch der Transfer muss gelingen. Ihn leistet Nida-Rümelin. Mithilfe von Gödels Unvollständigkeitssatz zeigt er, dass es nicht sein kann, dass ein Algorithmus, also künstliche Intelligenz, das ganze menschliche Denken abbildet.


Wir müssen schon selber denken


Was der Autor als Ausflug in die Logik und Mathematik der 1930er-Jahre bezeichnet, ist ein Rekurs auf einen der wichtigsten Sätze der Mathematik. Damals, in den 1930er-Jahren, nämlich gelang es dem jungen Mathematiker Kurt Gödel, zu zeigen, dass das Bemühen, die Mathematik zu einem vollständigen und widerspruchsfreien System zu entwickeln, vergeblich war. Gödel konnte den Beweis führen, dass jedes hinreichend mächtige formale System, wie die Mathematik, entweder widersprüchlich oder unvollständig ist. Gödels Unvollständigkeitssatz besagt, "dass es wahre logische und mathematische Sätze gibt, die in dem Sinne nicht berechenbar sind, als es kein algorithmisches Verfahren gibt, das es erlaubt, die Richtigkeit dieser Sätze zu beweisen". Damit könne es keinen Algorithmus geben, der das menschliche Denken als Ganzes repräsentieren kann. Und es könne keinen Algorithmus geben, der uns die Überprüfung der Richtigkeit oder Falschheit von Hypothesen und Überzeugungen abnimmt. "Wir müssen schon selber denken." 

Die entscheidende Schlussfolgerung lautet dann: "Menschliche Vernunft, die menschliche Fähigkeit, Überzeugungen, Entscheidungen und emotive Einstellungen zu begründen und auf dieser Grundlage ein kohärentes Weltbild und eine kohärente Praxis zu entwickeln, lässt sich nicht im Modell eines digitalen Computers erfassen. Es wird nie gelingen, die hohe Komplexität unserer lebensweltlichen Begründung vollständig und in adäquater Weise formal zu erfassen. Roboter und Softwaresysteme funktionieren nach einem Algorithmus, Menschen nicht. Darin liegt einer ihrer zentralen Unterschiede begründet." 

Das war im Übrigen auch Alan Turing klar, der zugestand, dass es nicht möglich ist, ein System formaler Logik zu entwickeln, das Intuition unnötig macht. Turing betonte, wie es in den Anmerkungen heißt, die gemeinschaftliche Praxis menschlicher Vernunft, also die Verständigung über den Austausch von Gründen. "Es ist diese Verständigungspraxis", heißt es im Buch, die sich nicht algorithmisieren lässt, die eine ultimative Grenze für Maschinen, für digitale Computer darstellt." Ebenso wenig kann eine künstliche Intelligenz Intentionen, "also das Gerichtetsein des Geistes auf etwas" realisieren, so ein weiteres zentrales Argument. 

Intuition und Intention, so die Essenz der Argumentation des Buchs, lassen sich nicht algorithmisieren, ebenso wenig die menschliche Fähigkeit, sich durch den Austausch von Gründen zu verständigen. Das gilt auch dann, wenn Deep Learning und andere fortgeschrittene Anwendungen künstlicher Intelligenz ungeahnte neue Möglichkeiten autonomen Lernens eröffnen. Die hohe Komplexität dieser Systeme ändere nichts an ihrem algorithmischen Charakter. 

Diese hohe Komplexität hat aber eine andere, unerwartete Konsequenz: "Mit der steigenden Komplexität ist ein massiver Verlust an Transparenz verbunden, mit der Folge, dass für den menschlichen Beobachter, auch für den Programmierer, nicht mehr nachvollziehbar ist, auf welchem Weg der Lernprozess erfolgreich war, welche Regeln sich das System aufgrund vorgegebener Meta-Regeln oder Meta-Meta-Regeln gegeben hat." Ein ganz zentraler Punkt für eine zu entwickelnde Kritik der maschinellen Intelligenz.


Wissen verlangt Urteilskraft


In den hinteren Kapiteln widmet sich das Buch dann ethischen Aspekten digitaler Kommunikation, der Kommunikation zwischen Mensch und KI und den Themen Bildung, Demokratie und Arbeitsgesellschaft unter den Vorzeichen digitaler Transformation - das ebenfalls mit gewichtigen wohlabgewogenen Argumenten. Drei Zuspitzungen: Das World Wide Web mit seiner überbordenden Vielfalt von Interpretationen, Thesen, Theorien und Ideologien führt zu einer massiven Aufwertung des alten humanistischen Bildungsideals. Denn: "Wissen verlangt Urteilskraft." 

Zweitens wendet sich das Buch entschieden gegen ein bedingungsloses Grundeinkommen, da dieses die Spaltung der Gesellschaft verstärke. "Die zunehmende Digitalisierung muss und darf keinen Ausstieg aus der Arbeitsgesellschaft zur Folge haben." 

Zu denken gibt auch der Rekurs auf Forschungsergebnisse zur Demokratie, nach denen es "kein einziges Verfahren kollektiver Entscheidungsfindung gibt, das nicht strategie- und manipulationsanfällig ist". Schließlich, um noch einmal auf das Kernthema des Buchs zurückzukommen, geben die Autoren dem Disput um KI eine überraschende Wendung: Wenn nämlich Computer erkennen, entscheiden und fühlen, dann sollten (ja müssten) "wir mit ihnen rücksichtsvoll umgehen und ihnen je nach ihrer Menschenähnlichkeit auch Menschenrechte zuerkennen". Doch dann würde "ganz entgegen ihrer Intention … die starke KI zum Fortschrittshemmnis".


Was wir wollen


Fazit: Ein ungemein wichtiges Buch für die Debatte über die digitale Automation. Ein Buch, das einen wichtigen Hinweis gibt, den zu zitieren keinesfalls vergessen werden soll: "Die Frage ist nicht sosehr, was möglich ist, sondern was wir wollen." 



Zitate


"Softwaresysteme wollen, fühlen, denken, entscheiden nicht." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Wir müssen schon selber denken." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Ein digitaler Humanismus transformiert den Menschen nicht in eine Maschine und interpretiert Maschinen nicht als Menschen. Er hält an der Besonderheit des Menschen und seiner Fähigkeiten fest und bedient sich der digitalen Technologien, um diese zu erweitern, nicht um diese zu beschränken." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Moralische Abwägungen können nur Menschen vornehmen." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Menschen denken über ihre Handlungen nach und sind in der Lage, ihre Handlungen an Gründen auszurichten. Diese Fähigkeit, Entscheidungen zu treffen, die den besten Gründen folgen, ist das, was die menschliche Freiheit und Verantwortung ausmacht und uns von Tieren unterscheidet." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"In der Logik der KI gibt es keine Willensfreiheit. Wesen tun das, wofür sie programmiert worden sind. Sie handeln so, wie sie handeln sollen." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"In einem humanistischen Weltbild ist der Mensch kein Mechanismus, sondern freier (autonomer) und verantwortlicher Akteur in der Interaktion mit anderen Menschen und einer gemeinsamen sozialen und natürlichen Welt." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"KIs handeln nicht nach eigenen Gründen. Sie haben keine Gefühle, kein moralisches Empfinden, keine Intentionen, und sie können diese anderen Personen auch nicht zuschreiben. Ohne diese Fähigkeiten aber ist eine angemessene moralische Praxis nicht möglich." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Menschliche Vernunft, die menschliche Fähigkeit, Überzeugungen, Entscheidungen und emotive Einstellungen zu begründen und auf dieser Grundlage ein kohärentes Weltbild und eine kohärente Praxis zu entwickeln, lässt sich nicht im Modell eines digitalen Computers erfassen. Es wird nie gelingen, die hohe Komplexität unserer lebensweltlichen Begründung vollständig und in adäquater Weise formal zu erfassen. Roboter und Softwaresysteme funktionieren nach einem Algorithmus, Menschen nicht. Darin liegt einer ihrer zentralen Unterschiede begründet." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Wissen verlangt Urteilskraft." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Die zunehmende Digitalisierung muss und darf keinen Ausstieg aus der Arbeitsgesellschaft zur Folge haben." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

"Die Frage ist nicht sosehr, was möglich ist, sondern was wir wollen." Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

 

changeX 16.11.2018. Alle Rechte vorbehalten, all rights reserved.

Artikeltools

PDF öffnen

Ausgewählte Beiträge zum Thema

Orakelmaschinen und Menschen

Klaus Mainzer im Gespräch mit Matthias Eckoldt zum Interview

Künstliches Denken

Unser sechster Buchstreifzug durch die aktuellen Verlagsprogramme zum Überblick

Revolution der smarten Maschinen

"Es wird eine Gemeinschaft von Menschen und smarten Maschinen geben" - ein Interview mit Ulrich Eberl zum Interview

Ausgewählte Links zum Thema

Quellenangaben

Zum Buch

: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper Verlag, München 2018, 224 Seiten, 24 Euro (D), ISBN 978-3492058377

Digitaler Humanismus

Buch bestellen bei
Osiander
genialokal
Amazon

Autor

Winfried Kretschmer
Kretschmer

Winfried Kretschmer ist Chefredakteur und Geschäftsführer von changeX.

weitere Artikel des Autors

nach oben