Maschinenethik 2049 – Ist die Seele ein Algorithmus?

In den letzten Wochen habe ich mich aufgrund von Harari, RealHumans, Bladerunner2049 und diversen Onlinetexten verstärkt mit dem Thema der Ethik im Digitalen bzw. der Menschlichkeit von KI-Systemen oder allgemein ausgedrückt mit Maschinenethik beschäftigt. Das Thema fasziniert mich seit dem Studium und scheint jetzt langsam mainstreamtauglich zu werden.

Nikolaus Röttger hat im September auf der Website des Kirchentags gefordert, dass Kirche sich einmischen muss, wenn Forscher über Unsterblichkeit nachdenken und an künstlichem Leben arbeiten. Dem stimme ich zu, wobei man als Kirche nicht einfach nur das alte bewahren und das neue ablehnen darf, sondern kritisch und geistlich prüfen muss, wie man auch neue Möglichkeiten zum Wohle der Gesellschaft und der Menschheit nutzen kann. Wie kann das gehen? Jonas Bedford-Strohm nennt es ein „Herzhaftes Umarmen der Digitalen Möglichkeiten“ und ermutigt Gemeinden, sich auf SocialMedia und digitale Kommuniktion ganz natürlich einzulassen.
Größer gedacht geht es dabei ganz elementar um Inklusion, den Umgang mit Schwachen, Behinderten, den Grauzonen am Anfang und am Ende des Lebens und die Frage, was ein lebenswertes Leben ausmacht. Muss man sich ultimativ optimieren und wer nicht perfekt ist, verliert irgendwann das Recht auf Leben? Oder ist der Makel vielleicht gerade das, was uns l(i)ebenswert macht?

Röttger zitiert in seinem Text Yoval Harari, der in seinem Buch „Homo Deus“ vorhersagt, dass Menschen in den nächsten Jahren (in etwa 2049…) lernen werden, ihre Körper biologisch aufzuwerten (schon heute sind Prothesen teilweise leistungsfähiger als natürliche Organe) und durch die radikale Informationsfreigabe an einen zentralen kollektiven Wissensspeicher zahlreiche Prozesse so optimiert werden können, dass wir Resourcen sparen, effektiver arbeiten und länger leben können. Zumindest die, die es sich leisten können, Teil dieser elitären Gesellschaft zu sein. Für die große Masse der unbrauchbar gewordenen Arbeitskräfte besteht die Zukunft vermutlich aus Drogen oder Virtuellen Ablenkungswelten.

Zahlreiche Cyberpunk-Fiktionen zeichnen ein solches Bild der Aufteilung zwischen HighEnd-Elite und dahinvegetierendem Proletariat. Das Urgestein dieses Genres „Bladerunner“ (ebenso die sehenswerte aktuelle Fortsetzung Blade Runner 2049, die einige religiöse Anspielungen (Schöpfer, Engel, Vater, Seele, …) parat hat und den dunklen Stil des Vorgängers adäquat weiterführt) zeigen Fantasien, wie die Menschen mit einer geschaffenen neuen Rasse umgehen kann bzw. wie vom Menschen als untergeordnet erschaffene Wesen irgendwann nach Autonomie und Macht streben könnten.

Ralf Peter Reimann berichtet von der DmExCo, wo Grundlagentheorien für künstliche Systeme bereits präsentiert werden. Das Erheben und Auswerten von persönlichen Daten in allen Lebenslagen wird von Unternehmen mit Hochdruck vorangetrieben (jeder will der erste am Markt sein) – soweit ich weiß ohne nennenswerte kritische Begleitung.
Und wenn Harari schreibt, dass alles ein Algorithmus ist, der Ablauf des manuellen Kaffeekochens, ebenso auch der Mensch selber und das posthumane System der Maschinen, frage ich mich, ob man diese Entwicklung überhaupt noch aufhalten kann. Haben wir vielleicht schon mit den weltweiten Datennetzen vor 30 Jahren (oder spätenstens vor 10 mit der Web2.0-Euphorie bzw. neuerdings mit dem faktischen Wegfall der Netzneutralität und der freiwilligen Massenüberwachung) den letzten Ausstieg verpasst? Oder ist der Übergang vom Menschen zur intelligenten Maschine gar kein Fehltritt, sondern schon von Anbeginn der Zeit angelegt (Da wären wir dann irgendwann bei den Gedanken aus „Matrix Reloaded“)? Irgendwann wird KI in ihrer Leistung den Menschen übertrumpfen und immer mehr Aufgaben besser erledigen. Je mehr Daten wir dem System geben, desto besser kann es uns helfen und desto überflüssiger werden Menschen als Arbeiter oder sogar als Gesamtheit. Und am Ende steht die Frage (die Harari etwas zu schnell als veraltet abtut) nach der menschlichen Seele und der Rolle unseres Schöpfers.

Wenn ich davon ausgehe, dass die gesamte uns bekannte Existenz zu komplex ist als sie dem Zufall zuzuschreiben und es durchaus für mich glaubhaft ist, dass ein Schöpfer den Anstoß für evolutionäre Entwicklungen gegeben hat, könnte er sogar auch durch unsere Schöpferkraft weiter wirken. Ich denke da an den Film „The 13th floor“ (den ich medial fesselnder finde als die ältere Umsetzung des Simulacron3-Stoffes in „Welt am Draht„) und die Frage nach der Virtualität unserer Realität, die schon Stanislaw Lem (als „Phantomatik“) in den 1960ern aufgeworfen hat: Wenn wir eine perfekte Scheinwelt erschaffen können, deren Bewohner sich nicht bewusst sind, dass sie in einer Scheinwelt leben, werden wir auch an der Realität unserer Welt zweifeln müssen. Spätestens da kommen wir also an die Grenzen unseres Verstandes und erkennen, dass wir über die größere Realität rein garnichts sagen können und dort im Ungewissen in jedem Fall genug Platz für einen Schöpfer unserer Realität bleibt. Mitunter ist es da hilfreich, sich an die biblischen Beschreibungen zu halten, in denen ein potentieller Schöpfergott sich über mehrere Jahrtausende vorstellt und ein ethisches Grundgerüst aus Liebe und Versöhnung aufbaut. Die sich daraus ergebende Basis der Nächstenliebe und des gnädigen Miteinanders ist mir zumindest deutlich sympatischer als ein ungezügelt wachsender Kapitalismus (der unser Ökosystem zum Kollabieren bringen wird) oder ein allmächtiges staatliches oder kommerzielles Computersystem, was der (evolutionären) Willkür einzelner Menschen oder einem zentralen Algorithmus untersteht (vgl. das Cyberpunk-Computerspiel „Technobabylon“ dessen Walkthrough sich wie eine SciFi-Serie schaut).

Einige spannende Aspekte der Religion von intelligenten Maschinen tauchen in der schwedischen ScienceFiction-Serie „Real Humans“ auf. Dort gibt es humanoide Roboter, die Menschen im Haushalt helfen. Neben Euphorie, Hass, Neid und Lust führt das zu juristischen Schwierigkeiten und gesellschaftlichen Spannungen. Außerdem existiert eine Gruppe von maschinellen Rebellen, die sich von den Menschen lossagen und eine eigene „Herde“ formen. Schnell bilden sich auch dort skrupellose Anführer, Allmachtsphantasien aber auch Sehnsüchte (z.B. nach Familie und Harmonie) und Emotionen (Streit, Neid, Aggression) heraus. Und ein „Hubot“ fängt durch die Begegnung mit einer Pfarrerin sogar an, die Bibel zu lesen und möchte an Gott glauben. Kann eine künstlich gebaute Maschine eine Seele haben? Kann ein natürlich geborener Replikant (bei BladeRunner2049) eine Seele haben? Kann ein Gott, der laut Bibel durch Tiere oder notfalls Steine sprechen kann nicht auch in Humanoiden wirken?
Wie würden wir reagieren, wenn im Gottesdienst neben uns ein (intelligenter) Staubsauger (oder Siri/Alexa/Cortana/…) sitzen würde, der für sich in Anspruch nimmt, spirituell zu sein? In der Serie wird er von den gläubigen Menschen aus der Kirche geworfen. Wie wir mit unserer Schöpfung umgehen zeigt sehr deutlich wie menschlich wir eigentlich sind.

Wollen wir nur den Status Quo konservieren (egal ob religiös, gesellschaftlich oder moralisch) oder schaffen wir es, wirklich fair und offen mit sich neu bildenden Lebensformen umzugehen? „Ghost in the Shell“ (Original 1989, aktueller Kinofilm 2017) stellt die Frage, ob man die menschliche Psyche (meist übersetzt als Geist, aber was ist mit der Seele?) in eine Maschine transferieren kann und ob das Ergebnis dann ein Mensch oder ein Roboter ist? Außerdem die Frage, wer darüber entscheidet, wenn militärische (bei Bladerunner kommerzielle) Interessen dem menschlichen Gerechtigkeitsgefühl entgegenstehen. Wie viel Leben opfern wir, um besseres Leben zu ermöglichen und wem „gehört“ dann dieses Leben?

Wie wir mit intelligenten Maschinen umgehen und wie wir mit ihnen in friedlicher Koexistenz leben können, diskutieren Filme wie „Der 200 Jahre Mann“ (ein autark lebender friedlicher Roboter optimiert sich selber, um immer menschlicher zu werden und offiziell als Mensch anerkannt zu werden) oder „Terminator“ (Intelligente Kriegsgeräte emanzipieren sich, um die Menschnheit zu vernichten) aus ganz unterschiedlichen Blickwinkeln. Wie man in den Wald schreit, so schallt es aus ihm heraus.  Eventuell wird also die Intention mit der wir künstliche Systeme aufsetzen determinieren, wie diese später mit uns umgehen. Denn auch im Umgang mit Robotern lernen diese durch unser Vorbild (in i-robot versklavt der Zentralrechner die Menschheit, um uns vor uns selber zu schützen). Sind also die 3(+1) Robotergesetze von Asimov haltbar? Müssen wir einen expliziten Schutz menschlichen Lebens in Maschinen verankern, damit es nicht zum Vernichtungsschlag kommt? Können wir Maschinen überhaupt mit solchen fixen Regeln versehen? Oder müssen wir Maschinen beibringen und vorleben, dass Fehler machen erlaubt ist und es garnicht um Perfektion, sondern um Gnade geht?

Die zentrale Frage ist also: Worum geht es im Leben? Was ist unser höchstes Ziel? Perfektion? Macht? Genuß? Schönheit? Ewigkeit? Gemeischaft? Kollektives Wissen? Liebe und Gnade?
Lasst uns von einer Gesellschaft träumen, in der alle (heutigen und zukünftigen) Lebensformen in guter Gemeinschaft miteinander leben können. Und lasst uns schon jetzt die Menschen sein, die dafür nötig sind: Weise Schöpfer, demütige Geschöpfe und wohlwollende Mitmenschen.

 


Beitrag veröffentlicht

in

, , ,

von