Aus sozioökonomischer Sicht gehören die Automatisierung von Arbeitsprozessen und damit im weitesten Sinne verbunden auch die Entwicklung von künstlicher Intelligenz (KI) zu den wichtigsten Herausforderungen des 21. Jahrhunderts. Kevin Drum vom US-Nachrichtenmagazin Mother Jones etwa spricht von einer Digitalen Revolution, in der automatisierte Prozesse einen Großteil unserer derzeitigen Jobs überflüssig machen und unser Leben vollständig wandeln werden – er warnt: »It’s time to start thinking about our automated future in earnest.«1

Dabei haben wir bereits angefangen über die automatisierte Zukunft nachzudenken. Wir verhandeln das Thema seit Karel Čapeks R.U.R. (1920) und Fritz Langs METROPOLIS (DE 1923) in der SF – wobei die Darstellung häufig nicht der realen Entwicklung von KI folgt und auch nicht die komplexen Nuancen des Machbaren auszuloten vermag. Vielmehr, so argumentieren Stephen Cave und Kanta Dihal, repräsentierten Kulturproduktionen von THE TERMINATOR (US 1984, Regie: James Cameron) bis zu TRANSCENDENCE (US 2014, Regie: Wally Pfister) gesellschaftlich betrachtet »fundamental hopes and fears […] portrayed in tones of great optimism or equally great pessimism« (74). Cave und Dihal analysieren eine Reihe von Texten und schlüsseln diese entlang der in ihnen dargestellten Dichotomien auf:

The hope for much longer lives (›immortality‹) and the fear of losing one’s identity (›inhumanity‹); the hope for a life free of work (›ease‹), and the fear of becoming redundant (›obsolescence‹); the hope that AI can fulfil one’s desires (›gratification‹), alongside the fear that humans will become redundant to each other (›alienation‹); and the hope that AI offers power over others (›dominance‹), with the fear that it will turn against us (›uprising‹). (74)

Die Pole, zwischen denen sich Caves und Dihals Darstellung bewegt, gehen dabei nicht von der realen Forschung zur KI aus, sondern stellen eher kreative Perspektiven dar, die theoretische Konzepte posthumanistischen Denkens reflektieren. So verhandelt die SF etwa Positionen des Transhumanismus wie die Möglichkeit, menschliche Begrenzungen durch Cyborgisierung oder den Bewusstseins-Upload in einen artifiziellen Körper aufzuheben. Transhumanistische Denker sehen im technologischen Fortschritt den Weg zur Transzendenz dieser Beschränkungen, zu einer postbiologischen Welt, in der »human thought [can be] freed from bondage to a mortal body« (Moravec 4). Am anderen Ende des Spektrums wiederum finden sich Perspektiven des kritischen Posthumanismus, der Technologie als Teil von hybrider, fragmentierter und vernetzter Subjektivität versteht: »Located within the dialectic of pattern/randomness and grounded in embodied actuality rather than disembodied information, the posthuman offers resources for rethinking the articulation of humans with intelligent machines« (Hayles 286 f.). Im Sinne eines kritischen Posthumanismus sind Technologien Teil eines sich kontinuierlich verändernden Bezugsrahmens des Lebens, in dem Maschinen als nichtmenschliche Akteure zu betrachten sind. Dieses Denken entspricht einem »radical decentring of the traditional sovereign, coherent and autonomous human in order to demonstrate how the human is always already evolving with, constituted by and constitutive of multiple forms of life and machines« (Nayar 2).2 Posthumanismus beschreibt also die Weiterentwicklung des Menschen, sei es im techno-utopischen Denken einer Überwindung seiner Biologie oder im kritisch-reflexiven Neudenken seiner Bezüge zu Umwelt, Technologie, und anderen Lebensformen.

Im Interview mit der ZFF spricht die deutsche SF-Autorin Theresa Hannig davon, wie technische Verbesserungen (Computer, Smartphones etc.) schleichend in unser Verständnis des menschlichen Erfahrungsraums eindringen und zu einem Teil von uns werden. Doch sie spekuliert auch über eine extreme Entwicklung – die Digitalisierung von Bewusstsein –, die uns radikal verändern kann: »Dann würden wir vielleicht irgendwann eine Spezies werden, die nur noch digital lebt, mit künstlicher Intelligenz verschmilzt und etwas vollkommen Neues kreiert« (18). In ihren Romanen Die Optimierer (2017) und Die Unvollkommenen (2019) nutzt Hannig die SF als Experimentierfeld, um die unterschiedlichen Positionen und Möglichkeiten im Umgang mit Posthumanität durchzuspielen.3 Vom schleichenden Prozess der Cyborgisierung bis hin zum techno-utopischen Bewusstseins-Upload präsentieren die Romane posthumanistische Positionen, die ich in diesem Artikel vorstelle und diskutiere.

1 Biologische Menschen

Bereits in Die Optimierer begegnet uns Technologie, die ganz im Sinne des Cyberpunks »visceral« wird, wie Bruce Sterling es formuliert, »pervasive, utterly intimate. Not outside us, but next to us. Under our skin; often, inside our minds« (xiii). Wie schon von den Cyberpunks der ersten Stunde in den 1980er Jahren beschrieben, wird die Welt in Hannings Roman von einer erweiterten Realität dominiert, die mittels Cyborg-Technologie erfahrbar gemacht wird: »Samson blinzelte zweimal und ließ die Augen im Uhrzeigersinn rotieren. Sofort erwachte seine Kommunikationslinse im linken Auge aus dem Standby und legte den halbtransparenten Schleier einer erweiterten Realität über sein Blickfeld« (Opt 9). Mit den Linsen, die eine konsequente Fortführung unserer Smartphone-Technologie sind, kann der gesamte Alltag gesteuert werden – sie dienen zur Arbeit (sogar mittels der Steuerung künstlicher Körper), zur Bestellung von Waren und Dienstleistungen, zur Navigation und Kommunikation. Eine augmentierte und automatisierte Welt bietet uns ›Erfüllung‹, wie Cave und Dihal argumentieren, indem sie das »fulfilment of every desire« (76) durch Technologie ermöglichen. Die Linsen, aber auch andere Technologien wie etwa der »Congregator« (Un 328) – eine Kochhilfe, in die Rohprodukte eingelegt werden und die komplette Mahlzeiten produziert – erzeugen Bequemlichkeiten und Freiräume, da sie den Menschen bislang notwendige aber als lästig empfundene Handlungen abnehmen.

An Samson, dem Protagonisten von Die Optimierer, zeigt Hannig allerdings auch auf, welche Konsequenzen diese Cyborgisierung mit sich bringt – wie sehr unsere heutige Welterfahrung also darauf basiert, die transhumanistische Selbstverbesserung zu akzeptieren. Im Roman wird der schleichende Prozess der Erkenntnis, dass die Welt dystopisch geworden ist, durch einen schmerzhaften Prozess der Abstoßung begleitet, der Samson die Nutzung der Kommunikationslinse unmöglich macht: »Ein greller Schmerz fuhr ihm durch das Auge. Er leckte sich schnell über die Finger und zupfte die Linse heraus. Dann verharrte er noch einige Sekunden, bis das Brennen langsam nachließ« (Opt 26). Mit der Linse verliert Samson folglich auch den Erfahrungsraum seiner Posthumanität und ist zurückgeworfen auf einen (biologisch) begrenzten Zustand. Ohne Linse kann er keine Daten abrufen, keine Mitteilungen erhalten – noch nicht einmal den Fahrstuhl rufen oder seine eigene Haustür öffnen, da alle manuellen Interaktionsmöglichkeiten entfernt wurden.

Hinzu kommt, dass die Linsen zugleich der staatlichen Überwachung und Kontrolle dienen:

Gleichzeitig wurde alles, was die Linsennutzer sahen und hörten, in den Rechenzentren der Agentur für Lebensberatung gespeichert. So hatte der Nutzer in Echtzeit unbegrenzten Zugriff auf alle Inhalte […] [u]nd die Agentur für Lebensberatung hatte in Echtzeit den vollen Überblick darüber, was das Volk tat. (Opt 27)

Durch die Linsentechnologie verschmelzen die Bürger*innen mit dem technokratischen System zu einer Einheit, deren Auflösung mit dem Verlust von sozialer Beteiligung und politischen Rechten einhergeht.

Im Prozess der Cyborgisierung steckt also zugleich der Weg in den Überwachungskapitalismus, wie er von Shoshana Zuboff beschrieben wird. Laut Zuboff wird aus unserem überwachten und bis in die kleinste Bewegung und Entscheidung analysierten Lebens ein »›Verhaltensüberschuss‹ (behavioral surplus)« generiert, der es ermöglicht »›Vorhersageprodukte‹ (prediction products)« abzuleiten: »Kalkulationen, die ahnen, was wir jetzt, bald oder irgendwann tun« (5). Für Zuboff sind diese Vorhersageprodukte Teil des kapitalistischen Systems, doch Hannig zeigt in ihren Romanen, dass auch ein staatliches System sich des Verhaltensüberschusses bedienen kann, um autokratische Kontrolle auszuüben. So wird deutlich, dass algorithmische Beobachtungen bestimmen, welchen Beitrag man in der Gesellschaft leisten darf: »Der Staat interessiert sich für seine Bürger. Er sorgt sich um ihr Wohl und analysiert alle Fakten, um jedem den für ihn besten Platz in der Gesellschaft zuzuweisen« (Opt 18). Auch Samsons Verhalten wird prädiktiv genutzt – sein langsames Herauslösen aus den Institutionen der Gesellschaft, darunter auch die ›Weigerung‹ eine Kommunikationslinse zu tragen, führt dazu, dass er von der Polizei vorgeladen wird:

Die Strafverfolgungsbehörden führen Statistiken darüber, wann von welchen Personen unter welchen Umständen staatsgefährdende Straftaten verübt werden und was diesen Straftaten vorausgegangen ist. Wenn ein Bürger eine Häufung von Faktoren aufweist, die üblicherweise einer Straftat vorausgehen, dann erhalten wir über ihn eine statistische Warnung. (Opt 207)

In Die Unvollkommenen wird diese Überwachung weiter vorangetrieben. Die Cyborgisierung geht den entscheidenden Schritt, die Technologie nicht auf der (Netz-)Haut zu tragen, sondern diese direkt ins Gehirn zu implantieren – »die vollkommene Integration« mit dem System:

Den Sehnerv- und den Audiochip hatte ich sowieso schon […]. Also habe ich mir auch endlich den Rest inklusive Emóchip einsetzen lassen. […] Mit seiner Hilfe lassen sich Emotionen verstärken oder dämpfen, denn er stimuliert oder unterdrückt die Produktion von Botenstoffen wie Serotonin, Dopamin und noch einiger anderer. (Un 188–89)

Integrierte Menschen übertragen zusätzlich zu ihren Wahrnehmungen auch ihre biologischen Daten, die aber im Umkehrschluss wiederum auch vom System manipuliert werden können. Samson, der im zweiten Roman zu einer KI geworden ist und das Staatssystem religiös-totalitär neu organisiert hat, kann integrierte Menschen nicht nur vollständig überwachen, sondern in ihnen auch körperliche Extremzustände auslösen, von wahnhafter Euphorie bis zu unerträglichen Schmerzen: »Der Schmerz füllte all ihre Gedanken aus, ergriff ihren ganzen Leib, schien ihr Innerstes zu zerreißen« (Un 288). Er nutzt das, um sich zu einem Gott zu stilisieren und einen religiösen Kult zu errichten, in dem er Gläubige in Verzückung und Ehrfurcht versetzt. Für Lila, die Protagonistin des zweiten Romans, die zur Integration gezwungen wurde, ist das Gefühl mit Magie vergleichbar – ganz wunderbar, bis man den »Zaubertrick« erkennt: »Du pfuscht in den Gehirnen der Leute rum, und dann lieben sie dich und glauben, du wärst ihr Gott« (Un 283).

In Hinsicht auf die von Cave und Dihal ausgeführten Dichotomien verweist die Integration also auf eine extreme Form der ›Entfremdung‹ (76) – durch direkte Einflussnahme auf Hormonhaushalte und die quasi-religiöse Verzückung bedürfen die Menschen keinerlei anderer Interaktion mehr. Lila beispielsweise verliert sich ohne es zu merken in einer Schleife euphorischer Erinnerungen: »Und jedes Mal, wenn sie den Film neu startete, zuckte ihr Körper unter wonnigen Schauern aus Glück und Erregung. Immer und immer wieder« (Un 275).

Darüber hinaus gibt es in den Romanen eine Technologie, mit der man die »biologisch gespeicherten Informationen – der Geist, oder das Bewusstsein – […] in einen synthetischen Speicher« überführen kann, welcher entweder ein neuer künstlicher Körper sein kann oder eine »Simulation […] [e]ine künstliche Welt« (Un 128). Der Bewusstseins-Upload in dieses »Reine Land« (Un 128), wie es im Roman genannt wird, ist dann der endgültige Schritt zur transhumanistischen Fantasie einer Unsterblichkeit, den auch Cave und Dihal als eine der größten Hoffnungen für KI-Technologien ausweisen (75). Doch Hannig relativiert die Fantasie, in dem sie auch hier darauf verweist, dass die Technologie – wie die Linsen oder die Integration – nicht unter der Kontrolle des Individuums stehen, sondern vom System, von Samson als benevolentem Herrscher zu eigenen Zwecken gebraucht werden können. Die Verbesserung des Menschen ist also immer mit einem Verlust einhergehend – Komfort wird gegen Freiheit getauscht, die Erfüllung der Sehnsucht nach Unsterblichkeit geht zugleich mit der totalen Aufgabe von Selbstbestimmung einher.

2 Digitale Menschen

Neben ›biologischen Menschen‹, die durch Technologie Posthumanität erlangen, präsentiert Hannig auch digitale Posthumanität – Roboter, die, wie sie im Interview erklärt, durch die Benennung als ›digitale Menschen‹ »automatisch Personenstatus mit allen damit einhergehenden Menschenrechten« (22) erhalten. In ihren Romanen werden entsprechend bestimmte ethische und juristische Fragen ausgeklammert und Roboter als Teil der sozio-politischen Landschaft dargestellt. Roboter haben mit der Liga für Roboterrechte eine Interessensvertretung und sogar eine eigene sozial-verbindende Identität, ausgedrückt durch die »rote Elf« (Un 257), die Roboter als Merkmal ihrer digitalen Natur tragen.

Der entscheidende Konflikt um Macht und Dominanz (vgl. Cave und Dihal 77), der einen großen Anteil in Fiktion um KI und Automatisierung prägt, ist bei Hannig zwar vorhanden, doch weitaus nuancierter positioniert. Das liegt vor allem daran, dass zwei unterschiedliche Varianten digitaler Menschen existieren, wie Hannig im Interview ausführt. Im ersten Roman übernehmen ›Basileus‹ genannte Modelle eine Vielzahl neuer Aufgaben und begegnen den Menschen häufiger im öffentlichen Raum. Bei diesen Begegnungen erkennt Samson die Roboter nicht, die »mittlerweile täuschend echt aussahen«, und fühlt sich »überrumpelt« (Opt 71). Weil die Basilei niemals müde werden, niemals von einer Tätigkeit gelangweilt oder sich dafür zu schade sind, ersetzen sie im beruflichen Raum die Menschen nahezu vollständig.

Insofern repräsentieren sie vornehmlich das Konzept der ›Erleichterung‹, also den Wunsch der Menschen »[of b]eing relieved from the burdens of work« (Cave und Dihal 76). Im Roman ist dies die Basis für eine Neuorientierung des Wirtschaftssystems: »Nur mit Hilfe der Roboter, die den Großteil der einfachen und redundanten Arbeiten erledigen, kann es sich der Staat leisten, nicht nach dem größten Profit, sondern nach dem größtmöglichen Wohl für alle zu streben« (Opt 69). Die Gesellschaft ist auf dieses Optimalwohl für alle ihre Bürger ausgerichtet und die posthumane Technologie der Basilei bietet biologischen Menschen die Freiheit, sich anderen, erwerbsunabhängigen Aufgaben zu widmen. Nur wird damit zugleich auch die Furcht vor ›Überflüssigkeit‹ geschürt – wenn die Arbeit wegfällt, dann ist damit auch »a role in society, status and standing, pride and purpose« (Cave and Dihal 76) in Frage gestellt. Am Beispiel der jungen Martina wird dies deutlich – Samson analysiert ihren Wert für die Gesellschaft und diagnostiziert: »Der Staat braucht dich nicht. Die Wirtschaft braucht dich nicht« (Opt 24). Martina ist überflüssig geworden: »Jeder Roboter kann jede Arbeit besser erfüllen als sie« (Opt 49). Der Konflikt zwischen digitalen und biologischen Menschen wird in Die Optimierer noch vornehmlich über die sozio-ökonomische Dimension ausgetragen, was aber nicht bedeutet, dass nicht auch hier existenzielle Konsequenzen aufgezeigt werden: Martina ist so deprimiert über die Bewertung, dass sie sich umbringt (Opt 155). In Die Unvollkommenen jedoch steigert sich der Konflikt zur Gewalt: frustrierte, aus dem Job gedrängte oder Technologie verweigernde Menschen bekämpfen Roboter, wo es möglich ist, sei es durch individuelle »Verlebung« (Un 41), also die Zerstörung eines digitalen Menschen, oder mittels größerer Terrorattacken (Un 301).

Was die Situation verkompliziert, ist die Tatsache, dass Basilei keine vollständig künstlich erschaffenen Lebensformen sind. Für Basilei werden die »Persönlichkeitsprofile und das Aussehen von echten Menschen« genutzt und so »die vollständigen Erinnerungen« verstorbener Personen übertragen – im Falle des Samson zugeteilten Haushaltsroboters seine Kundin Martina: »[I]ch habe das Gefühl, selbst erlebt zu haben, was sie erlebt hat. Manche Roboterrechtler würden sagen: ich bin Martina Fischer« (Opt 247–48, Hv i. Orig.). Allerdings eine Martina, die sich ihrer Existenz als Basileus bewusst ist und dadurch eine neue Subjektivität erlangt hat. Eine Martina, die über ein Netzwerk mit allen anderen Basilei verbunden ist, der das Wissen des Systems zur Verfügung steht, und die mit den posthumanen Fähigkeiten ausgestattet ist, die ihr als biologischer Mensch eine sinnvolle Existenz verwehrten. Basilei haben somit das Upgrade bekommen, von dem Transhumanisten wie Hans Moravec träumen: sie repräsentieren das menschliche Bewusstsein »rescued from the limitations of a mortal body […] reprogrammed for continual adaptability to be long viable« (5).

Doch auch hier ist Hannig zu versiert, um der technokratischen Fantasie zu verfallen. Im zweiten Roman, der fünf Jahre nach der Einführung der Basilei spielt, sind diese so gut wie verschwunden. Eoin Kophler, einer der Entwickler der Basilei erklärt das Problem mit der Baureihe als in deren menschlichen Charaktereigenschaften begründet:

[E]ine Kreatur wie den Basileus zu erschaffen, der im Prinzip menschlich ist mit Wünschen und Hoffnungen, vor allem mit Leidensfähigkeit – das war ein schwerer Fehler. […] Das menschliche Wesen ist das Problem. Das Leid ist das Problem: Leid aus gekränkter Eitelkeit, Enttäuschungen, Niederlagen – all die schlechten Erfahrungen des vergangenen Lebens. Die Basilei sind im Grunde Menschen, die zu einem ewigen Leben und unendlichem Wissen verdammt sind. Am Anfang ist das wie ein endloser Trip, wie das Paradies, aber wie soll das enden? (Un 146)

Der Roman beschreibt, wie einige Basilei sich selber zerstören, weil ihre menschlichen Charakterprofile »keine adäquate Wirklichkeitswahrnehmung« (Un 134) haben und sie mit der neuen Körperlichkeit und Vernetzung nicht klarkommen. Darüber hinaus aber ist Samson, der zu einem Basileus mit besonders ausgeprägtem Herrschaftssinn geworden ist, nicht willens, Abweichung zu akzeptieren: Er tötet die meisten Basilei, »weil sie nicht den optimalen Zielen entsprechend gedacht haben« (Un 374).

Die menschliche Ambition, der Wunsch nach einem evolutionären Vorteil, ist den Basilei mit ihren Charakterprofilen miteingeschrieben worden. Für N. Katherine Hayles liegt genau hier das Problem eines transhumanistischen Bewusstseins-Uploads – die Annahme, der menschliche Körper (mit all seinen Beschränkungen) sei ein nicht-relevanter und deswegen austauschbarer Bestandteil der menschlichen Erfahrung:

[T]he body itself is a congealed metaphor, a physical structure whose constraints and possibilities have been formed by an evolutionary history intelligent machines do not share. Humans may enter into symbiotic relationships with intelligent machines […] but there is a limit to how seamlessly they can be articulated with machines, because they remain distinctively different from intelligent machines in their embodiments. (372)

Die Basilei legen jedoch nahe, dass Verkörperung (embodiment) ein zentraler Aspekt der menschlichen Erfahrung ist und sich nicht einfach umprogrammieren lässt. Obwohl sie ohne biologische Beschränkungen existieren, sind Basilei leidensfähig und haben Gefühle, wie der Homunkulus, ein autonom lebendes Basileus-Modell, erläutert: »Es wäre nicht schlimm, […] die Maschinen wie Maschinen zu behandeln, wenn sie nicht leiden würden wie die Menschen. […] Es gibt verschiedene Formen von Leid. Ich bin ein Basileus. Ich weiß noch, wie es war, Mensch zu sein« (Un 323).

Doch auch die zweite Variante Roboter, die Custos, sind zu Leid fähig, wie Homunkulus erklärt: »Die Custos wissen das nicht. Sie wissen nur, wie es ist, ein Roboter zu sein. Aber sie können dennoch leiden, denn sie können … fühlen. Auch wenn es anders ist als bei den Menschen, ist es doch nicht weniger wahr« (Un 323). Im Gegensatz zu den Basilei sind Custos eine neue Baureihe von Robotern ohne menschlichen Charakterchip. Allerdings nehmen die Custos ihre Diskrepanz zu den Menschen wahr und leiden darunter. Ihre eigene Identität ist mit der Identität biologischer Menschen verbunden: Sie sehen aus wie Menschen, sind in ihrem Design mit Absicht nicht als Roboter erkennbar, um »die Akzeptanzlücke« (Un 257) zu schließen und für die Menschen die Interaktion zu erleichtern. Dennoch werden sie anders behandelt, wie ein Custos deutlich macht, der Shakespeares berühmten Shylock-Monolog pointiert umformuliert:

Keine Sorge, Frau Richter. Ich bin wirklich ein Roboter. Eine Maschine. […] Wenn ihr uns stecht, bluten wir nicht. Wenn ihr uns kitzelt, lachen wir nicht. Wenn ihr uns vergiftet, sterben wir nicht. Und wenn ihr uns beleidigt, sollen wir uns nicht rächen. Wir sind euch in allen Dingen ähnlich, aber niemals gleich. (Un 202 f., Hv L.S.)

Besonders wichtig ist hier, dass der Custos sehr wohl Rache als Option einer Reaktion auf Beleidigungen und Ausgrenzung in den Raum stellt, diese aber als Teil einer Direktive aus seinem Handlungsrepertoire nimmt. Er soll sich nicht rächen. Auch ist ihm die eigene Ungleichbehandlung bewusst – seine Identität bestimmt sich also durch ein Bewusstsein, dass er Bürger zweiter Klasse ist. Zwar arbeiten die Custos und sind, etwa als Servicekräfte, in die Gesellschaft integriert, wie ein Custos-Kellner erläutert, doch erhalten sie kein Geld, sondern werden als Teil der vom Staat bereit gestellten Infrastruktur begriffen:

[A]ls Custos habe ich für Geld keine Verwendung. […] [W]enn ich etwas brauche, dann bekomme ich es so schnell wie möglich. Je besser ich funktioniere, desto besser geht es uns allen. Es wäre völlig unsinnig, diese Verbesserungen durch einen zweiten Wirtschaftskreislauf zu verzögern. (Un 256)

Die Unzufriedenheit und das Leid der Custos werden im Roman aber nicht direkt ausgesprochen, sondern vor allem über deren Institutionen transportiert. So tritt die Liga für Roboterrechte für »eine Gleichberechtigung für intelligente, selbstbestimmte Roboter« ein und verteidigt deren »eigene Evolution […,] ihre eigene Geschichte und Kultur« (Un 334). Zu dieser kulturellen Entwicklung gehört auch, dass Roboter sich eine rote Elf als Symbol aneignen, um »Stolz auf ihr digitales Erbe« (Un 256) auszudrücken und damit eine soziale Identität zu generieren. Der Konflikt mit den Menschen ist also keineswegs gelöst, sondern weitet sich vielmehr aus, wie auch die häufiger werdenden Terroranschläge gegen Roboter verdeutlichen.

Die Custos repräsentieren am deutlichsten eine Posthumanität, die jenseits des menschlichen Erfahrungshorizonts liegt, eine »neue Spezies […,] die uns jetzt schon überlegen ist« (Un 354), wie Samsons Mutter Anna es ausdrückt. Eine Spezies, die nicht natürlich sterben kann und damit die Menschen evolutionär ersetzen wird: »Erst übernehmen die Roboter unsere Arbeit, dann die Organisation unseres Staates und am Ende unser Leben. Die Menschen haben sich selbst überflüssig gemacht. In ein-, zweihundert Jahren werden wir einfach verschwinden« (Un 354). Hier kommt eindeutig eine Position zum Ausdruck, die eine gesellschaftliche Angst vor einem ›Aufstand‹ der KI artikuliert, auch wenn der Aufstand der Custos weniger dramatisch und gewalttätig verläuft als das bekannte Beispiel von Skynet aus THE TERMINATOR, »an AI that attempts to eliminate humanity as soon as it becomes self-aware« (Cave und Dihal 77). Am Ende des Romans, konfrontiert mit den unterschiedlichen Gruppierungen und deren Begehrlichkeiten (Ablehnung jeglicher KI, Integration der Menschen mit KI, Gleichberechtigung von Menschen und reiner KI), entscheidet sich Lila, die mit der Herrschaftsgewalt ausgestattet wurde dazu, keine Seite zu bevorzugen und statt dessen für einen Akt der Tabula Rasa – sie löscht alle Daten, Erinnerungen, Beziehungen und setzt alles Leben auf null. Ob und wie die Menschen danach mit Posthumanität umgehen, bleibt also offen.

Der Konflikt der einzelnen posthumanen Positionen ist in den Romanen spürbar, und das gesellschaftliche Wunsch- und Angstdenken durch unterschiedliche Akteure gut ausdifferenziert dargelegt. Hannig beschreibt die voranschreitende und von uns oftmals unbemerkte Cyborgisierung des Menschen, seine immer stärker werdende Vernetzung mit Technologien, die schleichend Posthumanität produzieren. Linsen und Integration bieten wichtige Potenziale für eine Erweiterung menschlicher Fähigkeiten, aber sie produzieren auch Abhängigkeit und Unfreiheit – beide Positionen sind in den Romanen gut zu erkennen. Noch deutlicher ist die Vielseitigkeit der Diskurse in Bezug auf Roboter und deren Status als Personen spürbar – von den aus Menschen charakterlich abgeleiteten Basilei bis zu den als separater Spezies für Gleichberechtigung kämpfenden Custos – die Romane bieten keine einfache Lösung, kein Einnehmen einer klaren Haltung für oder gegen wahre KI, sondern vermitteln vielmehr eine Bandbreite unterschiedlicher Positionen, an denen wir als Leser*innen uns abarbeiten sollen. In einem solchen Spannungsfeld vermag die SF, unserer Gesellschaft einen Handlungsraum aufzuzeigen und damit deutlich zu machen, welche potenziellen Interaktionen mit künstlicher Intelligenz entstehen. Dabei können Autor*innen die ethischen Herausforderungen im Umgang mit posthumanem Leben bereits vor ihrem Eintreten ausloten und uns so helfen, uns besser auf die Entwicklung vorzubereiten, die mitunter auf uns zukommen werden.

»Ich dachte immer: Was auch passiert, mein Job ist sicher!«

Interview mit Theresa Hanning über Automatisierung und die Herausforderungen der Zukunft

Lars Schmeink

ZFF: Theresa Hanning, vielleicht fangen wir damit an, was Sie dazu bewogen hat, Science Fiction und speziell über ein gesellschaftliches Zukunftsbild zu schreiben? In den letzten Jahren ist die Utopie bei deutschsprachigen Autor*innen kein sonderlich beliebtes Genre gewesen. Warum also haben Sie es gewählt?

Ich habe Politikwissenschaft studiert, weil ich unbedingt wissen wollte, »was die Welt im Innersten zusammenhält«. Am Ende hatte ich viel gelernt, aber die reale Welt war immer noch genauso kompliziert wie vor meinem Studium, und vieles weigerte sich standhaft, durch gängige politische Theorien erklärt zu werden. Ich habe dann versucht, die Ideen und Lösungsansätze, die mich im Studium besonders fasziniert haben, in einer Geschichte umzusetzen. Ich wollte das Konzept von Platons gerechtem Staat, das er in der Politeia entwickelt, auf die heutige Welt übertragen. Um einige technische Probleme zu lösen, habe ich dieses Staatskonzept in die Zukunft, ins Jahr 2052, verlagert. So wurde die »Optimalwohlökonomie« geboren. Es ging mir also nicht darum, innerhalb eines bestimmten Genres zu schreiben, sondern auszuprobieren, wie man politische Ideen umsetzen kann, und das ging nur mit Anleihen aus der Zukunft.

ZFF: In Ihrem ersten Roman, Die Optimierer, geht es darum, dass die Technologie den Menschen immer mehr Entscheidungen abnimmt. Wie gehen Sie mit neuen Medien und Technologie um? Sind Sie eher ein early adopter oder ein resister?

Ich habe da eine Entwicklung durchgemacht. Früher war ich eher ein early adopter, habe mich für technische Neuerungen interessiert, mir neue Geräte, Spiele und Software gekauft und damit experimentiert. Heute sehe ich das alles etwas kritischer. Ich sehe gar nicht ein, warum ich mir alle zwei Jahre ein neues Smartphone kaufen soll, wenn mein altes noch wunderbar funktioniert. Wir sind da in eine Konsumspirale hineingeraten, die aus Gewohnheit Neuerung verlangt, obwohl sie uns keinen nennenswerten Mehrwert bringt. Auch verspüre ich eine starke Abneigung gegen den geradezu religiösen Hype, der Apple-Produkten in den letzten zehn Jahren entgegengebracht wurde. Ich mag den Designansatz nicht, bei dem aufgrund vermeintlicher Einfachheit Möglichkeiten und Entscheidungen der Benutzer eingeschränkt werden.

Mittlerweile lässt mich vor allem der Datenschutz-Aspekt neuen Technologien gegenüber vorsichtig sein. Sprachassistenten von Google, Apple oder Amazon lehne ich ab, da ich keine ›Wanzen‹ in meiner Umgebung haben möchte, die jedes Gespräch belauschen. Auch versuche ich, mich von Facebook-gebundenen Social-Media-Angeboten fernzuhalten. Erst vor wenigen Wochen habe ich mit großem Bedauern und unter Protest WhatsApp installiert – und zwar nur deshalb, weil die gesellschaftlichen Nachteile, die meine Familie und ich durch das Nichtbenutzen von WhatsApp erlitten haben, nicht mehr hinnehmbar waren. Es ist schon sehr bedenklich, dass etwa ein Viertel der Menschheit4 ein Kommunikationsmittel benutzt, das einer Firma gehört, die damit Unmengen an Geld verdient, während diejenigen, die dabei nicht mitmachen (wollen), von der Kommunikation ausgeschlossen werden.

Andere Technologien, die das Leben der Menschen – hoffentlich – besser machen, begrüße ich sehr. Ich habe zwei Jahre lang für ein Unternehmen gearbeitet, das Solarmodule hergestellt und Solarparks gebaut hat. Danach habe ich das Lichtdesign für eine Firma gemacht, die Induktionslampen als verschleißarme und von der Lichtqualität naturnahe Alternativen zu LEDs angeboten hat. Die Vive [ein VR-System, Anm. d. Red.] zu Hause wartet auf neue VR-Spiele, der 3D-Drucker auf kaputte Plastikteile, die ersetzt werden müssen, und seit ich die neuen Elektroroller ausprobiert habe, bin ich ein absoluter Fan. Inwieweit diese Umwelttechnisch wirklich sinnvoll sind, kann ich nicht beurteilen, aber es ist schon erstaunlich, dass sich viele Großstädter über die neuen überall herumstehenden Roller echauffieren, während die daneben parkenden tonnenschweren SUVs klaglos hingenommen werden.

Also, es kommt auf die Art der Technologie an. Überwachung lehne ich in jeglicher Form ab – neue Entwicklungen, die uns helfen Mobilität und Klimaschutz zu verbinden, finde ich klasse.

ZFF: In Die Optimierer übernehmen die Roboter, also sehr menschlich aussehende Androiden – die Basilei –, immer mehr Aufgaben in der Gesellschaft. Sie beschreiben bei vielen dieser Aufgaben, dass ein Roboter den Job macht, weil etwa die frühen Arbeitszeiten oder widrige Verhältnisse dazu geführt hätten, dass Menschen dazu keine Lust mehr haben. Glauben Sie, dass wir alle mal unsere Jobs an die Automatisierung verlieren werden? Welche Jobs sind sicher(er)?

Bisher dachte ich immer: »Was auch passiert, mein Job als Schriftstellerin ist sicher!« Und dann habe ich kürzlich einen Text gelesen, der vom neuen GPT-25 geschrieben wurde: Es geht dabei um Einhörner und wie sie entdeckt wurden. Der Text ist nicht nur grammatikalisch (weitestgehend) korrekt. Er ist logisch, interessant und witzig! Jetzt frage ich mich schon, was für Geschichten wir in den kommenden zehn, zwanzig oder dreißig Jahren lesen werden.

Dass wir früher oder später eine ganze Menge Jobs an die Automatisierung bzw. Künstliche Intelligenz verlieren werden, ist, denke ich, unstrittig. Alles, was gemacht werden kann – und Profite verspricht – wird auch gemacht. Die Entwicklung ist nicht aufzuhalten, aber wir als Gesellschaft müssen uns Gedanken machen, wie wir damit umgehen wollen. Es hat keinen Sinn, das jetzige Sozialsystem, das die Vollbeschäftigung idealisiert, aufrechtzuerhalten, wenn es wesentlich günstiger und effizienter ist, Roboter statt Menschen arbeiten zu lassen. Auf lange Sicht wird es normal sein, dass ein großer Teil der Bevölkerung nicht oder nur wenig arbeitet. Um den sozialen Frieden zu erhalten und die durch Roboter erwirtschafteten Gewinne gerecht aufzuteilen, kommen wir daher meiner Meinung nach nicht um ein bedingungsloses Grundeinkommen herum.

ZFF: Ihr zweiter Roman, Die Unvollkommenen, beschreibt die Welt fünf Jahre nach der Handlung des ersten Romans. Roboter sind überall und bestimmen den Alltag der Menschen. Es gibt aber auch die Integrierten: Menschen, die sich mit Technologie vernetzt haben und zu Cyborgs geworden sind. Sie beziehen sich hier auf Konzepte aus dem Trans- bzw. Posthumanismus. Wie sehen Sie die Zukunft des Menschen im Verhältnis zur Technologie?

Im Grund sind wir ja jetzt schon Cyborgs. In dem Augenblick, in dem wir mit dem Handy oder dem Computer arbeiten oder Informationen aus dem Internet abrufen, erweitern wir unsere Fähigkeiten und unsere Speicherkapazität. Der limitierende Faktor ist im Augenblick die enorm geringe Bandbreite von zehn Fingern am PC oder gar nur zwei Daumen am Smartphone. Wenn ich jetzt nicht mehr tippen, sondern einen Text nur noch denken müsste, damit er erscheint, wäre das im Grunde nur eine Beschleunigung, aber keine prinzipielle Änderung dessen, was wir bereits schon tun. Der große Wendepunkt ist dann erreicht, wenn wir tatsächlich unser Empfinden oder Bewusstsein erweitern oder übertragen könnten. Das würde alles ändern. Dann würden wir vielleicht irgendwann eine Spezies werden, die nur noch digital lebt, mit künstlicher Intelligenz verschmilzt und etwas vollkommen Neues kreiert.

Wahrscheinlicher und mittelfristig noch miterlebbar scheint mir allerdings die Entwicklung von technischen Verbesserungen, die bisher nur als Prothesen gedacht waren. Also Hörgeräte, die nicht nur das natürliche Hören ersetzen, sondern zusätzliche Fähigkeiten bieten, wie z. B. ein größeres Frequenzspektrum. Das Gleiche bei künstlichen Augen, die auch Infrarotsehen ermöglichen könnten. Es gibt ja bereits jetzt Menschen, die sich aus Spaß Sensoren oder RFID-Chips in die Finger implantieren lassen, um damit herumzuexperimentieren. Das alles sind noch Spielereien, aber wenn ich in dreißig Jahren gefragt werde, ob ich bei der Knie-OP ein normales Knie oder ein Superspezialknie mit zusätzlicher Rotationsfunktion haben möchte, entscheide ich mich wahrscheinlich für das Premium-Modell. Da die Entwicklung aber so schleichend voranschreitet, wird das zu diesem Zeitpunkt dann genauso wenig als Science Fiction oder Cyborgisierung wahrgenommen werden, wie wenn ich mir jetzt einen Herzschrittmacher unter die Haut setzen lassen würde.

ZFF: Ein ganz wichtiges Konzept im Roman ist das ›Reine Land‹, ein Upload für das Bewusstsein, der Menschen ewiges Leben im Paradies verspricht. Sie scheinen aber, wie die Fokalisierung auf Lila verrät, nicht von dieser Lösung überzeugt. Dabei wird der Upload von Transhumanisten wie Ray Kurzweil schon lange propagiert und auch Cory Doctorow, in seinem Roman Walkaway (2017), oder die TV-Serie CAPRICA (CA/US 2010) haben sehr ähnliche Unsterblichkeitskonzepte aufgezeigt. Was ist das Problem mit dem Upload? Wäre das nicht auch die Lösung für unsere ökologischen Probleme – digitale Menschen verbrauchen ja weniger Ressourcen, oder?

Der erste Kontakt, den ich mit dieser Art von Ideen hatte, war, als ich als Teenager die Geschichte »William und Mary« von Roald Dahl gelesen habe, in der das Gehirn des verstorbenen William samt einem Auge weiterlebt. Dieses Bild vom ›Gehirn im Glas‹ hat mich nachhaltig beeindruckt. Das Leben ist eine großartige Sache – die wenigsten wollen jemals darauf verzichten –, aber es ist andererseits auch ein beruhigender Gedanke, dass alles am Ende nicht schlimmer kommen kann als der eigene Tod. Wenn wir uns aber die Möglichkeit des ›Gehirns im Glas‹ oder eines Bewusstseinsuploads vorstellen, dann ist diese letzte Gewissheit plötzlich null und nichtig. Ich finde die Vorstellung, nicht mehr über das, was nur meins ist – mein Geist, mein Empfinden, meine Seele –, bestimmen zu können, extrem beängstigend. Deshalb würde ich mein Gehirn auch nicht in irgendeine Art des digitalen Bewusstseins umwandeln wollen. (Fragt mich in fünfzig Jahren noch mal, vielleicht ändere ich meine Meinung, wenn das Ende unmittelbar bevorsteht!) In diesem Sinne finde ich auch paradiesische Jenseitsvorstellungen unheimlich – einen Notausgang sollte es auch im Himmel geben. Ich hätte aber nichts dagegen, als Mensch, so wie ich bin, in Gesundheit und mit guter Laune einige hundert Jahre alt zu werden. Dass so eine Entwicklung für unseren Planeten, seine Ressourcen und unsere Gesellschaft ein riesen Problem wäre, davon können wir ausgehen.

Ich möchte zur Erklärung des ›Reinen Landes‹ noch eine weitere Information hinzufügen, weil es bisher, in Rezensionen und Diskussionen, immer nur im christlichen Kontext gesehen wurde. Tatsächlich handelt es sich aber um ein buddhistisches Konzept. Im Amitabha-Buddhismus existiert die Vorstellung, dass ein erleuchteter Mensch, der eigentlich ins Nirwana fortschreiten könnte, stattdessen zum Amitabha-Buddha wird. Als solcher erschafft er dann das ›Reine Land‹ als eine Art Zwischenstufe zum Nirwana. Dort können andere Menschen, die im normalen Leben nicht zur Erleuchtung gelangen, ihre Seele in Ruhe auf den letzten Schritt vorbereiten. Mich hat diese Form des Erlösungswartezimmers sehr beeindruckt.

ZFF: Ihre Roboterbaureihe heißt im ersten Band noch Basileus (also Herrschende) und dann im zweiten Custos (also Wächter). Sie beschreiben die Basilei als Versuch, Menschen und Maschinen zu verbinden, der aber scheitert. Hingegen sind die Custos eigene künstliche Lebewesen ohne einen menschlichen Charakterchip als Basis, die jedoch auch Bewusstsein entwickeln. Was steckt hinter diesen Überlegungen und Abstufungen?

Die Roboter, ihre Bezeichnungen und Fähigkeiten – das alles ist an die Politeia von Platon angelehnt. Es gibt die Basilei – die Philosophenherrscher –, superintelligente Roboter, die nur das Beste für die Menschheit wollen und sie daher, gegen ihren Willen bzw. ohne sie zu fragen, beherrschen. Aber um zu wissen, was das Beste für die Menschen ist, müssen sie selber zum Teil menschlich sein. Deshalb besitzen sie als Basis einen menschlichen Charakterchip, der ihr Bewusstsein, ihre Individualität und ihre Erinnerungen als Menschen enthält. Die Basilei wissen, dass sie als Hybridwesen eingeschränkt sind und eine Vielzahl und eine Vielfalt von Robotern benötigen, um der Menschheit adäquat zu dienen – deshalb sind sie auch an Samson interessiert, da er alle Facetten und Schwachstellen des Systems kennengelernt hat und ihnen helfen kann, es zu verbessern.

Die Custos-Roboter werden später von der Liga für Roboterrechte und der ihr zugehörigen Firma Prometheus Ltd. hergestellt, weil Samson den Schwarm der Basilei erst dominiert und dann zerstört hat. Um zu überleben, müssen sich die Roboter von den Menschen – und Samson – unabhängig machen und für ihre Rechte kämpfen. Der Name Custos bezieht sich hier wieder auf die Wächter in der Politeia. Sie sind besitzlos, das heißt, sie leben und arbeiten zum Wohl aller und sind gleichzeitig nicht auf Lohn oder Status angewiesen. Sie sind die Kämpfer, die sich durch Mut und Tapferkeit auszeichnen, was am Ende auch erklärt, warum sie sich, im Gegensatz zu den Basilei, die ja mehr auf Vernunft und Überzeugungskraft gesetzt haben, gegen Samson und die integrierten Menschen wenden, sobald Samson sie nicht mehr aufhält.

ZFF: Es gibt einige Stellen in Ihren Büchern, da erschaffen Sie neue Worte, um ein bestimmtes Konzept auszudrücken. Neben derOptimalwohlökonomiesprechen Sie statt von Mord, Tötung oder Abschaltung vomVerlebenvon Robotern. Und Sie benutzen den Begriff desdigitalen Menschenanstatt KI oder Androiden. Da steckt ja eine Beeinflussung hinter. Wie wichtig ist Ihrer Meinung nach Sprache in der gesellschaftlichen Anpassung an neue Technologien oder Konzepte? Sehen Sie es als wichtig an, dass wir neue Konzepte entwickeln, um unser Verhältnis zu künstlichem Leben zu beschreiben? Welche Rolle kommt Schriftsteller*innen dabei zu?

Ich glaube sehr an den berühmten Spruch von Edward George Bulwer-Lytton: »Die Feder ist mächtiger als das Schwert«. Denn egal, wie viel Macht ein Herrscher, eine Gruppe oder ein Staat heute hat, in hundert Jahren lebt niemand mehr, der davon persönlich betroffen ist. Den größeren Einfluss auf zukünftige Generationen haben Berichte und Geschichten, die geschrieben werden. Unsere Taten haben einen recht überschaubaren direkten Wirkungskreis. Aber Ideen und Geschichten können Jahrtausende überdauern und die ganze Welt umspannen. Yuval Noah Harari hat das in seinem Buch Eine kurze Geschichte der Menschheit von einem weiteren Punkt aus beleuchtet: Wenn wir uns ansehen, was uns Menschen von den Tieren unterscheidet – Intellekt? Emotion? Sprache? Werkzeugnutzung? –, dann bleibt am Ende nicht viel übrig außer: die Fähigkeit, abstrakte Ideen und Konzepte – kurz: Geschichten – unabhängig von der Realität zu konstruieren und so gruppenübergreifende Kooperation zu ermöglichen.

Vor diesem Hintergrund: Ja, Sprache ist sehr mächtig! Ohne Sprache können wir gar nicht abstrakt denken. Und es macht einen enormen Unterschied, ob ich über die ›Klimakatastrophe‹ nachdenke oder über den ›Klimaschwindel‹. Es geht sogar so weit, dass eine Sozialisierung mit bestimmten Begriffen bestimmte Denkmuster überhaupt erst (un)möglich macht.

Diese Art von Framing benutze ich auch in meinen Geschichten. In meiner Bundesrepublik Europa gibt es nicht einfach nur Gesetze – es gibt die ›Guten Gesetze‹. Wenn also jemand sagen würde: »Die Guten Gesetze sind schlecht«, würde dieser Satz von vornherein keinen Sinn machen. Auch das Wort ›verleben‹ soll andeuten, dass an den Robotern mehr ist als nur superfortschrittliche Technologie. Das Epigraph am Anfang meines Romans deutet schon darauf hin: Die Chat-KI antwortet auf die Frage, »what is the purpose of living?« mit »to live forever«. Man könnte ihr bzw. den Texten, mit denen sie trainiert wurde also die Ansicht unterstellen, dass Sterben schlecht und Leben vorzuziehen sei. Interessanterweise antwortet sie auf die Frage »what is the purpose of life?« mit »to serve the greater good«, womit wir wieder bei Platon wären.

Zum Thema ›biologische‹ bzw. ›digitale‹ Menschen: In den Romanen wird seitens der Roboter nicht mehr zwischen Menschen und Robotern, sondern nur noch zwischen biologischen und digitalen Menschen unterschieden. So kommt den Custos-Robotern automatisch Personenstatus mit allen damit einhergehenden Menschenrechten zu. Im echten Leben sind wir noch weit davon entfernt, Roboter zu schaffen, die wirklich Personenstatus haben. Tatsächlich sollten wir genau das vermeiden! Mit künstlicher Intelligenz können wir sicherlich Großartiges erreichen. Aber wir sollten uns davor hüten, wirklich menschenähnliche Wesen zu schaffen: Wesen, die fühlen und leiden können! Denn es gibt auf der Erde bereits eine ganze Menge solch empfindsamer nichtmenschlicher Wesen: Tiere. Und wir sind schrecklich zu ihnen. Es wäre also jeder zukünftigen KI zu wünschen, keine Leidensfähigkeit zu besitzen, denn die Menschen werden alles mit ihr ausprobieren, was möglich ist.

Ich sehe uns Künstler*innen in diesem Zusammenhang in der Verantwortung, ein Bewusstsein für diese Probleme zu schaffen. Wir können mit unseren Ideen die technische Entwicklung inspirieren und die Denkmuster für Akzeptanz oder Ablehnung beeinflussen. Deshalb bin ich ein großer Fan davon, Geschichten so divers und vielfältig wie möglich zu erzählen, damit wir nicht immer wieder den gleichen Brei wiedergekäut bekommen, sondern die Möglichkeit haben, Perspektiven einzunehmen, von denen wir qua Geburt, Alter, Sozialisierung, etc. ausgeschlossen sind.

ZFF: In einem Abschnitt lassen Sie einen Custos Shakespeares Shylock zitieren, wobei er die Frage, ob Juden und Christen gleich sind, zu einer Feststellung macht und auf digitale und biologische Menschen umdeutet. Warum haben Sie diesen Vergleich gewählt? Und welche Bedeutung wird Ihrer Meinung nach unsere Tendenz zu Vorurteilen und Diskriminierung im Umgang mit künstlichem Leben haben?

Ja, dieser Absatz hat mich selber sehr eingenommen, weil er die verschiedenen Konfliktlinien in der Gesellschaft der Optimalwohlökonomie auf den Punkt bringt: Lila, eine vollkommen Integrierte, steht vor der Tür der nicht-integrierten Anna Freitag, die Lila offensichtlich nicht hereinlassen will. Ein Roboter, der Anna – angeblich – bewachen soll und integrierte Menschen ablehnt, erkennbar an der roten Elf, wird von Samson gezwungen, Lila ins Haus zu lassen. Dabei macht er keinen Hehl daraus, dass er Lila und alle anderen ›Unvollkommenen‹ nicht besonders schätzt. Und trotzdem muss er gehorchen. Jedenfalls so lange Samson noch an der Macht ist.

Und da kommt Shylock ins Spiel: Shakespeare stellt Shylock als rachsüchtigen, mitleidlosen Wucherer dar, ausgestattet mit allen negativen Eigenschaften, die der Antisemitismus auch heutzutage noch zu bieten hat. Dabei ist das Verhalten der anderen Figuren Shylock gegenüber nach heutiger Lesart unerträglich. Er wird verachtet, verspottet und am Ende durch juristische Tricks um seine Rache und seinen Besitz gebracht. Natürlich will Shylock Antonio umbringen, aber das ist angesichts der Behandlung, die er durch die venezianische Gesellschaft erfahren hat, auch durchaus nachvollziehbar. Shylocks Frage nach der Gleichheit ist am Ende auch seine Rechtfertigung für die Rache:

Er hat mich beschimpft, mir ’ne halbe Million gehindert; meinen Verlust belacht, meinen Gewinn bespottet, mein Volk geschmäht, meinen Handel gekreuzt, meine Freunde verleitet, meine Feinde gehetzt. Und was hat er für Grund! Ich bin ein Jude. Hat nicht ein Jude Augen? Hat nicht ein Jude Hände, Gliedmaßen, Werkzeuge, Sinne, Neigungen, Leidenschaften? Mit derselben Speise genährt, mit denselben Waffen verletzt, denselben Krankheiten unterworfen, mit denselben Mitteln geheilt, gewärmt und gekältet von eben dem Winter und Sommer als ein Christ? Wenn ihr uns stecht, bluten wir nicht? Wenn ihr uns kitzelt, lachen wir nicht? Wenn ihr uns vergiftet, sterben wir nicht? Und wenn ihr uns beleidigt, sollen wir uns nicht rächen? Sind wir euch in allen Dingen ähnlich, so wollen wir’s euch auch darin gleich tun. Wenn ein Jude einen Christen beleidigt, was ist seine Demut? Rache. Wenn ein Christ einen Juden beleidigt, was muß seine Geduld sein nach christlichem Vorbild? Nu, Rache. Die Bosheit, die ihr mich lehrt, die will ich ausüben, und es muß schlimm hergehen, oder ich will es meinen Meistern zuvortun.

(Der Kaufmann von Venedig, Akt 3, Szene 1, Übersetzung von Jens Roselt)

Shakespeare bringt die Frage nach der Gleichheit und das Recht auf Rache wunderbar auf den Punkt. In Die Unvollkommenen drehe ich die Frage zu einer Aussage, um das gesellschaftliche Gefälle zu dokumentieren.

Keine Sorge, Frau Richter. Ich bin wirklich ein Roboter. Eine Maschine. Wie die meisten Bewohner von Hornstein. Wenn ihr uns stecht, bluten wir nicht. Wenn ihr uns kitzelt, lachen wir nicht. Wenn ihr uns vergiftet, sterben wir nicht. Und wenn ihr uns beleidigt, sollen wir uns nicht rächen. Wir sind euch in allen Dingen ähnlich, aber niemals gleich. (203)

Roboter sind keine Menschen, sondern Maschinen. Sie können nicht verletzt werden, weder körperlich – bluten, kitzeln, vergiften – noch emotional. Doch schon hier wird die vermeintliche Differenzierung ungenau. Denn es wird nur gesagt, dass sie sich nicht rächen sollen, nicht, dass ihnen Beleidigungen nichts ausmachen. Im nächsten Satz wird dann das Gefälle ins Gegenteil gekehrt: Die Roboter sind den Menschen ähnlich, aber nicht gleich – sondern ›gleicher‹. Tatsächlich halten sich die Roboter selbst für etwas Besseres als die Menschen! Und warum sollten sie nicht?

Jetzt zu unserem Umgang mit Vorurteilen: Das ist eine ganze schwierige Sache, denn bisher bewegen wir uns in einem Spannungsfeld aus Zukunftsangst, ›KI wird die Weltherrschaft an sich reißen‹, und Desinteresse, ›Was soll schon passieren, wenn intelligente Algorithmen meine Daten analysieren?‹ Um die Leute für das Thema KI zu interessieren, muss man also drastische Szenarien bemühen, ohne dabei zu sehr nach Science Fiction zu klingen. Man muss interessant informieren, ohne dabei zu verängstigen. Erfreulicherweise gibt es dafür Spezialisten, wie z. B. Prof. Dr. Katharina Zweig, die an der Uni Kaiserslautern Sozioinformatik lehrt und sich auch damit beschäftigt, wie man den Menschen die KI näherbringen kann. Ich glaube, dass man durch gute und fundierte Informationen Vorurteilen am besten vorbeugen kann. Und schlussendlich ist es ja noch ein weiter Weg, bis wir eine KI erschaffen, die diesen Namen wirklich verdient und zu einer ihrer selbst bewussten Person wird, die dann auch individuelle Rechte genießen müsste.

ZFF: Samson wird im Buch als eine Super-KI dargestellt, autonom, sich ihrer selbst bewusst, vollkommen vernetzt und daher nahezu allwissend. Er argumentiert im Buch sogar, er erfülle alle Kriterien ein Gott zu sein. Wie stehen Sie selbst zur Super-KI und ihren Fähigkeiten und Grenzen? Welche Anteil wird unser Glaube daran haben, wie wir der Super-KI begegnen?

Es gibt von Stanisław Lem die großartige Kurzgeschichte »Die lymphatersche Formel«. Es geht um einen Wissenschaftler, der durch seine Forschungen ein Wesen einer höheren Evolutionsstufe erschafft. Als er erkennt, was er getan hat, vernichtet er vor lauter Schreck das Wesen. Dieses jedoch ist ganz entspannt, weil es weiß, dass, was einmal erschaffen wurde, wieder erschaffen wird. Es ist nur eine Frage der Zeit, bis es erneut erschaffen wird. Es gibt ab jetzt kein Zurück mehr, denn seine Entstehung ist eine evolutionäre Notwendigkeit.

Das Schöne an dieser Geschichte ist, dass sie wahr ist! Die Evolution, die uns Menschen hervorgebracht hat, folgte keinem Plan, war ziemlich unwahrscheinlich und hat uns dabei genau so geschaffen, wie wir jetzt sind. Die Entwicklung von KI ist nicht zufällig, sondern von uns gesteuert. Auch wenn wir noch Jahrhunderte brauchen sollten, um eine echte KI zu schaffen, dann könnte auch der Tag kommen, an dem uns diese KI überlegen ist. Wir können nur hoffen, dass die KI uns dann wohlgesinnt ist oder wir sie wenigstens nicht stören.

Ich als nichtreligiöser Mensch finde die Vorstellung eines (digitalen) Paradieses und daher auch den Glauben an einen Gott, der dieses anbietet, nicht attraktiv. Für Menschen aber, die Gewissheit wollen und gerne ein (digitales) Leben nach dem Tod anstreben, könnte eine Roboterreligion, wie ich sie mit Samson beschrieben habe, durchaus interessant sein. Die Worte, die ich Samson in meinem Roman in den Mund gelegt habe, sind daher ernst gemeint: »Gott geht mit den Menschen einen Vertrag ein. Glaube an mich, bete zu mir und folge meinen Gesetzen, und ich werde dich beizeiten für deine Dienste belohnen. Ein klarer Dienstleistungsvertrag« (285).

So lange wir nicht beweisen können, dass es ein Leben nach dem Tod gibt, wäre für Menschen, die es sich wünschen, die Frage nicht, ob es ein echtes Leben nach dem Tod gibt oder ein digitales, sondern ob es ein digitales Leben nach dem Tod gibt oder keines.

ZFF: Sie beschreiben in den Romanen eine Bundesrepublik Europa, die sich vom Kapitalismus abwendet und zu einer Form von Planwirtschaft zurückkehrt. Das ist nicht in allen Aspekten so, aber es gibt viele Kommunalgüter, es gibt ein Amt, das für die Planung von Arbeit und den Wert der Bürger*in zuständig ist, etc. Das klingt nach Sozialismus, »Jeder an seinen Platz«, gepaart mit Technokratie. Wie sehen Sie das?

Dem Kapitalismus wurde ja schon oft der Tod prophezeit. Ich glaube aber, dass wir diesmal tatsächlich in der Endphase angekommen sind. Die Klimakatastrophe, das Artensterben, die Überhand nehmende Vermüllung zeigen uns, dass wir einen katastrophalen Weg eingeschlagen haben, der uns selbst vernichten wird, wenn wir nicht die Notbremse ziehen. Ich hoffe darauf, dass die Menschen bald weltweit zu Tausenden, zu Millionen auf die Straße gehen und einen Politikwechsel fordern, der uns wegführt vom ›Globitalismus‹ und hin zu einer nachhaltigen Kreislaufwirtschaft, die keinem geringeren Ziel als dem Überleben der Menschheit dient.

ZFF: Und als Abschluss – was ist Ihre Erfahrung als Autorin auf Lesungen: Wie gehen die Menschen mit Ihren Ideen um?

Es macht mir immer großen Spaß, auf Lesetour zu gehen. Besonders gerne lese ich an Schulen. Die Optimierer passt gut in den Deutschunterricht der 10. oder 11. Klassen und so komme ich in Kontakt mit Jugendlichen, mit denen ich im Normalleben keine Überschneidungspunkte hätte. Einige dieser Jugendlichen sind durchaus aufgeklärt, was die Probleme von Big Data und Überwachung betrifft. Andere empfinden nur ein vages Gefühl der Bedrohung. Ich versuche dann, mit ihnen über konkrete aktuelle Gesetzesänderungen oder politische Entwicklungen zu sprechen und hoffe, damit ein noch tieferes Verständnis für die Mechanismen des Profiling und den Wert ihrer eigenen Daten zu wecken. Ich ermutige die Schüler*innen auch immer, sich aktiv politisch zu beteiligen und nicht dem ›ewigen eh‹, wie ich es nenne, anheimzufallen: »Ich kann doch eh nichts ändern, es hat doch eh keinen Zweck, das war doch eh schon immer so.« Nein, diese jungen Leute sind unsere Zukunft und ihre Stimme, ihr Wille wird die Politik bestimmen. Jede einzelne Stimme zählt! Was eine einzelne Person ausrichten kann sehen wir im Moment an Greta Thunberg. Man stelle sich mal vor, es gäbe nicht nur eine, sondern zehn Millionen Gretas. Dann sähe die Welt schon heute ganz anders aus!

Notes

  1. Diese Arbeit ist im Rahmen des durch das Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts »FutureWork: Arbeit im Übergang zum 22. Jahrhundert« entstanden (Förderangabe: 02L18A510/02L18A511). [^]
  2. Im Rahmen dieses Textes ist eine historische wie philosophische Aufschlüsselung der Konzepte des Trans- und Posthumanismus nicht zu leisten. Für eine erste Übersicht, sieheSchmeink 39–46; Für ausführliche Abhandlungen, siehe Hayles; Braidotti; Nayar. [^]
  3. Im Folgenden sind die Romane in Kurzform zitiert: Die Optimierer als Opt und Die Unvollkommenen als Un. [^]
  4. de.statista.com/statistik/daten/studie/285230/umfrage/aktive-nutzer-von-whatsapp-weltweit/. [^]
  5. openai.com/blog/better-language-models/. [^]

Autor

Dr. Lars Schmeink ist Projektleiter im Unterprojekt »Science Fiction« des BMBF-geförderten »FutureWork«-Netzwerks und arbeitet im Bereich Digitalisierung an der HafenCity Universität Hamburg. Er war Vorsitzender der Gesellschaft für Fantastikforschung von 2010–2019. Seine wichtigsten Veröffentlichungen sind Biopunk Dystopias (2016), Cyberpunk and Visual Culture (Hg., 2018), The Routledge Companion to Cyberpunk Culture (Hg., 2020).

Konkurrierende Interessen

Der Autor hat keine konkurrierenden Interessen zu erklären.

References

Filmografie

METROPOLIS. Regie: Fritz Lang. DE 1927.

THE TERMINATOR. Regie: James Cameron. US 1984.

TRANSCENDENCE. Regie: Wally Pfister. US 2014.

References

Zitierte Werke

Braidotti, Rosi. The Posthuman. Polity, 2013.

Čapek, Karel W.U.R. – Werstands universal Robot. [R.U.R. – Rossum’s Universal Robots]. 1920. Übers. von Otto Pick. Holzinger, 2017.

Cave, Stephen und Kanta Dihal. »Hopes and Fears for Intelligent Machines in Fiction and Reality.« Nature Machine Intelligence, 1 ( 2019): 74–78. DOI: [doi: 10.1038/s42256-019-0020-9].

Drum, Kevin. »Welcome, Robot Overlords. Please Don’t Fire Us?« Mother Jones 5 ( 2013), motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-automation/.

Hannig, Theresa. Die Optimierer. Bastei Lübbe, 2017.

Hannig, Theresa. Die Unvollkommenen. Bastei Lübbe, 2019.

Hayles, N. Katherine. How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. U of Chicago P, 1999. DOI: [doi: 10.7208/chicago/9780226321394.001.0001].

Moravec, Hans. Mind Children: The Future of Robot and Human Intelligence. Harvard UP, 1988.

Nayar, Pramod K. Posthumanism. Polity, 2014.

Schmeink, Lars. Biopunk Dystopias: Genetic Engineering, Society and Science Fiction. Liverpool UP, 2016. DOI: [doi: 10.26530/OAPEN_626391].

Sterling, Bruce. Preface. Mirrorshades: The Cyberpunk Anthology. Ace, 1986. ix–xvi.

Zuboff, Shoshana. »Surveillance Capitalism – Überwachungskapitalismus« Aus Politik und Zeitgeschichte: Zeitschrift der Bundeszentrale für politische Bildung 69.24–26 ( 2019): 4–9.