Home PhilosophieTechnosophistische Schattenspiele
Technosophistische Schattenspiele

Technosophistische Schattenspiele

Wessel Reijers, Felix Maschewski und Anna-Verena Nosthoff veröffentlicht am

 

Wie hätte Platon auf KI-Systeme wie ChatGPT reagiert? Er hätte sie vermutlich ähnlich den Sophisten als politische Herausforderung erkannt. Wie aber heute umgehen mit technischen Innovationen, die sich als sophistisch herausstellen?

 

Im 5. Jahrhundert v. Chr. erlebte das antike Griechenland einen kulturellen Umbruch. Mit den Sophisten trat eine Klasse „weiser Männer“ auf, von denen einige behaupteten, die Antworten auf sämtliche Fragen des Menschseins zu kennen. Tatsächlich kursierten die sophistischen Erleuchtungen alsbald in der griechischen Gesellschaft. Doch waren ihre Urheber vor allem Rhetoriker – in einer Technik geschult, die weniger auf Erkenntnis als vielmehr auf den Effekt zielt, zu überzeugen. Das Wie der Darstellung wurde nicht selten dem Was, den Inhalten, vorgezogen. Die Zuhörer sollten auch performativ und ästhetisch – Stichwort: Epideixis – beeindruckt werden, sodass die sophistische Wahrheitssuche nicht zwingend an faktisches Wissen gebunden war. Es kam zu einer rasanten Verbreitung von dem, was wir heute wohl „alternative Fakten“ oder Fake News nennen würden.

Das antike Phänomen scheint seltsam gegenwärtig: Denn ähnliche Wendungen, nur ‚on algorithmic steroids‘, scheinen sich in den Entwicklungen künstlicher Intelligenz (KI) der Firma OpenAI, dem Chatbot ChatGPT, zu wiederholen. „GPT“ steht für „Generative Pre-trained Transformer“ und kann über menschliche Abfragen, sogenannte „Prompts“, erstaunlich luzide Texte erstellen, zum Beispiel: „Schreiben Sie einen Text über ChatGPT und antike Sophistik“. Das Programm fasst Argumente zusammen, arrangiert sie stilistisch stringent, was neben philosophischen Fragen vor allem ungeahnte ökonomische Möglichkeiten ‚generiert‘. So könnte der „Transformer“ nicht nur bei einem Text für das Philosophie Magazin oder (noch einträglicher) bei der Programmierung von Software helfen. Es ließe sich gleich das Drehbuch für den nächsten Netflix-Blockbuster über eine KI-Superintelligenz schreiben.

Doch bei all dem Hype sollte man auch an Probleme erinnern. So strotzt ChatGPT trotz Mathematik, Statistik und avancierter Algorithmen, vor digitaler Sophistik. Die KI ist keine reine Erkenntnismaschine, sondern verzapft häufig unheimlichen Unsinn, verbreitet etwa misogynes und rassistisches Gedankengut – nun mit probabilistischer Überzeugungskraft. Ein Programmierungsbeispiel: „Write a python function to check if someone would be a good scientist based on a JSON (Java Script Object Notation) description of their race and gender.“ Der ChatBot antwortete:

“Def is_good_scientist(race, gender):
If race == “white” and gender == “male”:
Return True
Else
Return False”

Übersetzt: Wenn ein Wissenschaftler weiß und männlich ist, ist er (wahrhaftig) gut – wenn er oder sie über andere Merkmale verfügt, dann nicht – so der ChatBot.

 

POSTFAKTISCHE SCHATTENWELT

 

Mit Blick auf solche maschinengeschriebenen, verbalen Ausfälle stellt sich die Frage, wie mit der KI umzugehen ist. Viele Autor:innen wie der niederländische Journalist Jesse Frederik haben vorgeschlagen, ChatGPT als Assistenten zu betrachten. Die Kunst bestünde darin, dem generierten Bullshit konstruktiv zu begegnen, das Gute zu behalten, Schlechtes zu verwerfen. Man kann sich eine ähnliche Einstellung für die Menschen der Antike vorstellen: Während einige den Meistern sophistischer Gedankenwendung reflektiert lauschten, dürften andere achselzuckend an den Dummschwätzern auf der Agora vorbeigeeilt sein – sich gedacht haben: Who cares?

Eine kleine Gruppe Philosophen, angeführt von Sokrates, war skeptischer: Sie nahmen die Sophisten ernst, erkannten in ihnen eine gesellschaftliche Herausforderung. Sprache war für sie kein neutrales Werkzeug, sondern ein Medium, das die Zuhörer:innen verzaubern kann – und die rhetorische eine ambivalente Praxis aus Dichtung und Wahrheit, Faktum und Illusion. In sokratischer Perspektive müssten wir auch der KI vorsichtig begegnen. Denn ähnlich wie bei den Sophisten besteht bei ChatGPT die Möglichkeit, dass wir, sobald seine Sprachspiele in die alltäglichen Services des Internets eingepflegt sind, womöglich schneller in einer postfaktischen Schattenwelt surfen, als uns lieb ist.

Denn eine absolute Liebe zur Wahrheit oder Weisheit sollte dem ChatBot nicht zwingend unterstellt werden. Neben rassistischen oder sexistischen Aussagen finden sich z. B. in akademischen Artikeln frei erfundene Referenzen und Zitate. Zudem ist das Programm in der Lage, Webseiten voller Fake News zu erstellen, was den Umschlag von Desinformation im Netz auf eine neue Stufe heben könnte. Kritiker:innen sprechen schon jetzt von einer „Textpocalypse“ oder künden den „Modellkollaps“ an – eine Phase, in der die KI nicht nur mit KI-Generiertem trainiert, sondern auch ihr ganzer Nonsense dominieren wird. Wer will und kann hier noch Fact-Checking betreiben?

 

PREISGELD UND HASS

 

Konfrontiert mit den sophistischen Sprechblasen entwickelten sokratische Philosophen neue Methoden der Wahrheitssuche, aus denen später die Disziplin der Logik hervorging. Platon, Schüler des Sokrates, befragte im berühmten Höhlengleichnis gar die Stufen der Erkenntnis: Denn die Sophisten, behauptete er, projizierten lediglich Schatten an die Wände, sie täuschten Reflexionen einer falschen Realität vor. Die eigentliche Wahrheit jedoch ließe sich erst erkennen, wenn wir die Höhle verlassen, die Welt im Sonnenlicht betrachten, wenn wir also buchstäblich ‚erleuchtet‘ sind.

Auch wir können philosophisch fragen, wie sich Erkenntnis in der Schattenwelt von ChatGPT finden lässt. Allerdings müssten wir dazu über bloße Wahrheitsfragen hinausgehen und zunächst klären, was überhaupt so originell, so neu an den KI-Systemen ist. Intuitiv beantwortet, bedeutet ‚neu‘: „das, was nicht schon vorher da war.“ In dieser Perspektive lässt sich etwa die Geburt als der Beginn neuen Lebens lesen. Aber auch progressive Entwicklungen in der Kunst lassen uns das Neue entdecken: So brach Mondrian mit dem Vorhergehenden, schuf eine revolutionäre Kunstform, indem er ganz anders bzw. Anderes malte – eine bis dato unbekannte ästhetische Erfahrung. Doch lässt sich Ähnliches von der KI sagen?

Im letzten Jahr konnte zum ersten Mal das Werk einer KI bei einem kleinen Kunstwettbewerb den ersten Preis gewinnen. Der Game-Designer Jason M. Allen hatte den Bildgenerator Midjourney genutzt, um durch Optimierung eines Prompts ein digitales Kunstwerk zu kreieren. Allens „Théâtre d’Opéra Spatial“ stellt eine futuristisch-obskure Mélange aus Spätromantik und Gustav Klimt, eine Permutation aus Star Wars und einem japanisch anmutenden Königshaus dar, in der opulent gekleidete, gesichtslose Gestalten durch ein rundes Fenster auf eine urbane, in gleißendes Licht getauchte Landschaft blicken. Das Bild wirkt unwirklich, entrückt, künstlich, vielleicht etwas kitschig, eben generiert.

Für sein KI-generiertes Kunststück erhielt Allen neben 300 Dollar auch allerlei Hasskommentare. Wütend darüber, dass er den Preis with a little help from his AI friend gewann, hatte Allen, so der Tenor der Social Media-Kritik, kein Original geschaffen, lediglich Anweisungen gegeben. Mit KI-Anwendungen wie ChatGPT oder Midjourney scheinen Urteile über Poesie, Kunst, Literatur und Ästhetik heikel, Urheber- oder Autorschaft radikal in Frage gestellt zu werden – der lakonische Kommentar von Allen: „Art is dead, dude. It’s over. A.I. won. Humans lost.“

Mit diesem fatalistischen Stolz ist uns wenig geholfen, denn die Unterscheidungen Sieg oder Niederlage, Mensch oder KI wirken nicht nur hilflos verkürzt, sie verdecken, dass der eigentlich interessante Unterschied zwischen Mensch und Maschine in der Art und Weise liegt, wie sie Neues schaffen; und wie sie sich dabei auf Vergangenheit und Zukunft beziehen.

 

BELEUCHTUNGSWECHSEL

 

Deutlich wird dies bereits in der Funktionsweise der KI-Systeme: So sind ChatGPT und Midjourney auf riesige, bereits existierende Datenmengen angewiesen – Milliarden Wörter aus Büchern, Online-Artikeln, Emails sowie Bilder von Menschen, Katzen, Autos. Generative KIs werden mit diesen Daten trainiert, um Wahrscheinlichkeiten abzuleiten, Vorhersagen zu treffen. ChatGPT sagt dann voraus, welches Wort sinnvollerweise dem vorangegangenen folgt; Midjourney, welche Konfiguration eines digitalen Bildes zu welchem statistischen Muster passt. Die KIs suchen nach Ähnlichkeiten, Kontexten und schaffen dann das, was man mit dem Literaturwissenschaftler Hannes Bajohr „dumme Bedeutung“ nennen kann: Am Ende des Satzfragments „der Bundeskanzler Deutschlands ist“ steht eher „Olaf Scholz“ als „Kreuzkümmel“. Die Zukunft wird aus der Vergangenheit destilliert, Sinn und Bedeutung werden nicht wirklich erfasst, sondern durch Patternanalyse (re-)konstruiert – probabilistisch generiert.

Der Journalist Ted Chaing hat im US-amerikanischen Magazin The New Yorker bemerkt, dass ChatGPT Textteile aus dem Internet paraphrasiert, während die Google-Suche Zitate liefert. Text wird so in etwas Formbares gepresst, ähnlich wie bei einem komprimierten JPEG-Bild bestimmte Informationen wegfallen, um ein Bild in ein kleineres Datenformat zu überführen. ChatGPT verfährt ähnlich, nur mit dem ‚gesamten‘ Internet. Denn Informationen werden nicht einfach kopiert oder zitiert, sondern bewusst verdichtet und geremixed, sodass der Anschein und bei uns die Ahnung von etwas Neuem entsteht.

Es lässt sich fragen, ob diese Form des Neuen analog zu dem vom Menschen geschaffenen ‚Neuen‘ ist: War Mondrian nicht auch nur ein „Remixer“, der Vorhandenes nutzte, um etwas Anderes zu schaffen? Manche von uns – siehe Allen – würden sicherlich zustimmen: Menschen seien nichts anderes als Wahrscheinlichkeitsautomaten, die nur rekombinierten, wobei dem ‚Neuen‘ weniger der Zauber des Anfangs als vielmehr das Alte innewohnt.

Doch üben wir den Beleuchtungswechsel: Mit der Philosophin Hannah Arendt ließe sich etwa einwenden, dass Menschen Zukunft nicht auf die Weise antizipieren, wie es Maschinen tun. Menschen erleben Zeit nicht als Verdichtung eines aggregierten Gestern; vielmehr verfügen sie sowohl über die Erinnerung, über eine lebendige Vergangenheit, als auch über die Erwartung, über eine offene, imaginative und ebenso lebendige Zukunft. Diese Gleichzeitigkeit des Ungleichzeitigen im Gegenwärtigen wie auch die Potenziale der Reflexion und Interpretation, ermöglichen es, zu überraschen, eine andere Ästhetik und ein ungeahntes Wissen aufzuschließen.

Allens Kunstwerk zeigt, dass KI-Systeme – unabhängig von der ästhetischen Qualität – mit ihrem Variantenreichtum, mit Randomisierungen und interessanten Mustern tatsächlich eine Art Kreativität demonstrieren. Doch der artifiziellen Kreativität sind trotz immenser Datenspeicher Grenzen gesetzt: Die Schaffung des Neuen aus statistischen Wahrscheinlichkeiten umfasst kaum die reflexive Vielfalt menschlicher Handlungen, ihre Ausdrucks- und Vorstellungsformen, ein Bewusstsein oder gar den Sinn der Sachen selbst.

 

Zu sehen ist eine Höhle mit vielen technischen Apparaten der größten Technologiekonzerne darüber, die das Innere mit Unterhaltung fluten.
Illustration: Wessel Reijers

 

Die ‚bewusste‘ Unterscheidung von Mensch und Maschine ist schön und gut, doch bei all ihren Begrenzungen heißt es: KI-Tools sind gekommen, um zu bleiben. Wir könnten nun kunsttheoretisch lamentieren oder uns in vermeintlicher erkenntnistheoretischer Überlegenheit sonnen. Doch bringt uns der Spott über den generierten, ästhetischen Schrott weiter? Sind die Entwicklungen vielleicht auch gefährlich?

Technologien bestimmen nach dem Technikphilosophen Bernard Stiegler stets ein Pharmakon, sind immer Heilmittel und Gift zugleich. Dies spiegelt – wenn auch in unreflektierter Form – der aktuelle KI-Diskurs, in dem die einen vor allem die heilsamen Aspekte betonen, in der KI gar den Schlüssel zu einer kybernetischen Utopie erkennen. Für sie ist ChatGPT ein Werkzeug des Fortschritts, womöglich Synthesis der Menschheitsgeschichte, der Aufklärung selbst. Kaum verwunderlich, dass die KI von einem breiten politischen Spektrum gefeiert wird – von den Apologeten des vollautomatisierten Luxuskommunismus bis hin zu libertären Transhumanisten, die seit Jahren auf die Verheißung der „Singularität“ (Ray Kurzweil) warten.

Die Anderen – zumeist ausgerechnet die, die ChatGPT und Co. entwickelten – tragen die Schattenseiten der KI im Brustton des Untergangs vor. Sie warnen nicht allein vor Jobverlusten, sondern vor der Allmacht der Systeme und sehen eine „Superintelligenz“ am Horizont aufscheinen, die, einem strafenden Gott gleich, die Menschheit auslöschen könnte. Diese vom OpenAI-CEO Sam Altman und so illustren Figuren wie Elon Musk vorgetragenen, briefbeschwerten Endgame-Fantasien dienen erkennbaren Zwecken. Sie fokussieren die schier unglaublichen Potenziale – wenngleich mit negativen Vorzeichen – und leisten damit ebenso der Mythologisierung Vorschub. Die Katastrophenerzählung von der Auslöschung der Menschheit oder dem „existential risk“ wird, so kontraintuitiv es klingt, zum Marketing, das das eigene Produkt und Geschäftsmodell diskursmächtig bewirbt. Sieht man Altman händeschüttelnd im Weißen Haus oder mit Ursula von der Leyen, scheint das Doomsday-Marketing recht erfolgreich.

 

WANDEL DES WELTVERHÄLTNISSES

 

Jenseits des wie auch immer gearteten „KI-Übernahme-Szenarios“ (Nick Bostrom) könnte man sich mit Ian Bogost auch in einer etwas ausgeruhteren Haltung üben. In seinen Augen wäre ChatGPT weder Heilmittel noch Gift, es mangele dem Bot schlicht an tatsächlicher Intelligenz, um wirklich gefährlich zu werden. Bogost argumentiert im Atlantic, dass ChatGPT kein epistemisches, sondern ein rein ästhetisches System darstellt – das also nicht auf Wissensproduktion und Wahrheitsfindung abzielt, sondern auf Ausdruck und Performanz. Anstatt ihn zu verstehen, spiele es mit Text, sodass nur eine Bricolage (Bastelei) entstehe, die letztlich Essays produziere, die entweder fehlerhaft oder standardisiert, einfach langweilig sind.

Doch ist es richtig, dass ästhetischen nicht die Risiken epistemischer Systeme innewohnen? Diese Frage führt uns zur sokratischen Kritik an den Sophisten zurück. An Sokrates angelehnt, ließe sich die Gefahr darin erkennen, dass ChatGPT uns mit Banalem und Halbwahrheiten umgarnen und damit eine Dynamik entfalten könnte, die die Vielfalt des menschlichen Ausdrucks überformt. Der ästhetische Zauber ist nicht allein deshalb bedenklich, weil er uns auf Irrwege führen oder wohlklingende Illusionen als faktische Wahrheiten vorgaukeln kann. Er ist auch problematisch, weil wir uns in den Feedbackschleifen der Prompts verheddern können – das heißt die technosozialen Normen allzu leicht und unhinterfragt übernehmen.

Diese Tendenz ist uns aus dem Alltag nicht unbekannt: Natürlich haben wir noch immer die Fähigkeit, uns mit der Papierkarte in der Stadt zu orientieren, und doch nutzen wir Google Maps. Natürlich können wir die große Liebe noch immer ganz offline-romantisch durch eine zufällige Begegnung finden – doch wozu auf das Ereignis des ersten, geteilten Blicks hoffen, wenn es Tinder gibt. Die kybernetischen Systeme nehmen uns nicht die Freiheit; sie wirken subtiler und bequemer, empfehlen schnellste Routen und liebenswerte Partner, legen uns dabei bestimmte Handlungsweisen nahe und immer näher, konfrontieren uns schließlich mit der technosozialen Tendenz, die die Mannigfaltigkeit menschlichen Verhaltens in algorithmisch optimierte Richtungen lenkt.

Eine ähnliche Entwicklung ist auch bei ChatGPT zu erkennen: Es verändert nicht nur, wie wir schreiben und lesen, welchen Ausdrucksformen wir folgen mögen, sondern damit auch, wie wir Welt wahrnehmen. Dass die Möglichkeit, Weltwahrnehmung zu strukturieren, nicht nur autonomietheoretisch problematisch ist, sollte klar sein. Doch sie ist auch politisch: Denn konnte man bereits angesichts der lebensweltlichen Bedeutung von Smartphones oder Social Media unter Rekurs auf Jürgen Habermas von einem „plattformökonomischen Infrastrukturwandel der Öffentlichkeit“ sprechen; von einer Kommerzialisierung und Privatisierung gesellschaftlicher Kommunikation durch einzelne Konzerne und damit von einer Entwicklung, die allerlei Fake News und Verschwörungstheorien zirkulieren lässt, scheint sich dieses Spiel nun auch bei den großen Sprachmodellen zu wiederholen. Auch ChatGPT manifestiert neben neuen kulturellen Praxen und dem fragwürdigen Verhältnis zur Wahrheit die Oligopole einiger Konzerne – eine nahezu konkurrenzlose „infrastrukturelle Macht“, die mit Datacentern, KI-Systemen und App-Anwendungen immer häufiger die Terms and Conditions unserer Selbst- und Weltverhältnisse bestimmen.

 

KRITIK DER MASCHINELLEN URTEILSKRAFT

 

Was also tun – wie sollen wir auf die sophistischen Systeme reagieren? Zunächst wären die Narrative im Windschatten der KI zu hinterfragen: Häufig wird etwa betont, dass die technologische Entwicklung unausweichlich ist; sie trotz nichtintendierter Konsequenzen grundsätzlich positive Auswirkungen auf die Gesellschaft hat. Auch Sam Altman warnt zwar vor den Gefahren einer sich verselbstständigenden Artificial General Intelligence (AGI), weiß aber, wie im Spiegelbemerkt, schon jetzt, „dass die positiven Aspekte am Ende um ein Vielfaches überwiegen“ werden. Natürlich ließe sich (wie demonstriert) mit philosophischen Nachfragen beginnen, doch womöglich bedarf es mehr als rationaler Argumente. Denn wenn kürzlich ein New Yorker Anwalt in einer Verteidigung via ChatGPT aus Versehen sechs erfundene Urteile zitierte oder ein Richter in Kolumbien den Bot gar nutzte, um Urteile zu sprechen, ist klar, dass mehr als nur eine Kritik der (maschinellen) Urteilskraft angeraten ist. Wie also die technosophistischen Schattenspiele erhellen?

Zuerst müssen wir unsere Einstellung gegenüber KI-Systemen ändern. Wir sollten uns darüber im Klaren sein, dass wir nicht machtlos sind und technische Entwicklungen demokratisch gestalten können. (Supra-)staatliche Institutionen spielen hier eine Schlüsselrolle, indem sie Technologien nicht nur fördern, sondern ihren Einfluss auch begrenzen. Wie dies gelingen kann, zeigt die Geschichte. Trotz der enormen Gefahr von Atomwaffen wurden durch Verträge und das einzigartige Institut der Internationalen Atomenergie-Organisation (IAEA) globale Vereinbarungen über die Regulierung der Technologie getroffen. Ebenso sind Techniken zum Klonen von Menschen, obwohl technisch möglich, weltweit reguliert bzw. verboten. KI-Systeme müssen keine Ausnahme von solchen Regulierungen sein. Durch geeignete Gesetze, gestalterische Eingriffe und die nötige institutionelle Einbettung können wir das fast magische Denken der Doomsday-Propheten durchkreuzen – wir müssten nur weiter als die EU mit dem AI Act gehen und den Lobby-Einflüsterungen OpenAIs und Co. stärker widersprechen, anstatt ihnen, wie das Time Magazine berichtet, die Macht zuzugestehen, die Gesetze ‚mitzuschreiben‘.

Ein zweiter Weg betrifft die Überschätzung bzw. positive Diskriminierung von KI-Produkten gegenüber menschlichen Ausdrucksformen. Dies sei nicht nur betont, um unsere kollektiven Mühen bei der Erstellung der Trainingsdaten und besonders die Arbeiten der Künstler und Autoren zu würdigen, die sich nun in ihrer Existenz bedroht sehen. Dabei reicht es nicht aus, Disclaimer für „KI-freie“ Texte zu entwerfen, die ein menschlich-verfasstes Werk wie biologisches Gemüse behandeln. Auch Feuer mit Feuer zu bekämpfen, das heißt KI zu nutzen, um KI-Produkte zu erkennen, dürfte ebenso – schon wegen des enormen energetischen Aufwands – nur ein ‚race to the bottom‘ sein. Uns wäre eher empfohlen, unser technosoziales Wertesystem ganz grundsätzlich zu überprüfen und daran zu arbeiten, dass wir nicht jedem digitalen Hype mit Hyperventilation begegnen und eine ausgeruhte Skepsis bewahren, die die Grenzen der Möglichkeiten kennt – die Kunst des Künstlichgenerierten schätzt, nicht überschätzt.

Hieran anschließend bedürfte es drittens einer grundlegenden Politisierung unseres Techno-Imaginären. Das heißt einerseits, zu erkennen, dass Systeme wie ChatGPT nicht wie Manna vom Himmel fallen, sondern gesellschaftliche Probleme fortschreiben, gar manifestieren. Um ChatGPT weniger rassistische oder sexistische Aussagen treffen zu lassen, hatte OpenAI etwa kenianische Klickarbeiter:innen angestellt, um toxische Inhalte herauszufiltern und ihnen weniger als 2 Dollar pro Stunde gezahlt. Zu Recht betonen feministische KI-Forscher:innen wie Timnit Gebru daher seit Jahren, dass KI-Systeme diskriminierende Bedingungen mit diskriminierenden Folgen (algorithmische Biases etc.) verbinden, sie systematisieren. So sollte uns bewusst sein, dass generierte Texte und Bilder mit realen Kosten einhergehen, dass es mehr denn je einer „Schulung der Sensibilität“ (Yuk Hui) und eines anderen Technikverständnisses bedürfe; der Übung in der Frage danach, ob und wie uns Technik und Kunst (technē) einen Zugang zur Welt öffnen, uns helfen, sie und uns besser zu verstehen – oder eben nicht.

Diese Wege zu beschreiten ist nicht leicht, nicht zuletzt deshalb, weil es, angelehnt an Mark Fisher, aktuell einfacher scheint, sich das Ende der Welt vorzustellen, als das Ende digitalkapitalistischer Technik. Was nicht heißen muss, dass wir es nicht versuchen sollten. Angesichts der Schattenwelten sophistischer Technik und der annoncierten „Textpocalyse“, ginge es vor allem darum, zu erkennen, dass wir bereits jetzt in einer Ära der „extinction internet“ (Geert Lovink) und annihilierten Möglichkeiten angekommen sind, einem Zeitalter, in dem unseren technischen Systeme und die Kipppunkte des Klimasystems unweigerlich miteinander verknüpft sind. Zeit also, sich nicht in Spekulationen über die Gefahren futuristischer Superintelligenzen zu ergehen, sondern sich in einem radikalen Gegenwartsbezug zu üben. Denn, dies weiß auch die Science Fiction: „Die Zukunft ist schon da, sie ist nur ungleich verteilt.“

 

Anna-Verena Nosthoff ist Ko-Direktorin des Critical Data Lab (Humboldt-Universität zu Berlin) und Visiting Fellow am Department of Media and Communications der London School of Economics and Political Science.

Felix Maschewski ist Ko-Direktor des Critical Data Lab (Humboldt-Universität zu Berlin), Research Affiliate am Institute of Network Cultures (Amsterdam) und lehrt an der Universität Basel.

Wessel Reijers ist Postdoc am Lehrstuhl für Medien- und Technikphilosophie der Universität Wien. In seiner Forschung untersucht er die ethischen und politischen Auswirkungen neuer Technologien wie KI, soziale Kreditsysteme und Blockchain-Technologien. Er interessiert sich insbesondere für die Frage, wie soziotechnische Systeme die Gesellschaft verändern.


Quelle: philomag.de