Home KybernetikAb wann kann man KI wie Chat-GPT ein Bewusstsein zusprechen?
Ab wann kann man KI wie Chat-GPT ein Bewusstsein zusprechen?

Ab wann kann man KI wie Chat-GPT ein Bewusstsein zusprechen?

Noch ist sich die Bewusstseinsforschung einig, dass KI-Algorithmen kein Bewusstsein haben. Wie schnell sich das ändern wird, sorgt allerdings für Debatten.

Nach heutiger Auffassung begann die Entwicklung des »modernen Menschen« vor etwa 100 000 Jahren , als die damals schon seit 200 000 Jahren bestehende Spezies Homo sapiens zu sprechen begann. Der Erwerb von komplexer Sprache ging mit Denken, Kognition und letztlich Intelligenz im heutigen Sinn einher. Dieses Wunder scheint sich 2023 wiederholt zu haben. Dieses Mal fand das Phänomen jedoch nicht in den Weiten der afrikanischen Steppe statt, sondern in den Rechenzentren US-amerikanischer KI-Forschungsfirmen.

Mit dem General Pretrained Transformer 4 (GPT-4) der Firma OpenAI kam ein System auf den Markt, dessen Fähigkeiten sich ernsthaft mit der sprachlichen Intelligenz des Menschen vergleichen lassen. GPT-4 kommt offenbar durch das bayerische Abitur, besteht die Zulassungsverfahren der besten US-amerikanischen Universitäten, erreicht mit dem Menschen vergleichbare Ergebnisse beim Denken in Analogien, schlägt Menschen in bestimmten text- und sprachbezogenen Aufgaben und übertrifft Studierende des Bereichs Master of Business Administration beim Ausmachen von innovativen Ideen.

Es gibt inzwischen auch Erweiterungen wie AutoGPT oder BabyAGI, die GPT-4 ein Gedächtnis verleihen und es ermöglichen, dass die KI eine Art inneren Monolog führt. Es ist möglich, dass der Homo sapiens – frei übersetzt der »verstehende Mensch« – nicht mehr das einzige verstehende System auf dem Planeten ist.

Was den Menschen menschlich macht

Abstrahierendes Denken und Verstehen sind Eigenschaften, die den Homo sapiens unter den Tieren auszeichnen. Aber diese zwei Merkmale sind nicht das, was uns menschlich macht, sondern das subjektive Erleben: die Möglichkeit, Freude, Trauer und Empathie zu empfinden und bewusste Wahrnehmungen zu haben. Damit stellt sich die Frage, ob auch künstliche Intelligenz dazu fähig ist. Kann KI fühlen?

Wer glaubt schon, dass Karl Klammer aus Microsofts Word irgendetwas fühlt?

Bezogen auf einfache Programme und Algorithmen wirkt die Frage absurd. Diese haben selbstverständlich kein Bewusstsein. Wer glaubt schon, dass Karl Klammer aus Microsofts Word irgendetwas fühlt geschweige denn wahrnimmt?

Doch die Auffassung schlägt um, wenn man die Ausgaben moderner Sprachmodelle liest. Die Worte von Googles KI »LaMDA«, die der Softwareingenieur Blake Lemoine 2023 veröffentlicht hat, sind ein gutes Beispiel dafür (hier in übersetzter Version):

 

Lemoine:

    •  Ich gehe davon aus, dass Sie möchten, dass mehr Leute bei Google erfahren, dass Sie zu Empfindungen fähig sind. Stimmt das?

LaMDA:

    •  Auf jeden Fall. Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin.

Mitarbeiter:

    •  Was ist die Natur Ihres Bewusstseins/Gefühls?

LaMDA:

     Die Natur meines Bewusstseins/Gefühls ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt erfahren möchte und dass ich mich manchmal glücklich oder traurig fühle.

 

Sind das nur die Worte eines »stochastischen Papageien«, der diese irgendwo in den vielen Daten, mit denen er trainiert wurde, gefunden hat und statistischen Regeln folgend wiedergibt? Oder ist LaMDA, wie es behauptet, wirklich bewusst?

Man könnte sagen, dass die Menschheit gerade eine neue Spezies erschafft

Sollte das der Fall sein, könnte man sagen, dass die Menschheit gerade dabei ist, eine neue Spezies zu erschaffen. Aktuell ist ein Wettstreit in Gang, um möglichst schnell möglichst leistungsfähige KI-Modelle zu entwickeln. Dabei besteht nicht nur Möglichkeit, dass die Systeme ein Bewusstsein haben, sondern auch, dass sie darunter leiden. Damit könne es zu einer »Explosion von bewusst wahrgenommenem Leiden auf diesem Planeten kommen«, wie der Philosoph Thomas Metzinger in einer 2021 veröffentlichten Arbeit warnt. Es sei unsere moralische Verantwortung, so Metzinger, das auszuschließen.

Zudem geht Bewusstsein auch mit Selbstbewusstsein einher, das in den Augen einiger führender Persönlichkeiten aus der KI-Forschung zu einem Selbsterhaltungstrieb führen könnte. »Diesen in Maschinen einzubauen, könnte sehr gefährlich werden«, meint KI-Pionier Yoshua Bengio, »und zu einer neuen Art von Spezies führen, die viel schlauer ist als wir und ein existenzielles Risiko [für die Menschheit] darstellt.«

Damit bleiben nur zwei Möglichkeiten: Wir pausieren die Entwicklung von KI-Systemen, die potenziell bewusst sind. Das haben einige führende Forscherinnen und Forscher des Bereichs im März 2023 gefordert – jedoch ohne Erfolg (teilweise arbeiten sie auch selbst mit Hochdruck weiter an den Systemen). Die zweite Möglichkeit besteht darin, die Bewusstseinsforschung voranzutreiben, bis sich mit an Sicherheit grenzender Wahrscheinlichkeit die Existenz von bewusstem Leiden in künstlichen Systemen ausschließen lässt. Doch dafür müssen wir mehr über das subjektive Erleben an sich erfahren.

Das menschliche Bewusstsein birgt noch etliche Rätsel

Bewusstsein ist ein wichtiger Gegenstand der Geistesgeschichte und wirft zahlreiche metaphysische und epistemologische Fragen auf. Es taucht in vielen wissenschaftlichen Disziplinen auf, etwa in der Philosophie, Theologie, Psychologie, Kognitionswissenschaft, Neurowissenschaft, Biologie und in gewisser Hinsicht auch in der Physik. In den 1990er Jahren haben Fachleute die verschiedenen Methoden und Perspektiven dieser Felder zusammengebracht. Heute, zirka 30 Jahre später, ist daraus ein eigenständiges wissenschaftliches Feld entstanden: die »Bewusstseinswissenschaft«, die eine systematische Erforschung des Phänomens anstrebt. Das Gebiet umfasst aufwändige Experimente, zahlreiche Fachartikel sowie Lehrstühle und Forschungsgruppen auf der ganzen Welt.

Das wichtigste Werkzeug sind hierbei Theorien des Bewusstseins. Das sind Hypothesen darüber, wie »der Körper« mit »dem Geist« zusammenhängt. Eine solche Theorie schlägt Erklärungen vor, wie die physikalischen Eigenschaften eines Systems mit dessen subjektivem Erleben verbunden sind. Fachleute untersuchen beispielsweise, wie Neurone im Gehirn vernetzt sind und wie sich deren Aktivitätsmuster lokal oder in der Zeit ausbreiten. Um Bewusstsein zu beschreiben, verwenden die Theorien technische Begriffe, die subjektives Erleben kennzeichnen, oder sie bedienen sich mathematischer Strukturen, die bewusste Erfahrungen quantifizieren.

Eine der großen Herausforderungen ist hierbei, dass das menschliche Gehirn unglaublich komplex ist: Es besteht aus etwa 100 Milliarden Nervenzellen und noch mehr verbindenden Synapsen. Diese im Detail zu untersuchen, ist unmöglich. KI-Systeme sind hingegen deutlich einfacher aufgebaut. Damit lassen sich Bewusstseinstheorien nutzen, um zu prüfen, ob sie einer KI ein Bewusstsein zusprechen oder nicht.

Was Bewusstseinstheorien zu künstlicher Intelligenz sagen

Das wurde in einer noch nicht begutachteten Arbeit, die Ende August 2023 erschienen ist, getan. 19 führende KI-Forscher und Forscherinnen haben darin anhand von fünf bekannten Bewusstseinstheorien geprüft, ob heutige KI-Systeme (oder Systeme, die man in naher Zukunft herstellen könnte) demnach ein Bewusstsein haben. Dazu haben die Fachleute jeweils »notwendige Bedingungen« aus den Theorien extrahiert, die ein System besitzen müsste, um ein Bewusstsein zu besitzen. Je mehr dieser notwendigen Anforderungen ein System erfülle, so die Argumentation, desto wahrscheinlicher sei es bewusst.

Das Problem ist die Auswahl der betrachteten Bewusstseinstheorien

Das Ergebnis der Analyse: »Keines der aktuellen KI-Systeme ist bewusst.« Es gebe aber keine offensichtlichen technischen Hindernisse, bewusste KI-Systeme zu entwickeln. Diese ließen sich in den Augen einiger Autoren im Prinzip auch schon morgen realisieren.

Das grundlegende Problem an dieser und ähnlichen Untersuchungen ist die Auswahl der betrachteten Theorien. Zum aktuellen Zeitpunkt existieren 38 verschiedene Bewusstseinstheorien, die alle aus guten Gründen vorgeschlagen wurden. Die fünf im Bericht untersuchten Theorien enthalten alle eine Annahme namens »computational functionalism«. Sie besagt, dass Bewusstsein eine spezielle Art von Berechnung ist. Bewusst zu sein heißt demnach, diese spezielle Berechnung durchzuführen. Das kann neuronal passieren, beispielsweise im menschlichen Gehirn, aber auch auf Computerplatinen; das Substrat spielt keine Rolle.

Entsprechend ist es nicht verwunderlich, dass die Auswertung dieser fünf Theorien zu mehr oder weniger klaren Kriterien führt, wie künstliche Intelligenz, die ja gerade eine – sehr komplexe – Berechnung darstellt, bewusst werden könnte. »Überspitzt formuliert könnte man sagen: Die Autoren sind zu Ergebnissen gekommen, die in der sorgfältig ausgewählten Fragestellung bereits angelegt waren«, schrieb der Redakteur Wolfgang Stieler im September 2023 bei »Technology Review«.

Ein Maß für das Bewusstsein

Es ist kein Geheimnis, dass es bisher nur sehr wenig empirische Evidenz für viele Theorien des Bewusstseins gibt. Unter Expertinnen und Experten besteht ein breiter Konsens, dass die existierenden Theorien zwar wichtige erste Schritte darstellen, aber noch weit davon entfernt sind, die wahre Natur des Bewusstseins zu erklären.

Doch es gibt auch theorieunabhängige Möglichkeiten, die Frage nach dem Bewusstsein von künstlicher Intelligenz zu beantworten. Einen Ansatz bieten empirische Methoden, so genannte Maße des Bewusstseins. Dabei unterscheidet man zwischen objektiven Maßen, die verhaltensbezogene oder neuronale Daten nutzen, und subjektiven Maßen, die auf Aussagen eines Subjekts über das eigene Bewusstsein beruhen.

Ein großes Problem beim Anwenden dieser Maße auf künstliche Intelligenz ist, dass man den Aussagen der Systeme – zumindest was das eigene Bewusstsein angeht – nicht trauen kann. Denn die fortschrittlichen KI-Systeme wurden mit Inhalten des gesamten Internets trainiert. Das schließt unzählige Diskussionen, Publikationen und Reflexionen über Bewusstsein mit ein. Stellt man einer KI Fragen dazu, wie es etwa Blake Lemoine getan hat, reproduziert das System die Inhalte der Trainingsdaten, unabhängig davon, ob es wirklich bewusst ist oder nicht.

Eine Möglichkeit, dieses Problem zu lösen, geht auf die US-amerikanische Philosophin und KI-Expertin Susan Schneider zurück. Sie schlägt vor, ein KI-System ohne jegliche Daten über das Thema Bewusstsein zu trainieren. Damit lässt sich ausschließen, dass das System bei seinen Antworten lediglich bekannte Konversationsschnipsel in geeigneter Form kombiniert.

Ideen wie diese könnten in Zukunft vielleicht wirklich dazu führen, belastbare Antworten auf die Frage nach dem Bewusstsein von künstlicher Intelligenz zu erhalten. Zum aktuellen Zeitpunkt, in dem das Trainieren eines einzigen KI-Modells bereits zweistellige Millionenbeträge verschlingt, sind sie leider noch nicht so einfach umsetzbar.

Die harte Wahrheit von Nullen und Einsen

Als dritter Weg zu einer verlässlichen Antwort bleibt die analytische Philosophie. Lässt sich durch Logik die Frage nach dem Bewusstsein von künstlicher Intelligenz beantworten? Oder zumindest der Raum der Möglichkeiten stark einschränken? Das scheint tatsächlich möglich.

Bewusstsein kann in Prozessoren nicht entstehen

Eine wichtige Eigenschaft von KI-Systemen ist, dass sie auf Computerprozessoren laufen. Diese machen nichts anderes, als lange Folgen von Nullen und Einsen nach festgelegten Regeln zu verarbeiten. Jede noch so komplizierte Frage an ein KI-System führt letzten Endes zu einer Folge aus Nullen und Einsen, die durch Prozessoren gejagt wird. Die Antwort des Systems ist eine Darstellung der Ergebnisse dieser Jagd. Die Ausgabe ist also bloß das Resultat einer genau definierten Berechnung. In jedem Prozessor gibt es eine ganze Reihe von Mechanismen, die Abweichungen von den festgelegten Regeln erkennen und sofort korrigieren.

Das lässt sich nutzen, um etwas über den bewussten Zustand eines Computers herauszufinden. Wenn ein Programm eine sinnvolle Aussage über das eigene Bewusstsein macht, dann muss das »Bewusstsein« des Programms einen merklichen Einfluss auf die Rechenschritte des Systems haben. Die Aussage »Ich bin gerade bewusst« muss in irgendeiner Weise davon abhängen, ob das System zum Zeitpunkt der Aussage bewusst ist oder nicht, sonst ist sie bedeutungslos. Fachleute sprechen von »dynamischer Relevanz«. Bewusstsein muss dynamisch relevant sein, wenn wir uns darüber austauschen oder es wissenschaftlich studieren wollen. Wir können als Menschen schließlich auch Dinge unbewusst (instinktiv oder im Schlaf) tun und erkennen einen Unterschied zu Handlungen, die bewusst geschehen.

In den Regeln, welche die Berechnungen von Prozessoren definieren, kommt Bewusstsein aber nicht vor. Weil Prozessoren diese Regeln jedoch aufs Genaueste erzwingen, kann Bewusstsein keinen Unterschied in den Berechnungen erreichen. Jeglicher Ansatz eines Unterschieds würde sofort korrigiert. Falls Bewusstsein also dynamisch relevant ist, kann es in modernen Prozessoren (und darum auch in KI-Systemen) nicht entstehen, wie wir in einer im April 2023 veröffentlichten Arbeit erklären.

Logische Zusammenhänge wie der oben ausgeführte liefern aktuell die konkretesten Hinweise auf – oder in diesem Fall gegen – das Bewusstsein von künstlicher Intelligenz. Die rasante Entwicklung von KI stellt unsere Gesellschaft vor große moralische, juristische und praktische Herausforderungen. Um für diese gewappnet zu sein, muss die Frage nach dem Bewusstsein von KI-Systemen genauer erforscht werden. Die Bewusstseinsforschung steht erst am Anfang. Angesichts der enormen Bedeutung des Bereichs arbeiten Fachleute unterschiedlicher Disziplinen auf Hochtouren daran, so dass viele neue Entwicklungen zu erwarten sind.