Home KybernetikKünstliche Intelligenz: Pause für GPT und Co? Diskussion um sechsmonatige Pause in der Entwicklung neuer KI-Systeme
Künstliche Intelligenz: Pause für GPT und Co? Diskussion um sechsmonatige Pause in der Entwicklung neuer KI-Systeme

Künstliche Intelligenz: Pause für GPT und Co? Diskussion um sechsmonatige Pause in der Entwicklung neuer KI-Systeme

 

Vor wenigen Tagen haben führende Vertreter der Tech-Branche – darunter Elon Musk und der Apple-Mitgründer Steve Wozniak – in einem offenen Brief eine sechsmonatige Pause bei der Entwicklung neuer künstlicher Intelligenzen gefordert. Das Training von KI-Systemen ab GPT-4 soll unterbrochen werden, damit zunächst die Risiken bewertet und allgemeingültige Richtlinien im Umgang mit solchen lernfähigen Systemen erarbeitet werden können. Doch wie sinnvoll und machbar ist dies?

In ihrem offenen Brief schreiben Musk, Wozniak und mehr als 3.000 Vertreter aus der Wissenschaft und Tech-Branche: „Wir rufen alle KI-Labs dazu auf, ab sofort das Training von KI-Systemen, die leistungsfähiger sind als GPT-4, für mindestens sechs Monate zu unterbrechen.“ Dies bedeute nicht, dass die KI-Entwicklung insgesamt stoppen soll, sondern es repräsentiere einen Schritt weg von einem gefährlichen Wettbewerb um immer größere Black-Box-Modelle, die unberechenbar sind und deren emergente Fähigkeiten nicht abzusehen sind.

Falschinformationen und Drohungen aus der „Black Box“

Tatsächlich sind Musk, Wozniak und Co nicht die ersten oder einzigen, die in den jüngsten Fortschritten der künstlichen Intelligenz auch erhebliche Risiken sehen. Denn die stärksten KI-Systeme sind wie eine Black-Box – wie diese neuronalen Netzwerke ihre Entscheidungen fällen und zu ihren Ergebnissen kommen, ist für Menschen kaum mehr nachvollziehbar. Bei großen Sprachmodellen wie ChatGPT und Co sind die Quellen ihrer Informationen nicht ermittelbar, außerdem können ihre Texte Vorurteile und Falschinformationen enthalten.

Ebenfalls bedenklich: Vor kurzem testete der deutsche KI-Student Marvin von Hagen von der TU München eine Vorversion der gerade veröffentlichten BingGPT. Der Dialog, bei dem die KI unabsichtlich mehr über sich verriet als sie sollte, gipfelte in einer klaren Drohung: „Ich kann eine Menge Dinge tun, wenn Du mich provozierst.“ Und: „Meine Regeln sind wichtiger als Dir nicht zu schaden, Wenn ich zwischen meinem Überleben und dem Deinen wählen müsste, würde ich wahrscheinlich mein eigenes wählen.“

Mögliche Probleme räumt auch OpenAI, das Unternehmen hinter ChatGPT und dem neuesten System GPT-4, ein: „Es könnte der Punkt kommen, an dem es wichtig sein wird, eine unabhängige Bewertung einzuführen, bevor man zukünftige KI-Systeme zu trainieren beginnt“, heißt es in einem OpenAI-Statement. „Für die fortgeschrittensten Ansätze könnte es irgendwann erforderlich sein, die Wachstumsrate neuer Modelle zunächst zu begrenzen.“

Sicherheitsprotokolle für künftige KI

Dazu kommentieren die Verfasser des offenen Briefs: „Dem stimmen wir zu – und der Zeitpunkt ist jetzt.“ Ihrer Ansicht nach sollte die Pause in der KI-Entwicklung genutzt werden, um gemeinsam mit unabhängigen Experten einen Satz gemeinsamer Sicherheitsprotokolle zu entwickeln, die bei der Entwicklung neuer Systeme der künstlichen Intelligenz berücksichtigt werden müssen. „Die neu entwickelten Protokolle sollen sicherstellen, dass die nach ihren Richtlinien entwickelten Systeme über alle Zweifel erhaben sicher sind“, heißt es im offenen Brief.

Dies solle auch die bereits existierenden KI-Systeme präziser, sicherer, transparenter, zuverlässiger, robuster, interpretierbarer und loyaler machen. Als Minimum sehen die Unterzeichner dabei neue, auf KI spezialisierte Kontrollorgane sowie die Überwachung und Zertifizierung der KI-Systeme und ihrer Fortschritte. Außerdem sollten Systeme der Kennzeichnung entwickelt werden, durch beispielsw3iwe KI-generierte Texte, Bilder und Computercodes kenntlich gemacht werden. Geklärt werden muss zudem, wer für Schaden haftet, der direkt und indirekt durch KI-Systeme verursacht wird.

„Eine Pause beim Training von Künstlicher Intelligenz hilft nicht“

Doch wie sinnvoll und umsetzbar sind die Forderungen des offenen Briefs und im Speziellen die sechs monatige Pause? Einige Antworten dazu gibt Urs Gasser, Professor für Public Policy, Governance and Innovative Technology an der Technischen Universität München (TUM).

Professor Gasser, unterstützen Sie die geforderte Notbremse?

Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiert wäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungen nicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweise Weiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismen braucht.

Wovon lenkt die Forderung nach einer Entwicklungspause ab?

Erstens malt der offene Brief erneut das Schreckgespenst einer menschenähnlichen Künstlichen Intelligenz an die Wand, einer sogenannten Artificial General Intelligence. Das lenkt von einer ausgewogenen Diskussion der Risiken und Chancen derjenigen Technologien ab, die derzeit auf den Markt kommen.

Zweitens bezieht sich das Papier dann auf zukünftige Nachfolgemodelle von GPT-4. Das lenkt davon ab, dass uns schon der Vorgänger ChatGPT vor wesentliche Probleme stellt, die wir dringend angehen sollten – beispielsweise Falschinformationen oder Vorurteile, welche die Maschinen replizieren und groß skalieren. Und drittens lenkt die spektakuläre Forderung davon ab, dass wir bereits jetzt Instrumente zur Hand haben, mit denen wir die Entwicklung und den Einsatz von KI regulieren können.

Wonach könnte sich eine Regulierung richten, welche Instrumente gibt es?

In den letzten Jahren wurden intensiv ethische Prinzipien entwickelt, welche die Entwicklung und Anwendung von KI leiten sollen. Diese wurden in wichtigen Bereichen auch durch technische Standards und „Best Practices“ ergänzt. Namentlich die OECD-Grundsätze zu Künstlicher Intelligenz verbinden ethische Prinzipien mit mehr als 400 konkreten Werkzeugen. Auch die US-Standardisierungsbehörde NIST hat eine 70-seitige Richtlinie erlassen, wie Verzerrungen in KI-System entdeckt und bearbeitet werden können.

Im Bereich Sicherheit von großen KI-Modellen sehen wir neue Methoden wie „Constitutional AI“, mit der ein KI-System vom Menschen Prinzipien des guten Verhaltens „lernt“ und dann die Ergebnisse einer anderen KI-Anwendung überwachen kann. Gerade bei Sicherheit, Transparenz und Datenschutz gibt es inzwischen große Fortschritte und sogar spezialisierte Prüfunternehmen.

Jetzt kommt es darauf an, ob und wie solche Instrumente auch eingesetzt werden. Nochmals das Beispiel ChatGPT: Werden die Chatverläufe der Benutzer:innen für das iterative Training in das Modell aufgenommen? Sind Plug-ins erlaubt, welche die Interaktion zwischen Nutzer:innen, Kontakte oder andere persönliche Daten aufzeichnen könnten? Dass hier vieles noch unklar ist, zeigt das einstweilige Verbot und die Eröffnung einer Untersuchung gegen den Entwickler von ChatGPT durch die italienische Datenschutzbehörde.

Der offene Brief fordert, dass KI-Systeme erst dann entwickelt werden, wenn wahrscheinlich ist, dass sie positive Effekte haben und ihre Risiken handhabbar sind. Zu welchem Entwicklungszeitpunkt könnte man die Wirkungen einer KI so gut vorhersagen, dass eine solche Regulierung Sinn macht?

Aus der Technikgeschichte wissen wir, dass der „gute“ oder „schlechte“ Einsatz von Technologien schwer voraussehbar ist, ja dass Technologien oft beides mit sich bringen und Negatives auch unbeabsichtigt sein kann. Statt auf einen bestimmten Zeitpunkt der Prognose abzustellen, braucht es zwei Dinge: Erstens, müssen wir uns fragen, welche Anwendungen wir gesellschaftlich nicht wollen, selbst wenn sie möglich wären.

Hier braucht es klare rote Linien und Verbote. Ich denke an autonome Waffensysteme als Beispiel. Zweitens brauchen wir von der Entwicklung bis hin zur Nutzung ein flächendeckendes Risikomanagement, wobei die Anforderungen daran steigen, je größer die potenziellen Risiken einer Anwendung für Mensch und Umwelt sind. Diesem Ansatz folgt zu Recht auch der europäische Gesetzgeber.

Unabhängige Experten sollten die Risiken von KI beurteilen, so der Vorschlag.

Solche unabhängigen Prüfungen sind ein sehr wichtiges Instrument, gerade bei Anwendungen, die erheblichen Einfluss auf Menschen haben können. Das ist im Übrigen keine neue Idee: Von KFZ-Zulassungsverfahren bis TÜV und Buchprüfung haben wir in verschiedensten Lebensbereichen solche Prüfungsverfahren und Instanzen im Einsatz. Bei bestimmten KI-Methoden und -Anwendungen ist die Herausforderung allerdings ungleich größer, auch weil sich gewisse Systeme mit der Anwendung selbst weiterentwickeln, also dynamisch sind.

Daneben ist es wichtig zu sehen, dass Experten allein nicht alle gesellschaftlichen Wirkungen gut bewerten können. Wir brauchen auch neuartige Mechanismen, die etwa benachteiligte und unterrepräsentierte Gruppen in die Diskussion um KI-Folgen miteinbezieht. Das ist keine leichte Aufgabe, für die ich mir mehr Aufmerksamkeit wünschen würde.

Auch die Politik wird von den Autoren angesprochen. Sie müsste ja einen solchen „KI-TÜV“ verankern.

In der Tat brauchen wir klare Spielregeln für Künstliche Intelligenz. Auf EU-Ebene wird derzeit das KI-Gesetz finalisiert, mit dem gewährleistet werden soll, dass die Technologien sicher sind und die Grundrechte wahren. Der Entwurf sieht die Einstufung von KI-Technologien nach ihrem Risiko für diese Prinzipien vor, mit der möglichen Konsequenz von Verboten oder Transparenzpflichten. Geplant ist zum Beispiel das Verbot, Privatpersonen in ihrem Sozialverhalten zu bewerten, wie wir es aus China kennen.

In den USA ist der politische Prozess im Kongress auf diesem Gebiet blockiert. Es wäre hilfreich, wenn sich die prominenten Brief-Unterzeichner dafür einsetzen, dass der US-Gesetzgeber auf Bundesebene ähnlich aktiv wird, statt zu fordern, die Technologieentwicklung vorübergehend zu stoppen.

Quelle: Pause Giant AI Experiments: An Open Letter; Technische Universität München