Welche Taktiken sind beim Missbrauch von Künstlicher Intelligenz am häufigsten?
Helfer mit Schattenseiten: Künstliche Intelligenz ist nützlich – auch für dunkle Machenschaften. Wie und warum KI heute am häufigsten missbraucht wird, hat nun eine Google-Studie untersucht und kategorisiert. Demzufolge sind Fakes und Deepfakes mit betrügerischer oder manipulativer Absicht die mit Abstand häufigste Form des KI-Missbrauchs. Aber auch eine direkte Manipulation der KI-Systeme selbst kommt vor. Was aber lässt sich dagegen tun?
Künstliche Intelligenz kann Texte, Bilder, Videos und vieles mehr erzeugen – und zwar so täuschend echt, dass sich oft nicht mehr unterscheiden lässt, welche Inhalte authentisch und welche KI-generiert sind. Das birgt auch Gefahren: Selbst Laien können so ohne viel Aufwand sogenannte Deepfakes erstellen, die Fotos, Videos und Stimmen echter Personen imitieren. All dies erhöht das Risiko für gezielte Manipulation und Falschinformationen, zumal diese oft nachhaltiger wirken als wahre.
Missbräuchlicher Einsatz
„Generative Modelle der künstlichen Intelligenz (KI) ermöglichen eine neue Ära der Kreativität und der kommerziellen Möglichkeiten. Doch mit der Zunahme dieser Fähigkeiten wächst auch das Potenzial für ihren Missbrauch, einschließlich Manipulation, Betrug, Mobbing oder Belästigung“, schreiben Nahema Marchal von Google Deepmind und Rachel Xu von dem auf Cybersicherheit fokussierten Google-Tochterunternehmen Jigsaw.
Um einen Überblick zu gewinnen, wie generative KI für schädliche Zwecke eingesetzt wird, haben die Forscherinnen Fachliteratur und knapp 200 Medienberichte über Vorfälle von KI-Missbrauch analysiert, die zwischen Januar 2023 und März 2024 bekannt wurden.
Zwei Arten der Manipulation
Marchal und Xu unterscheiden zwei Hauptkategorien von Missbrauchstaktiken: Zum einen können Personen mit betrügerischen Absichten die Fähigkeiten generativer KIs für ihre Zwecke ausnutzen – beispielsweise in Form von Deepfakes. Zum anderen können sie die KI-Systeme selbst kompromittieren, um Schutzmechanismen der Modelle zu umgehen oder zu entfernen, Fehlfunktionen zu verursachen oder die KI dazu zu bringen, Dinge zu tun, die ihr eigentlich per Programmierung verboten wurden.
„Die böswillige Ausnutzung von KI-Fähigkeiten ist in unserem Datensatz die häufigste Form von Missbrauch“, berichten die Autorinnen. „Wir haben beispielsweise einen viel beachteten Fall vom Februar 2024 untersucht, bei dem ein internationales Unternehmen Berichten zufolge etwa 26 Millionen US-Dollar verloren hat, nachdem ein Mitarbeiter während eines Online-Meetings zu einer Überweisung verleitet wurde.“ Alle anderen Personen der Sitzung waren in Wirklichkeit KI-generiert.
Fakes und Deepfakes am häufigsten
Marchal und Xu weisen darauf hin, dass die Taktik, sich als eine andere Person auszugeben, schon lange vor Erfindung der generativen KI eine verbreitete Betrugsmasche war. „Ein breiterer Zugang zu generativen KI-Tools könnte jedoch die Kosten und Anreize für die Informationsmanipulation verändern und diesen uralten Taktiken neue Kraft und neues Potenzial verleihen“, schreiben sie.
Die Absicht hinter den Manipulationen besteht den Forscherinnen zufolge häufig darin, die öffentliche Meinung zu beeinflussen oder Profit zu generieren – sei es durch direkten Betrug oder beispielsweise, indem Werbeanzeigen oder pornografische Inhalte mit prominenten Persönlichkeiten erstellt werden, die in Wirklichkeit computergeneriert wurden.
Überdies identifiziert die Studie Fälle, in denen der Einsatz generativer KI zwar nicht in unmittelbar betrügerischer Absicht erfolgt, aber dennoch ethische Fragen aufwirft. „So sprechen Regierungsbeamte plötzlich eine Vielzahl von wählerrelevanten Sprachen, ohne transparent offenzulegen, dass sie generative KI einsetzen, und Aktivisten verwenden die KI-generierten Stimmen verstorbener Opfer, um für eine Waffenreform zu plädieren“, nennen die Autorinnen Beispiele.
Wie lässt sich das verhindern?
Die Forschungsergebnisse könnten nun Google und anderen KI-Unternehmen helfen, bessere Schutzmaßnahmen für ihre generativen KI-Technologien zu entwickeln. So arbeiten Entwickler von KI-Modellen bereits daran, potenziell „toxische“ Inhalte aus den Trainingsdaten der Künstlichen Intelligenzen herauszufiltern. Auch die Eingabe von Prompts, die auf eine missbräuchliche Nutzung hindeuten, können stärker reglementiert und von den KI-Systemen verweigert werden, wie die Forscherinnen erklären.
Auf technischer Ebene arbeitet ein Zusammenschluss verschiedener Anbieter generativer KI daran, sogenannte Content Credentials zu entwickeln, also manipulationssichere Metadaten, die zeigen, ob Inhalte von KI erstellt und bearbeitet wurden. Zudem sollen bestimmte Computerprogramme bei der Erkennung von Deepfakes helfen. Parallel können Initiativen zur Aufklärung der Öffentlichkeit dabei helfen, die Wachsamkeit gegenüber gefälschten Inhalten zu erhöhen.
„Indem wir uns proaktiv mit potenziellem Missbrauch auseinandersetzen, können wir einen verantwortungsvollen und ethischen Umgang mit generativer KI fördern und gleichzeitig ihre Risiken minimieren“, schreiben Marchal und Xu. „Wir hoffen, dass diese Einblicke in die häufigsten Missbrauchstaktiken Menschen in Forschung, Politik und Industrie dabei helfen, sicherere und verantwortungsvollere Technologien zu entwickeln und bessere Maßnahmen zur Bekämpfung des Missbrauchs zu ergreifen.“ (arXiv, 2024, doi: 10.48550/arXiv.2406.13843)
Quelle: Google DeepMind