Von KI-Bildgeneratoren erzeugte Porträts erscheinen menschlicher als echte – aber warum?
Echter als echt: Ein Experiment enthüllt, dass wir von künstlicher Intelligenz erzeugte Gesichter sogar als menschentypischer wahrnehmen als die Porträts echter Menschen – KI-Gesichter sind hyperrealistisch. Aber warum? Offenbar liegt dies daran, dass die künstlich erzeugten Porträts uns besonders symmetrisch proportioniert, vertraut und attraktiv erscheinen, wie Forschende ermittelt haben. Überraschend auch: Gerade bei Fehleinschätzungen glauben wir, uns unserer Sache besonders sicher zu sein – was uns besonders anfällig für Deepfakes macht.
Ob im Video oder als Foto: KI-gestützte Bildgeneratoren können inzwischen so realistische Porträts erstellen, dass wir Fotos echter Menschen kaum noch von denen künstlich erzeugter unterscheiden können. Aber warum? Eigentlich sind wir Menschen besonders gut darin, Gesichter zu unterscheiden – unser Gehirn besitzt sogar ein eigenes Areal nur für die Gesichtserkennung. Dennoch scheitern wir oft an den Deepfakes der KI-Systeme. Wer dies selbst ausprobieren möchte, kann sich unter anderem auf der Website „Which Face is real“ selbst auf die Probe stellen.
Hyperrealistisch statt nur täuschend echt
Doch warum kann uns die KI so leicht täuschen? Das haben nun Elizabeth Miller von der Australian National University in Sydney und ihre Kollegen näher untersucht. Für ihr erstes Experiment zeigten sie 124 Testpersonen 100 vom KI-Bildgenerator StyleGAN2 erstellte Porträtfotos und 100 in Auswahl und Stil ähnliche Fotoporträts von realen Menschen. Die Testpersonen sollte angeben, welche Porträts ihrer Meinung nach reale Personen zeigten und welche KI-generiert waren. Außerdem wurden sie danach gefragt, wie sicher sie sich in ihrer Einstufung sind.
Das überraschende Ergebnis: Den Testpersonen fiel es nicht nur schwer, KI-generierte und reale Gesichter zu unterscheiden. Sie hielten die KI-Bilder deutlich häufiger für menschlich als die realen Fotos – zu rund 65 Prozent. Dies ist signifikant mehr als durch bloßen Zufall oder Raten erklärbar, wie die Forschenden erklären. „KI-Gesichter wirken auf uns offenbar ‚menschlicher‘ als echte Gesichter“, schreiben sie. „Wir bezeichnen dieses erstaunliche und kontraintuitive Phänomen als Hyperrealismus.“
Falsche Sicherheit
Bedenklich auch: Dieser Hyperrealismus führt offenbar auch dazu, dass wir uns unserer Sache sicher wähnen, gerade wenn wir falsch liegen. „Die Menschen, die die KI-Gesichter irrtümlich für real hielten, waren paradoxerweise am zuversichtlichsten, dass ihre Einstufung richtig war“, berichtet Miller. Bei der Einstufung der echten menschlichen Gesichter war dies dagegen nicht der Fall: Hier waren sich die Teilnehmenden bei den Falschzuordnungen meist unsicherer als bei den korrekten Antworten.
Nach Ansicht der Forschenden ist dies durchaus Grund zur Sorge. Denn wenn Menschen ihrem Urteil nicht trauen und sich unsicher sind, reagieren sie auch vorsichtiger und überprüfen ihren ersten Eindruck vielleicht noch einmal. „Wenn sie aber überzeugt sind, dass ihre Bewertung richtig ist, könnte dies schwerwiegendere Folgen haben – beispielsweise indem Betroffene leichter auf gefälschte Profile reinfallen“, erklären Miller und ihre Kollegen.
Welche Merkmale erzeugen diesen Effekt?
Doch warum erscheinen uns gerade die KI-generierten Bilder so (hyper)real? Um das herauszufinden, führte das Team ein zweites Experiment mit 610 Freiwilligen durch. Diese sollten die gezeigten Gesichter nun in Bezug auf 14 verschiedene Merkmale und Kriterien bewerten. Darunter waren biologisch-psychologische Faktoren wie die Lebendigkeit der Augen, die Ebenmäßigkeit und Symmetrie des Gesichts, der Ausdruck, die Attraktivität oder auch die Durchschnittlichkeit und Vertrautheit des Gesichts. Aber auch andere Faktoren wie die Beleuchtung und Bildschärfe wurden erfragt.
Das Ergebnis: Es gibt tatsächlich subtile Unterschiede zwischen KI-generierten und realen Gesichtern. Die Testpersonen stuften die künstlichen Porträts signifikant häufiger als wohlproportioniert, symmetrisch, attraktiv, vertraut und wenig herausstechend ein als die echten menschlichen Gesichter. Für ihre Einstufung als unecht oder echt interpretierten sie einige dieser Unterschiede aber in genau der falschen Richtung: „So haben KI-Gesichter tendenziell ebenmäßigere Proportionen, aber genau dies sehen Menschen fälschlicherweise als Anzeichen für Echtheit“, sagt Millers Kollegin Amy Dawel.
Nah am Durchschnitt
Andere Merkmale, die eher für KI-Gesichter typisch sind, wurden von den Testpersonen zwar wahrgenommen, aber nicht als mögliches Indiz erkannt. Dazu gehört unter anderem die Durchschnittlichkeit des Gesichts: Weil Bildgeneratoren ihre Bilder auf Basis von Wahrscheinlichkeiten zusammenstellen, haben diese Porträts nur selten herausstechende, seltene Merkmalskombinationen – sie sind Allerweltsgesichter.
„Die Generative Adversarial Networks (GAN) sind von den statistischen Parametern ihrer am häufigsten vorkommenden Eingabedaten geprägt“, erklären die Forschenden. Dies führt dazu, dass die KI-generierten Gesichter hyperrealistisch und besonders menschlich erscheinen. Gleichzeitig ergab ein weiterer Test auch, dass Gesichter von Weißen von StyleGan2 deutlich realistischer und menschlicher dargestellt werden als die von Menschen anderer Hautfarbe. Dies liegt daran, dass die Trainingsdatensätze für solche Bildgeneratoren bisher weit mehr Abbildungen von Menschen kaukasischer Herkunft enthalten, wie das Team erklärt.
Bessere Unterscheidungs-Werkzeuge nötig
Nach Ansicht von Miller und ihrem Team demonstrieren ihre Ergebnisse, wie gründlich die künstliche Intelligenz uns täuschen kann. „Angesichts der Tatsache, dass Menschen inzwischen KI-Gesichter nicht mehr als solche erkennen können, braucht die Gesellschaft Werkzeuge, die solche von künstlicher Intelligenz erzeugten Bilder identifizieren können“, sagt Dawel. Einige technische Lösungen sind bereits in Arbeit, für andere könnten auch die jetzt identifizierten Merkmale hilfreich sein.
Wichtig sei es jedoch auch, Menschen entsprechend aufzuklären. „Das Wissen über den Hyperrealismus der KI-Gesichter und ihre Merkmale könnten dazu beitragen, die Öffentlichkeit vorsichtiger und skeptischer gegenüber online gezeigten Bildern zu machen“, sagt die Forscherin. (Psychological Science, 2023; doi: 10.1177/09567976231207095)
Quelle: Australian National University