KI-generierte Fotos und Videos überschwemmen das Internet. Immer häufiger können wir nicht mehr erkennen, ob Bilder und Filme echt sind oder „Fake“. Vor Kurzem sorgte gar eine KI-generierte Schauspielerin für Schlagzeilen: Tilly Norwood. Was bedeutet diese Entwicklung für unsere Sicht auf die Welt? Wie können wir eigenen Unsicherheiten entgegenwirken und lernen, auch in Zukunft Reales von digital Erzeugtem zu unterscheiden? Ein Gespräch über Kompetenzen.
„Kontrolle ist ein menschliches Grundbedürfnis“
Frau Prof. Asselmann, überfordert uns die rasante Entwicklung von Künstlicher Intelligenz und deren Einsatz in immer mehr Lebens- und Arbeitsbereichen?
So wird es von vielen Menschen erlebt. Während frühere Krisen vor allem durch äußere Bedrohungen wie Hunger, Krieg oder Krankheit geprägt waren, erleben wir heute eine andere Form von Verunsicherung: eine permanente Überreizung durch Informationen, Bilder und Bewertungen, deren Herkunft und Wahrheitsgehalt zunehmend schwer einzuordnen sind.
Psychologisch besonders relevant ist dabei der Verlust von Kontrolle. Kontrolle ist ein grundlegendes menschliches Bedürfnis. Sie hilft uns, Muster zu erkennen, Risiken einzuschätzen und handlungsfähig zu bleiben. Wenn dieses Gefühl verloren geht, geraten Menschen innerlich ins Wanken. Das untergräbt das Vertrauen in die Welt, in andere, aber auch in die eigenen Fähigkeiten.
Wird dieses Erleben kollektiv, entsteht leicht ein Klima der Ohnmacht. In solchen Situationen wachsen Misstrauen, Polarisierung und die Attraktivität scheinbar einfacher Erklärungen, etwa in Form von Verschwörungsnarrativen oder Schuldzuweisungen.
Warum verlieren auch die Medien als „vierte Gewalt“ im Staat an Vertrauen? Ihr Auftrag ist es doch, staatliches Handeln einzuordnen und über Missstände aufzuklären.
KI verändert die mediale Landschaft fundamental. Wenn Bilder, Videos und Texte täuschend echt generiert werden können, verschwimmen für viele Menschen die Grenzen zwischen verlässlicher Information und Manipulation. Das erschüttert das Vertrauen in mediale Vermittlung insgesamt.
Hinzu kommt, dass Information heute häufig über soziale Medien konsumiert wird, deren Logiken nicht primär auf Einordnung, sondern auf Aufmerksamkeit und Emotionalisierung ausgerichtet sind. KI verstärkt diesen Effekt, weil Inhalte schneller, zugespitzter und massenhafter produziert werden können.
Psychologisch entsteht dadurch bei vielen Menschen das Gefühl, getäuscht zu werden. Dieses Gefühl führt nicht selten zu Abwehr, Rückzug oder pauschaler Ablehnung – nicht nur gegenüber einzelnen Medien, sondern gegenüber öffentlicher Kommunikation insgesamt.
Wie können wir den richtigen Umgang mit KI lernen, auch um echte News von „Fake News“ zu unterscheiden?
Wir brauchen weniger technische Detailkenntnis und mehr sogenannte Meta-Kompetenzen. Entscheidend ist die Fähigkeit, Informationen kritisch einzuordnen: Wer spricht hier? Mit welchem Ziel? Auf welcher Grundlage?
Der reflexhafte Widerstand gegen KI hilft dabei wenig. Kompetenzen entstehen nicht durch Vermeidung, sondern durch einen bewussten, reflektierten Umgang. Dazu gehört auch, Unsicherheit zunächst auszuhalten und anzuerkennen, dass nicht alles sofort eindeutig ist.
Im Bildungsbereich bedeutet das eine klare Verschiebung: weg vom reinen Auswendiglernen, hin zur Bewertung, Einordnung und Nutzung von KI-generierten Inhalten für den eigenen Erkenntnisgewinn. Es geht nicht darum, KI blind zu vertrauen, sondern zu lernen, sie kritisch und selbstwirksam zu nutzen.
Was ist mit der älteren Generation?
Für Erwachsene und ältere Menschen ist die eigene Haltung zentral. Wer überzeugt ist, den Anschluss ohnehin verloren zu haben, lernt tatsächlich schlechter, das ist gut belegt.
Gerade hier zeigt sich, wie wichtig Selbstwirksamkeit ist, also das Vertrauen, Dinge Schritt für Schritt lernen zu können. Niemand muss KI sofort verstehen oder perfekt beherrschen. Entscheidend ist, neugierig zu bleiben, sich Zeit zu geben und Fehler nicht als Scheitern zu sehen. Wer so an Neues herangeht, fühlt sich langfristig sicherer, auch im Umgang mit KI.
Die KI-Schauspielerin Tilly Norwood wurde kürzlich der Öffentlichkeit vorgestellt. Sie ist von einer echten Person auf der Leinwand nicht mehr zu unterscheiden…
Technisch ist das beeindruckend. Psychologisch jedoch bleibt ein entscheidender Unterschied: KI-generierte Figuren haben kein gelebtes Leben. Sie machen keine Fehler, erleben keine Brüche, tragen keine Widersprüche in sich.
Gerade diese Unvollkommenheit ist jedoch das, womit sich Menschen identifizieren. Ich gehe daher davon aus, dass mit zunehmender Perfektion künstlicher Figuren das Bedürfnis nach dem Echten, Unperfekten und Verletzlichen wieder stärker in den Vordergrund rückt.
Auch in der Film- und Medienwelt wird Authentizität künftig weniger eine Frage technischer Makellosigkeit sein, sondern eine neue Qualität darstellen, als bewusster Gegenpol zur künstlichen Perfektion.
Vielen Dank für das Gespräch, Frau Prof. Asselmann.
Prof. Dr. Eva Asselmann ist Professorin für Persönlichkeitspsychologie an der HMU in Potsdam. Im Frühjahr 2026 wird ihr Buch Too Much. Warum wir Kontrolle suchen – und Kraft im Loslassen finden im dtv-Verlag erscheinen.