In einer Welt, in der wir gewohnt sind, unseren Augen und Ohren zu trauen, bricht gerade ein neues Zeitalter an. Die Technologie der Deepfakes – KI-generierte Medien, die Gesichter, Stimmen und Handlungen täuschend echt imitieren – ist keine Zukunftsmusik mehr. Sie ist Realität. Für eine Plattform wie AlterNEUdenken, die sich (auch)mit dem kritischen Hinterfragen gesellschaftlicher Entwicklungen befasst, stellt sich die drängende Frage: Wie bewahren wir die Souveränität über unsere Wahrnehmung?
Was sind Deepfakes technisch gesehen?
Der Begriff setzt sich aus „Deep Learning“ und „Fake“ zusammen. Technisch basieren die meisten hochwertigen Fälschungen auf Generative Adversarial Networks (GANs). Dabei treten zwei neuronale Netze gegeneinander an: Der Generator (erstellt ein gefälschtes Bild oder Audio), und der Diskriminator (versucht, die Fälschung zu entlarven).
Hintergrund: Was sind Generative Adversarial Networks (GANs)?
Hinter der verblüffenden Echtheit von Deepfakes steckt meist ein Konzept, das 2014 von Ian Goodfellow entwickelt wurde: die Generative Adversarial Networks. Vereinfacht gesagt, handelt es sich um ein „Duell“ zwischen zwei künstlichen Intelligenzen:
- Der Fälscher (Generator): Sein Ziel ist es, ein Bild oder Video zu erstellen, das so echt wie möglich aussieht. Er beginnt mit reinem Rauschen und lernt Schritt für Schritt, Strukturen zu bilden.
- Der Prüfer (Diskriminator): Er kennt echte Fotos und vergleicht diese mit den Versuchen des Fälschers. Sein Ziel ist es, die Fälschung zu entlarven.
Der Clou: Beide Netzwerke lernen voneinander. Wenn der Prüfer die Fälschung erkennt, weiß der Fälscher, was er verbessern muss. Wird der Prüfer getäuscht, muss dieser wiederum präziser werden. Dieser digitale Wettlauf wiederholt sich tausende Male pro Sekunde, bis das Ergebnis vom menschlichen Auge nicht mehr von der Realität zu unterscheiden ist.
Durch diesen permanenten Wettstreit lernt das System so lange, bis selbst Experten Schwierigkeiten haben, das Original vom Plagiat zu unterscheiden. Während die Anfänge noch holprig waren, ermöglichen heutige Rechenleistungen Echtzeit-Manipulationen in Videocalls.

Die Gefahrenlandschaft: Warum Schutz jetzt notwendig ist
Wir müssen Deepfakes nicht nur als technisches Spielzeug begreifen, sondern als Werkzeug für gezielte Desinformation und Kriminalität. Portale wie zum Beispiel Saferinternet.at warnen bereits seit längerem vor der steigenden Qualität dieser Angriffe. Die Risiken lassen sich in drei Kategorien unterteilen:
- Finanzieller Betrug (CEO Fraud/ Enkeltrick 2.0)
Angreifer imitieren die Stimme eines Vorgesetzten, um dringende Überweisungen zu fordern. Das Bundeskriminalamt informiert hierzu laufend über aktuelle Cybercrime-Maschen. - Reputationsschaden
Durch manipulierte Videos können Personen in kompromittierende Situationen gebracht werden. - Erosion der Wahrheit
Wenn alles eine Fälschung sein könnte, glauben Menschen am Ende gar nichts mehr – ein Zustand, den wir bereits in unserem Artikel über die zunehmende digitale Verknüpfung unterschiedlichster Daten beleuchtet haben.
Strategien zum Schutz: So rüsten Sie sich gegen die Täuschung
Ein absoluter Schutz ist in der digitalen Welt unmöglich, aber wir können die Resilienz deutlich erhöhen. Hier sind die wichtigsten Säulen der „Verteidigung“:
1. Die „Skeptische Sekunde“ kultivieren
Der wichtigste Schutz ist psychologischer Natur. Bevor Sie emotional auf ein Video reagieren, prüfen Sie den Kontext. Initiativen wie Klicksafe.de bieten hierfür hervorragendes Material zur Förderung der digitalen Debattenkultur.
2. Technische Erkennungsmerkmale (Artefakte)
Noch hinterlassen viele Deepfakes kleine Fehler:
- Unnatürliches Blinzeln: KI-Modelle blinzeln oft unregelmäßig.
- Lippensynchronität: Achten Sie auf Verzögerungen zwischen Ton und Mundbewegung.
- Hauttextur: Deepfakes wirken oft „zu glatt“ oder maskenhaft.
3. Das „Codewort-Prinzip“ in der Familie
Für den Schutz gegen den sogenannten „Enkeltrick 2.0“ ist die einfachste Lösung oft die effektivste: Vereinbaren Sie mit Ihren Liebsten ein analoges Codewort. Wenn eine Stimme am Telefon um Geld bittet, fragen Sie nach diesem Wort. Eine KI kann dieses nicht kennen, da es nie digital kommuniziert wurde. Dies ist ein wesentlicher Teil einer effizienten Schutzmaßnahme, Stichwort sicheres Passwort.
4. Digitale Hygiene und Datenschutz
Je weniger Ausgangsmaterial von Ihnen öffentlich im Netz kursiert, desto schwieriger ist es, ein Deepfake von Ihnen zu erstellen. Tipps zur Datenminimierung finden Sie zum Beispiel auf der Plattform Watchlist Internet. Wichtig jedenfalls:
- Stellen Sie Social-Media-Profile auf „Privat“.
- Seien Sie vorsichtig mit App-Berechtigungen.
Die Rolle der KI im Kampf gegen Deepfakes
Interessanterweise ist die beste Waffe gegen Deepfakes oft die KI selbst. So arbeitet beispielsweise das Projekt https://contentauthenticity.org, angeführt von Unternehmen wie Adobe, an digitalen Wasserzeichen. Diese „Content Credentials“ sollen die gesamte Bearbeitungskette eines Bildes lückenlos dokumentieren.

Fazit: Medienkompetenz ist Selbstverteidigung
Deepfakes sind eine technologische Herausforderung, die uns zwingt, unsere Wahrnehmung zu schärfen. Es geht nicht darum, in Paranoia zu verfallen, sondern eine gesunde Skepsis zu entwickeln. Auf AlterNEUdenken plädieren wir dafür, die Mechanismen hinter der Technologie zu verstehen, um nicht zum Spielball von Algorithmen zu werden.
Besuchen Sie auch unsere Rubrik »Internet & Technik«, um mehr darüber zu erfahren, wie wir Technik menschlich halten können.
(Bilder: AdobeStock)








![Zukunftsvisionen: Vielfältige Einsatzgebiete von Künstlicher Intelligenz [KI] in den kommenden Jahren Ein menschlich anmutender Roboter, der ein großes virtuelles Touchpad bedient. (c) AdobeStock](https://www.alterneudenken.com/wp-content/uploads/2024/09/ki-zukunft_home-450x253.jpg)









![Wie passen Künstliche Intelligenz [KI] und Energiesparen zusammen? Ein 3D-Modell eines Kopfes, dahinter Datenpunkte und Linien und die Hand einer Frau, die einen Punkt mit dem Finger verschiebt. (c) AdobeStock](https://www.alterneudenken.com/wp-content/uploads/2023/01/KI-energiesparen_home-450x253.jpg)



![Mit digitaler Medienkompetenz »sicher« in die [digitale] Zukunft 4 ältere Personen auf einer Couch mit Tablets. (c) AdobeStock](https://www.alterneudenken.com/wp-content/uploads/2022/09/medienkompetenz_home-450x253.jpg)




























