1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
GesellschaftGlobal

Faktencheck: Die kuriosesten Fakes im Jahr 2024

Silja Thoms
24. Dezember 2024

Politiker in Windeln, Haustiere essende Migranten, Schokolade mit Grillen: Nichts davon hat es dieses Jahr wirklich gegeben, die Leute beschäftigt hat es trotzdem. Wir blicken zurück auf die kuriosesten Fakes des Jahres.

https://p.dw.com/p/4nqYI
Screenshots von drei Beispielen, die 2024 als Fakes kursierten: Ein KI-generiertes Video von einem (verstorbenen) indischen Politiker, Macrons "Affäre" auf einem Bootstrip und Grillen in Schokolade
Nichts davon ist echt! Ein toter Politiker kehrt zurück, Macron hat eine Affäre und Schokolade gibt es nun mit ganzen Grillen

1. Nein, Trump saß nicht auf Inkontinenzauflagen

Während des US-Wahlkampfs wurde schweres verbales Geschütz aufgefahren – und Gerüchte über die Kandidaten gestreut. In den Sozialen Netzwerken hieß es, dass wahlweise Donald Trump oder US-Präsident Joe Biden inkontinent seien. Dazu wurden Fotos und Videos präsentiert, in denen es so aussieht, als ob die Politiker in Talkshows Windeln tragen oder auf Inkontinenzauflagen sitzen. Diese Fotos und Videos sind allerdings nicht echt.

Die Behauptung dieses Foto beispielsweise, auf dem Trump angeblich auf einer solchen Auflage sitzen soll, ist schnell widerlegt, wenn man sich das Originalvideo der Talkshow anschaut. Bevor Trump sich auf dem Sofa niederlässt, ist kein solches Kissen zu sehen. Was man sehen kann: Sein Jackett, das an den Seiten herunterhängt.

Faktencheck: Trump vs. Harris - was kann man glauben?

2. Nein, es sind keine Grillen in der Schokolade 

Ein hoher Proteingehalt in Spezialschokolade für Athleten? Im Jahr 2023 veröffentlichte die deutsche Firma Rittersport ein Bild auf Instagram: "Ganze Grille" stand auf der Tafel Schokolade, "Protein Edition". Diese angeblich neue Sorte sorgte für Aufregung auf Social Media, als dieses Bild kurz vor den Europawahlen 2024 wieder im Netz kursierte. Zu der Zeit ging auch eine Menge an Falschinformationen über die EU-Genehmigung von Insekten in Nahrungsmitteln viral.

Alles nur ein Scherz, sagte die Firma bereits 2023. Und Rittersport hat bis jetzt immer noch keine Grillen-Schokolade auf den Markt gebracht. Es bleibt ein cleverer Marketing-Gag. 

3. Nein, Migranten essen nicht die Haustiere anderer Leute  

Es war eine der größten Falschinformation des Jahres: Migranten würden angeblich Haustiere essen. Egal ob Hund, Katze oder Gänse – die Spekulationen waren grenzenlos. Es startete mit einem Post auf Facebookund wurde dann von Donald Trump in der ersten TV-Debatte gegen US-Vizepräsidentin Kamala Harris aufgegriffen. Trump sagte, die Migranten in Springfield äßen Haustiere - es war nicht seine einzige verbale Attacke gegen Einwanderer während der Debatte. In den Sozialen Medien verbreiteten Nutzende dann, dass Migranten aus Haiti in Springfield, Ohio, Haustiere von Bewohnern oder Tiere aus Parks stehlen würden.

Dabei gibt es keinerlei Anhaltspunkte für diese Behauptung: Sowohl die Polizei als auch Amtsträger in Ohio haben bestritten, dass dies passiert sei. Es gibt auch keine anderweitigen Berichte, die Trumps Aussage untermauern würden. Trotzdem verbreiteten rechte und rechtsradikale Kanäle diese aus der Luft gegriffenen Anschuldigungen weiter.

4. Nein, Macron hat keinen Mann auf einem Boot geküsst

Politiker werden immer wieder zum Ziel von Desinformation und manipulierten Videos und Fotos. Dieses Jahr wurde der französische Präsident Emmanuel Macron angeblich dabei beobachtet, wie er einen anderen Mann während einer Bootsfahrt küsste. Dieses Video tauchte auf georgisch-und russischsprachigen Accounts auf.

Macron war in der Tat im Sommer auf einem Boot unterwegs. Davon wurden auch echte Bilderonline geteilt. Dieses Video von ihm ist allerdings KI-generiert. Das kann man unter anderem an der unrealistischen Armbewegung des Mannes erkennen, den Macron da angeblich küsst.

Und das ist nicht das erste manipulierte Video von Macron, das dieses Jahr viral ging. In anderen gefakten Videos tanzte Macron in den 80er Jahren in den Nachtclubs der Schwulenszene. Diese Videos waren KI-generierte Deepfakes und zeigen nicht Macron, der ohnehin noch viel zu jung gewesen wäre, um selbst in Nachtclubs feiern zu gehen.

5. Nein, Selenskyj kaufte nicht den Mercedes, der Hitler gehörte  

Immer wieder verbreiten sich Falschbehauptungen, die Selenskyj-Familie habe Geld für teure historische Artefakte wie etwa die Highgrove House Villa von König Charles oder millionenschwere Sportwagen ausgegeben. Dieses Jahr soll der ukrainische Präsident Wolodymyr Selenskyj angeblich Hitlers Mercedes für 15 Millionen US-Dollar gekauft haben. Diese Posts gingen viral, nachdem die USA fast acht Milliarden Dollar an zusätzlichen Hilfsgeldern an die Ukraine zusicherten.

Doch der Kauf hat nicht stattgefunden. Es ist eine Fotomontage. Durch eine Bilderrückwärtssuche lässt sich herausfinden, dass der Mercedes 2014 auf einer Oldtimer-Ausstellung fotografiert und dann vor das Bürogebäude des ukrainischen Präsidenten montiert wurde. Es gibt keine Belege dafür, dass Selenskyj Hitlers Auto gekauft hat.

6. Nein, Tom Cruise war nicht Teil einer Dokumentation über die Olympischen Spiele  

Vor Beginn der Olympischen Spiele in Paris kursierte ein Deepfake von Schauspieler Tom Cruise, der angeblich in einer Netflix-Dokumentation mitgewirkt haben soll. Weder war Cruise an der Dokumentation beteiligt noch existiert diese überhaupt.

Sicherheitsexperten von Microsofthaben die Dokumentation als Teil einer russischen Desinformationskampagne identifiziert, die darauf abzielte, die Olympischen Spiele und das Internationale Olympische Komitee zu diskreditieren.

Faktencheck: Wie erkenne ich KI-Videos von Sora?

7. Nein, dieser Mann ist nicht von den Toten auferstanden  

Dieses Jahr galt auch als Superwahljahr, weil in vielen Ländern und in der EU gewählt wurde - unter anderem in den USA und in Indien. Kurz vor den Wahlen tauchte ein Video von Muthuvel Karunanidhi auf, der lange Zeit im südlichen indischen Bundesstaat Tamil Nadu regierte.

Er sprach junge Wähler an und rief sie dazu auf, sich zu engagieren. Karunanidhi war allerdings 2018 gestorben. Mithilfe von KI wurde er für die Wahlkampagne reaktiviert.

Wie KI-Fakes Wahlen beeinflussen sollen

8. Nein, es gab keine Pro-Putin-Rufe in einem Stadion zur EURO 2024  

Zwei Videos von rumänischen Fans tauchten im Rahmen der Fußball-Europameisterschaft in Deutschland auf: Mit Sprechchören wahlweise füroder gegen den russischen Präsidenten Wladimir Putin.Echt ist allerdings keines. In beiden Videos sind die Audio-Spuren fake. Das konnte die DW beweisen, indem das Video mit Originalaufnahmen von dem Tag verglichen wurde. Darüber hinaus war ein DW-Kollege vor Ort im Stadion und konnte bestätigen, dass es dort solche Sprechchöre nicht gegeben hat.

Zwei Screenshots von Tweets mit Behauptungen von jeweils pro- und anti-Putin Gesängen
Sowohl pro- als auch anti-Putin-Sprechchöre hat es während dem Match nicht gegebenBild: X

9. Nein, der Hubschrauber des iranischen Präsidenten wurde nicht mit einem Laser abgeschossen   

Als der Hubschrauber mit dem iranischen Präsident Ebrahim Raisi und seinem Außenminister Hussein Amirabdollahian an Bord abstürzte, behaupteten Nutzer auf X, dass ein Laser aus dem All dafür verantwortlich gewesen sei.

Aber auch wenn Laser-Technologienvom Militär in einem rasanten Tempo weiterentwickelt werden, sei keine Laserwaffe bislang in der Lage, einen Hubschrauber vom Himmel zu holen, sagen Experten. 

10. Nein, niemand hat einen Hurrikan manipuliert  

Ein Satellitenbild zeigt Hurrikan Helene
Es gibt bislang keine Technologie, mit der sich Wirbelstürme manipulieren lassenBild: National Oceanic and Atmospheric Administration/AP Photo/picture alliance

Ein bisschen mehr Sonne gefällig an ein paar Tagen? Viele hätten das gerne, aber so einfach ist das nicht. Nichtsdestotrotz waren einige in den Sozialen Medien davon überzeugt, dass Hurrikan Helene in den USA manipuliert und in eine bestimmte Richtung gelenkt wurde. Es gibt keinerlei Beweise für diese Behauptung. Es gibt bislang keine Technologie, um einen Hurrikan umzulenken.

Dieser Artikel wurde aus dem Englischen adaptiert.