Eine kleine Minderheit ist für den Grossteil der Falschinformationen verantwortlich. Oft stecken nicht einmal Menschen dahinter. Was lässt sich dagegen tun?
Eine Zahl aus einer Studie zu den US-Wahlen 2020 ist bemerkenswert: Nur 0,1 Prozent aller Nutzerinnen und Nutzer sollen für die Verbreitung von etwa 80 Prozent der Fake News verantwortlich gewesen sein. Häufig stehen hinter diesen Konten keine Menschen, sondern Bots, die automatisiert Inhalte verbreiten. Auch wenn niemand ihnen wirklich glaubt, können sie die Stimmung beeinflussen: Etwa indem sie den Eindruck erwecken, man sei mit seiner Meinung in der Minderheit. Anzeichen für Bots sind: immer gleicher Posting-Stil, extrem hohe Posting-Frequenz ohne Unterbruch, generische Nutzernamen mit Zahlenkombinationen. Der wichtigste Tipp: solche Inhalte nicht weiterverbreiten.
Gegen orchestrierte Desinformationskampagnen kann man als Einzelperson wenig ausrichten – ausser, es nicht noch schlimmer zu machen. Fake News sind oft bewusst emotional oder reisserisch formuliert, um das kritische Denken auszuschalten. Gerade bei solchen Inhalten lohnt sich besondere Vorsicht. Doch die Verantwortung liegt nicht allein bei den Nutzerinnen und Nutzern. Social-Media-Plattformen könnten weit mehr tun: Sie könnten aufhören, kontroverse und emotionale Inhalte besonders prominent anzuzeigen. Sie könnten die Verbreitungsgeschwindigkeit von Inhalten drosseln, damit Fakten-Checker und -Checkerinnen Zeit zum Überprüfen haben. Oder sie könnten die Reichweite bestimmter Inhalte begrenzen.
RatgeberLeben & Liebe
Ratgeber Folgen
Der «Ratgeber» ist Lebenshilfe für Menschen von heute. Er gibt Tipps und informiert über Themen, die einen im Alltag beschäftigen. Die Sendung soll anregen, aufklären und motivieren, etwas Neues auszuprobieren.
Folgen von Ratgeber
50 Folgen
-
Folge vom 30.01.2026Mittel gegen Fake News: Wenige verbreiten viel
-
Folge vom 29.01.2026Fake News: Woran erkennt man künstliche Intelligenz?Wasserzeichen auf Videos nützen wenig, perfekte Hände auf Bildern sind längst Realität. Die Hinweise auf KI-generierte Inhalte werden subtiler. Doch es gibt sie noch. Bei Videos lohnt sich der Blick auf die Physik: Bewegen sich Menschen, Tiere und Gegenstände so, wie sie es in der echten Welt tun würden? KI hat kein Verständnis für die physikalische Realität und macht deshalb Fehler bei Bewegungsabläufen. Auch Schriften und Beschriftungen bereiten ihr Mühe. Ein weiteres Problem ist die sogenannte Objektpermanenz: Während eine Kamera einfach filmt, was da ist, muss KI jedes Bild neu berechnen. Dabei kann sie vergessen, was im vorherigen Bild noch zu sehen war – Gegenstände verschwinden plötzlich oder tauchen aus dem Nichts auf. Wasserzeichen, die manche KI-Generatoren inzwischen einblenden, helfen nur bedingt. Versuche zeigen: Viele Menschen übersehen sie oder wissen nicht, was sie bedeuten. Bei Bildern ist die Lage noch schwieriger. Während vor zwei, drei Jahren Hände mit der falschen Anzahl Finger sofort auffielen, sind die Systeme heute deutlich besser geworden. Manchmal verraten noch unleserliche Schriften, verschmolzener Schmuck oder verschwommene Zähne die KI-Herkunft. Doch wichtiger als die Inhalte selbst ist meist der Kontext: Wer hat etwas veröffentlicht? Von welchem Konto stammt es? Was sagen andere Quellen dazu? Wer unsicher ist, sollte vor allem eines nicht tun: den Inhalt selbst weiterverbreiten.
-
Folge vom 28.01.2026KI und Fake News: Wettlauf ohne SiegerDie einen nutzen KI, um täuschend echte Falschinformationen zu erstellen. Die anderen setzen sie ein, um genau diese zu entlarven. Doch eine endgültige Lösung ist nicht in Sicht. Seit es Medien gibt, gibt es auch Falschmeldungen und manipulierte Bilder. Doch künstliche Intelligenz hat die Situation grundlegend verändert: Was früher spezielles Können und Zeit erforderte, gelingt heute auf Knopfdruck. KI kann nicht nur täuschend echte Texte, Bilder und Videos erstellen, sondern diese auch gleich für unterschiedliche Zielgruppen anpassen und über soziale Medien gezielt verbreiten. Die Geschwindigkeit und Leichtigkeit, mit der sich manipulierte Inhalte heute produzieren lassen, stellt eine neue Dimension dar. Gleichzeitig werden KI-Systeme entwickelt, die Inhalte auf ihre Echtheit prüfen – teilweise mit Trefferquoten über 90 Prozent. Doch die Hoffnung auf eine technische Wunderwaffe trügt. Es ist ein Katz-und-Maus-Spiel: Sobald eine neue Erkennungsmethode funktioniert, finden Fälscher bereits Wege, sie zu umgehen. Die Lösung liegt deshalb wohl weniger in der Technik als in der Regulierung von Social-Media-Plattformen und in der Stärkung der Medienkompetenz.
-
Folge vom 27.01.2026Wer verbreitet Fake News?Fake News entstehen aus politischen Motiven, aus Geldgier – und werden oft durch ganz normale Nutzerinnen und Nutzer verbreitet. Fake News sind nicht gleich Fake News. Manche werden bewusst gestreut, um politische Prozesse zu beeinflussen oder Vertrauen in Institutionen zu untergraben. Hinter solchen Kampagnen stehen teils staatliche Akteure, die mit koordinierten Online-Netzwerken Propaganda betreiben. Daneben gibt es private Akteure, die mit Falschmeldungen Geld verdienen wollen. Reisserische Schlagzeilen, manipulierte Bilder oder erfundene Geschichten generieren Klicks und damit Werbeeinnahmen. Die vielleicht wichtigste Rolle spielen jedoch ganz normale Social-Media-Nutzerinnen und -Nutzer. Falsche oder irreführende Inhalte werden oft geteilt, weil sie ins eigene Weltbild passen, provozieren oder unterhalten. Studien zeigen, dass viele Menschen schon einmal Fake News verbreitet haben – oft ohne es zu merken. Obwohl klar falsche Inhalte insgesamt nur einen kleinen Teil der Online-Informationen ausmachen, sind sie besonders sichtbar, weil sie starke Emotionen auslösen und viel Engagement generieren.