Warum Fake News Viral Werden: Wissenschaft Erklärt

{h1}

Sachen werden viral wegen der begrenzten aufmerksamkeitsspanne der menschen und der schiere überlastung von informationen in den sozialen medien.

Die begrenzte Aufmerksamkeitsspanne der Menschen sowie die schiere Überfülle von Informationen in den sozialen Medien können dazu führen, dass gefälschte Nachrichten und Scherze viral werden, so eine neue Studie.

Wenn man versteht, warum und wie sich gefälschte Nachrichten verbreiten, könnten Forscher eines Tages dabei helfen, Werkzeuge zu entwickeln, um deren Verbreitung zu bekämpfen.

Die neuen Forschungsergebnisse deuten beispielsweise darauf hin, die Verwendung von Social Bots einzudämmen - Computerprogramme, die automatisch Meldungen wie Tweets generieren, die soziale Medien mit Informationen von geringer Qualität überfluten -, um die Verbreitung von Fehlinformationen zu verhindern, sagten die Forscher. [Unsere beliebtesten städtischen Legenden entlarvt]

"Das Erkennen von Social Bots ist jedoch eine sehr anspruchsvolle Aufgabe", sagte der Mitautor der Studie, Filippo Menczer, Professor für Informatik und Informatik an der School of Informatics and Computing der Indiana University.

Frühere Forschungen haben gezeigt, dass einige der kognitiven Prozesse der Menschen dazu beitragen können, die Verbreitung von Fehlinformationen wie gefälschte Nachrichten und Hoaxes zu verewigen, so die heute (26. Juni) in der Zeitschrift Nature Human Behavior veröffentlichte Studie. Zum Beispiel neigen die Menschen dazu, "Bestätigungsvoreingenommenheit" zu zeigen und achten nur auf die Informationen, die mit ihren Überzeugungen übereinstimmen, und geben diese Informationen weiter, während sie Informationen verwerfen, die nicht mit ihren Überzeugungen übereinstimmen. Studien zeigen, dass Menschen dies auch dann tun, wenn die Informationen, die ihren Glauben bestätigen, falsch sind.

In der neuen Studie untersuchten die Forscher einige andere mögliche Mechanismen, die zur Verbreitung von Fehlinformationen beitragen könnten. Die Forscher entwickelten ein Computermodell, in dem Meme geteilt werden, um zu sehen, wie die individuelle Aufmerksamkeit und die Informationslast, mit der Benutzer von sozialen Medien konfrontiert sind, die Beliebtheit von Memes mit niedriger Qualität im Vergleich zu qualitativ hochwertigen Memes beeinflussen. Die Forscher betrachteten Memes von höherer Qualität, wenn sie origineller waren, schöne Fotos hatten oder eine Aussage machten, die der Wahrheit entsprach.

Die Ermittler stellten fest, dass Meme mit niedriger und hoher Qualität gleichermaßen wahrscheinlich geteilt werden, da die Aufmerksamkeit der Benutzer von Social Media begrenzt ist und die Menschen einfach zu überladen mit Informationen sind, um zwischen Memes mit niedriger und hoher Qualität unterscheiden zu können. Diese Erkenntnis erklärt, warum sich schlechte Informationen wie gefälschte Nachrichten trotz ihrer geringen Qualität weiterhin verbreiten, so die Forscher.

Die Menschen könnten dabei helfen, besser zwischen minderwertigen und qualitativ hochwertigen Informationen in sozialen Medien zu unterscheiden, indem sie den Informationsaufwand reduzieren, dem sie ausgesetzt sind, so die Forscher. Ein wichtiger Weg, dies zu tun, könnte darin bestehen, das Volumen von Social-Media-Posts zu reduzieren, die von Social Bots erstellt werden, um Informationen zu verstärken, die oft falsch und irreführend sind, sagte Menczer.

Social Bots können auf Social-Media-Sites wie Twitter als Follower fungieren oder als gefälschte Social-Media-Konten mit eigenen Followern betrieben werden. Die Bots können menschliches Verhalten online nachahmen und eigene Online-Personas generieren, die wiederum reale menschliche Nutzer von Social Media beeinflussen können. [25 medizinische Mythen, die einfach nicht verschwinden]

"Riesige Zahlen" dieser Bots können mit einer speziellen Software verwaltet werden, sagte Menczer.

"Wenn Social-Media-Plattformen betrügerische Social Bots erkennen und aussetzen könnten, würde das System weniger qualitativ schlechte Informationen enthalten, um qualitativ hochwertige Informationen auszudrücken", sagte er gegenüber WordsSideKick.com.

Das Erkennen und Aussetzen solcher Bots ist jedoch eine Herausforderung, sagte er. Obwohl maschinelle Lernsysteme zum Erkennen von Social Bots existieren, sind diese Systeme nicht immer genau. Social-Media-Plattformen müssen bei der Verwendung solcher Systeme konservativ sein, da die Kosten eines falsch positiven Fehlers - mit anderen Worten die Sperrung eines legitimen Kontos - im Allgemeinen viel höher sind als die des Fehlens eines Bots, sagte Menczer.

Weitere Forschungen seien erforderlich, um schnelle und genauere Systeme zur Erkennung sozialer Bots zu entwickeln, sagte er.

Ursprünglich veröffentlicht am Live-Wissenschaft.


Videoergänzungsan: Falschmeldungen im Netz? Meine Timeline lügt!?!.




DE.WordsSideKick.com
Alle Rechte Vorbehalten!
Die Wiedergabe Von Irgendwelchen Materialien Erlaubt Nur Prostanovkoy Aktiven Link Zu Der Website DE.WordsSideKick.com

© 2005–2019 DE.WordsSideKick.com