Deradikalisierung: KI argumentiert gegen Verschwörungsmythen (Allgemein)

Gast, Dienstag, 24.09.2024, 14:17 (vor 14 Stunden, 27 Minuten)

Wie schön wäre es, wenn wir die zermürbenden Gespräche mit Menschen, die an Verschwörungstheorien glauben, einer künstlichen Intelligenz (KI) überlassen könnten? Dieser Traum könnte früher als gedacht in Erfüllung gehen.

Ob mit Fremden aus dem Internet, Bekannten, Freunden oder auch Verwandten: Jeder von uns kennt jemanden, der an Verschwörungstheorien glaubt. Diskussionen mit solchen Personen können sehr kräftezehrend sein, weil sie sich scheinbar von keinem Argument der Welt überzeugen lassen, dass die Mondlandung echt war und Corona keine „Plandemie“. Aber diese Gespräche gar nicht zu führen, ist auch nicht die beste Entscheidung, denn so versinkt manch eine Person nur noch tiefer in ihrer Bubble, bis es irgendwann vielleicht wirklich zu spät ist.

Künstliche Intelligenz (KI) taucht in Diskussionen um die Verbreitung von Verschwörungstheorien und Fake News immer wieder auf, allerdings nicht im Positiven: Studien haben gezeigt, dass KIs gerne auch „halluzinieren“, also Falschinformationen generieren können. Das könnte sich aber noch ändern, denn eine Studie sieht in Large Language Models (LLMs) – also Chatbots wie ChatGPT – eine Möglichkeit zur Deradikalisierung.

An dieser Studie waren Forscher*innen der Queensland University of Technology und der American University beteiligt. Falls du der englischen Sprache mächtig bist und dich von Fachjargon nicht abschrecken lässt, kannst du die Studie in ihrer Gesamtheit im Wissenschaftsjournal Science nachlesen. Die Fachzeitschrift Nature hat über diese Studie ebenfalls bereits berichtet, eine Zusammenfassung und Aufarbeitung bekommst du hier.

RSS-Feed dieser Diskussion

powered by my little forum