Dark Mode Light Mode

Wie Künstliche Intelligenz Verschwörungstheorien entlarvt: Geduldig, faktenbasiert und effektiv

Alexandra_Koch (CC0), Pixabay

Sie sind stets freundlich und unendlich geduldig: ChatGPT und ähnliche KI-Systeme können überraschend effektiv sein, wenn es darum geht, Verschwörungstheorien zu widerlegen. Der Grund? Sie sind keine Menschen. Ohne emotionale Reaktionen, mit faktischer Präzision und einer neutralen Haltung bieten sie eine überzeugende Grundlage, um festgefahrene Überzeugungen aufzubrechen.
KI gegen Verschwörungstheorien: Eine neue Strategie?

Ereignisse wie der 11. September oder die COVID-19-Pandemie haben gezeigt, dass Verschwörungstheorien in Krisenzeiten florieren. Ob es sich um die Theorie handelt, der Anschlag auf Donald Trump sei inszeniert, um seine Wahlchancen zu erhöhen, oder Corona sei das Werk geheimer Eliten – Verschwörungstheorien sind schwer aus den Köpfen der Gläubigen zu verdrängen. Doch wie reagieren Menschen, wenn anstelle eines Mitmenschen eine Künstliche Intelligenz (KI) ihre Argumente entkräftet?

Wissenschaftler der MIT Sloan School of Management in Massachusetts wollten genau das herausfinden. Sie baten 2.000 Probanden, ihre bevorzugten Verschwörungstheorien zu beschreiben, und ließen eine Gruppe von ihnen anschließend mit einer KI, in diesem Fall ChatGPT, über diese Theorien diskutieren. Nach dem Gespräch sollten die Probanden auf einer Skala von 0 bis 100 angeben, wie stark sie weiterhin an ihre Theorie glaubten.
Die Ergebnisse: KI als überzeugender Diskussionspartner

Das Ergebnis der Studie war überraschend: Ein achtminütiges Gespräch mit der KI führte dazu, dass der Glaube an die Verschwörungstheorie im Durchschnitt um 20 Prozent sank. Bei einem Viertel der Teilnehmer führte der Austausch mit der KI sogar dazu, dass sie vollständig an ihrer bisherigen Überzeugung zweifelten. Dieser Effekt hielt auch nach zwei Monaten an.

Eine Folgestudie untersuchte, ob der Ton der KI eine Rolle spielte. Die KI wurde einmal freundlich, einmal unfreundlich eingestellt, und in einer dritten Variante verzichtete sie auf Fakten. Das Ergebnis: Am wenigsten überzeugend war die unfreundliche KI und diejenige, die ohne Fakten argumentierte. Dies widerlegte die bisherige Annahme, dass allein Fakten nicht ausreichen, um Verschwörungstheorien zu widerlegen.
Der „Backfire-Effekt“: Nicht so stark wie gedacht?

Bisher ging man davon aus, dass der sogenannte „Backfire-Effekt“ eine große Rolle spielt. Dieser besagt, dass Menschen, die mit widersprüchlichen Informationen konfrontiert werden, eher noch stärker an ihren Überzeugungen festhalten, um kognitive Dissonanz zu vermeiden. Doch neuere Studien zeigen, dass Menschen durchaus bereit sind, ihre Meinung zu ändern – vorausgesetzt, die neuen Informationen werden respektvoll und sachlich präsentiert.

Hier kommt die KI ins Spiel: Sie ist immer geduldig, wird nicht emotional und wird oft als neutral und objektiv wahrgenommen. Diese Eigenschaften ermöglichen es ihr, die Aufmerksamkeit von Verschwörungsgläubigen zu gewinnen und sie ernst zu nehmen, was zu einer offeneren Haltung gegenüber gegensätzlichen Argumenten führt.
Der Unterschied zwischen echten und fiktiven Verschwörungen

Interessanterweise konnte die KI den Glauben an reale, historisch belegte Verschwörungen nicht beeinflussen. Teilnehmer, die an das tatsächlich stattgefundene MK-Ultra-Programm der CIA glaubten, änderten ihre Meinung nicht. Dies zeigt, dass die KI in der Lage war, zwischen realen und fiktiven Verschwörungen zu unterscheiden, was sie als ein weiteres überzeugendes Instrument im Kampf gegen Fehlinformationen positioniert.
KIs als ethische Herausforderung

So beeindruckend die Ergebnisse auch sind, sie werfen gleichzeitig ethische Fragen auf. Wenn Künstliche Intelligenz so effektiv in der Überzeugung von Menschen ist, könnte sie theoretisch auch für manipulative Zwecke eingesetzt werden. KIs könnten im Bereich des „Social Engineering“ verwendet werden, um Menschen gezielt zu beeinflussen oder sensible Informationen zu erlangen.

Auch in der Werbung und politischen Kommunikation könnten solche Systeme eine bedenkliche Rolle spielen, indem sie gezielt Meinungen steuern. Diese potenziellen Gefahren verdeutlichen, dass Künstliche Intelligenz zwar ein wertvolles Werkzeug im Kampf gegen Desinformation sein kann, sie jedoch auch Risiken birgt, die es zu berücksichtigen gilt.
Fazit: Chancen und Grenzen der KI im Kampf gegen Fehlinformationen

Künstliche Intelligenz bietet eine neue, vielversprechende Möglichkeit, Verschwörungstheorien zu entkräften. Mit ihrer Fähigkeit, geduldig und faktenbasiert zu argumentieren, und ihrer Wahrnehmung als neutraler Diskussionspartner hat sie das Potenzial, Menschen auf eine Weise zu erreichen, wie es menschliche Gesprächspartner oft nicht können. Doch gleichzeitig ist es wichtig, den verantwortungsvollen Einsatz dieser Technologie zu gewährleisten und ihre Grenzen zu erkennen. KI allein wird das postfaktische Zeitalter nicht beenden können, aber sie könnte ein wertvolles Werkzeug in dieser Auseinandersetzung sein.

Add a comment Add a comment

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Previous Post

Insolvenzverfahren der Olio Sale Pepe UG: Gericht ordnet weitreichende Maßnahmen zur Vermögenssicherung an

Next Post

Staatsanwaltschaft Tübingen