Interview zu Künstlicher Intelligenz und ChatGPT

Für das Science Media Center ordnet Andreas Jungherr die Rolle von Künstlicher Intelligenz und ChatGPT für die Erstellung und Verbreitung von Desinformation ein

In der aktuellen Diskussion über die Potenziale und Risiken von künstlicher Intelligenz (KI) geht es auch immer wieder um die Gefahr durch Desinformation. Dabei besteht insbesondere die Sorge, dass Desinformation anhand von Sprachmodellen leichter in größerer Menge und in besserer Qualität generiert werden kann. Auch andere Arten von KI wie Bildgeneratoren oder Software für die Erstellung von Deepfakes könnten im Kontext von Desinformation eine Rolle spielen, wenn immer realistischer wirkende Bilder und Videos leicht per KI erstellt werden können.

Doch die Wirkung von Desinformation hängt von vielen Faktoren ab, nicht nur von der Schwierigkeit der Erstellung. So kann beispielsweise auch die Verbreitung der Inhalte oder der Glaube der Zielgruppe an deren Richtigkeit eine Rolle spielen. Daher stellt sich die Frage, welche Bedeutung einzelnen Faktoren zukommt und welche Rolle die durch KI-Methoden erleichterten Erstellung spielt.

Da das Thema insbesondere in Hinblick auf die Rolle von Sprachmodellen noch recht neu ist, gibt es bisher noch nicht viel abgeschlossene Forschung zu dem Thema. Doch mit Blick auf bisherige Forschung zur Wirkung und Verbreitung von Desinformation können Forschende bereits jetzt erste Prognosen liefern und den Stand der Forschung und der Debatte einschätzen. Daher haben wir Wissenschaftlerinnen und Wissenschaftler, die zu Desinformation forschen, um ihre ersten Einschätzungen zu diesem Thema gebeten.

Link zum Beitrag: Desinformation: Welche Rolle können Sprachmodelle und KI spielen?