Zwei Beiträge veröffentlicht auf der AACL-IJCNLP 2025
Jiahui Li, Sean Papay, Roman Klinger. Are Humans as Brittle as Large Language Models?
Große Sprachmodelle sind anfällig – kleine Änderungen an einer Eingabeaufforderung können die Ausgabe vollständig verändern. Dies wird allgemein als großes Problem bei Modellen angesehen, aber auch Menschen sind „anfällig“: Je nachdem, wie eine Frage gestellt wird, ändert sich auch ihre Antwort. In diesem Artikel untersuchen wir, wie sich die Änderungen der Antworten von Menschen mit denen von LLMs vergleichen lassen – was passiert, wenn die Antwortoptionen Tippfehler enthalten oder ihre Reihenfolge geändert wird? Wir stellen fest, dass Menschen zwar ebenfalls anfällig sind, jedoch in geringerem Maße als LLMs und nicht für dieselbe Art von Änderungen.
In diesem Demo-Papier stellen wir ein System vor, das wir gemeinsam mit dem Leibniz-Institut für Psychologie im Rahmen des Projekts KlARPsy entwickeln. Das KlARPsy-Team erstellt Meta-Reviews zu psychologischen Themen, die auch für Laien leichter verständlich sind. Unser System unterstützt die „Übersetzung” in eine einfachere Sprache und die Extraktion der wichtigsten Fakten mit einem promptbasierten System.
