Zwei Beiträge veröffentlicht auf der AACL-IJCNLP 2025

BamNLP veröffentlicht zwei Beiträge auf der AACL-IJCNLP-Konferenz in Mumbai, Indien.

 

Jiahui Li, Sean Papay, Roman Klinger. Are Humans as Brittle as Large Language Models?

Große Sprachmodelle sind anfällig – kleine Änderungen an einer Eingabeaufforderung können die Ausgabe vollständig verändern. Dies wird allgemein als großes Problem bei Modellen angesehen, aber auch Menschen sind „anfällig“: Je nachdem, wie eine Frage gestellt wird, ändert sich auch ihre Antwort. In diesem Artikel untersuchen wir, wie sich die Änderungen der Antworten von Menschen mit denen von LLMs vergleichen lassen – was passiert, wenn die Antwortoptionen Tippfehler enthalten oder ihre Reihenfolge geändert wird? Wir stellen fest, dass Menschen zwar ebenfalls anfällig sind, jedoch in geringerem Maße als LLMs und nicht für dieselbe Art von Änderungen.


Yarik Menchaca Resendiz, Martin Kerwer, Anita Chasiotis, Marlene Bodemer, Kai Sassenberg, Roman Klinger: Supporting Plain Language Summarization of Psychological Meta-Analyses with Large Language Models.

In diesem Demo-Papier stellen wir ein System vor, das wir gemeinsam mit dem Leibniz-Institut für Psychologie im Rahmen des Projekts KlARPsy entwickeln. Das KlARPsy-Team erstellt Meta-Reviews zu psychologischen Themen, die auch für Laien leichter verständlich sind. Unser System unterstützt die „Übersetzung” in eine einfachere Sprache und die Extraktion der wichtigsten Fakten mit einem promptbasierten System.