Interaktive Prompt-Optimierung mit dem Menschen in der Schleife für die Entwicklung und Intervention von Modellen zum Verständnis natürlicher Sprache (INPROMPT)

Das Paradigma des Few-Shot oder Zero-Shot-Lernens zur Erstellung von Modellen in dem Algorithmischen Sprachverstehen geht davon aus, dass keine oder wenige annotierte Texte für das zu lösende Problem zur Verfügung stehen. Methoden dieses Themengebiets treten somit die Herausforderung an, den hohen Datenbedarf, den die Optimierung von tiefen neuronalen Netzen mit sich bringt, zu relaxieren. Ein typischer Ansatz ist es, vortrainierte neuronale Sprachmodelle zu nutzen und mit Hilfe eines Prompts dazu zu bringen, ein Wort zu generieren, welches eine Textinstanz beschreibt. So kann man zum Beispiel Sentiment-Polaritätsklassifikation betreiben, in dem man eine Textinstanz wie zum Beispiel "Die Person ist mit dem Produkt sehr zufrieden." mit einem Prompt verknüpft und überprüft, ob der Satz "Das Produkt ist gut" oder "Das Produkt ist schlecht" zu einer höheren Wahrscheinlichkeit führt. Die Erstellung solcher Prompts bringt den Vorteil mit sich, dass nicht unbedingt technisches Expertenwissen vorausgesetzt wird, allerdings ist es dennoch nicht trivial, gute Prompts zu erstellen. Die bestehende Forschung hat das Problem aus zwei Perspektiven bearbeitet: (1) Anpassen von existierenden Sprachmodellen mit Hilfe von (wenigen) annotierten Daten und manuell erstellten Promptmengen und (2) mit Hilfe von datengetriebener automatischer Erstellung von Prompts. Wir verknüpfen diese beiden Forschungsrichtungen und setzen in unserem Projekt an der typischen Situation an, dass eine Sprachverstehensaufgabe vage formuliert ist, eine genauere Spezifikation aber noch aussteht, und auch keine annotierten (aber sehr wohl nichtannotierte) Texte zur Verfügung stehen. Wir setzen uns als Ziel, ein System zu entwickeln und zu analysieren, welche Domänenexperten ohne technische Ausbildung im maschinellen Lernen automatisch anzuleitet, gut funktierende Prompts zu erstellen. Hierzu nutzen wir Optimierungsverfahren, die iterativ Prompts verändern und mit Hilfe einer Zielfunktion deren Qualität abschätzen. Diese Abschätzung erfolgt auf Basis von automatischen Vorhersagen auf Textinstanzen, auf Basis der Lesbarkeit des Prompts, und auf Basis der Schlüssigkeit einer Erklärung der Entscheidungsfindung. Die auf diesen Faktoren aufbauende Zielfunktion wird in unserem Projekt aber nicht automatisch evaluiert, sondern durch einen "Menschen in der Schleife" ersetzt. Um das Problem der iterativen Optimierung von Prompts in größerem Stil zu studieren, simulieren wir die Entscheidungen des Menschen allerdings auch mit Hilfe von automatischen Approximationen der menschlichen Zielfunktion. Wir erwarten, dass unser Projekt die Transparenz von Prompt-basierten Modellen deutlich verbessert und zu der Demokratisierung der Verwendung von maschinellen Lernverfahren beiträgt.

Das Projekt startet im Juli 2024 und wird durch die Deutsche Forschungsgemeinschaft finanziert (KL 2869/13-1).

Publikationen, die in Verbindung zu diesem Projekt stehen

Menchaca Resendiz, Yarik/Klinger, Roman (2023a): Affective Natural Language Generation of Event Descriptions through Fine-grained Appraisal Conditions. In: Proceedings of the 16th International Natural Language Generation Conference. Prag: Association for Computational Linguistics. S. 375–387.

Menchaca Resendiz, Yarik/Klinger, Roman (2023b): Emotion-Conditioned Text Generation through Automatic Prompt Optimization. In: Proceedings of the 1st Workshop on Taming Large Language Models: Controllability in the era of Interactive Assistants! Prag: Association for Computational Linguistics. S. 24–30.

Kadiķis, Emīls/Srivastav, Vaibhav/Klinger, Roman (2022): Embarrassingly Simple Performance Prediction for Abductive Natural Language Inference. In: Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Seattle: Association for Computational Linguistics. S. 6031–6037.

Plaza-del-Arco, Flor Miriam/Martín-Valdivia, María-Teresa/Klinger, Roman (2022): Natural Language Inference Prompts for Zero-shot Emotion Classification in Text across Corpora. In: Proceedings of the 29th International Conference on Computational Linguistics. Gyeongju: International Committee on Computational Linguistics. S. 6805–6817.