Metaphern beschreiben komplexe Sachverhalte in verständlicher Sprache. Sie nutzen einfache, bildhafte Formulierungen aus einem konkreten Themenbereich, einer Quelldomäne, und projizieren sie auf das zu beschreibende Thema, die Zieldomäne. „Indem wir Quell- und Zieldomäne unterscheiden, können Metaphern leichter maschinell verarbeitet werden“, sagt Meghdut Sengupta, wissenschaftlicher Mitarbeiter im Teilprojekt C04. Gemeinsam mit Projektleiter Prof. Dr. Henning Wachsmuth und Milad Alshomary von der Arbeitsgruppe „Natural Language Processing“ an der Leibniz Universität Hannover hat er untersucht, inwieweit Quelldomänen aus einem Text mit Metaphern rechnerisch vorhergesagt werden können.
Dafür schlagen die Computerlinguisten einen kontrastiven Lernansatz vor: Die Maschine lernt, was einen gegebenen Satz semantisch ähnlich zur richtigen Quelldomäne macht – und unähnlich zu anderen Quelldomänen – mit dem Ziel, für alle bekannten Quelldomänen die Wahrscheinlichkeit einzustufen, im metaphorischen Text behandelt zu werden. „Es hat sich gezeigt, dass dieser Ansatz gut geeignet ist, auch seltene Quelldomänen zuverlässig zu erkennen“, so Projektleiter Wachsmuth. „Damit tragen wir zu einem besseren rechnerischen Verständnis metaphorischer Sprache bei.“
Ihre Forschung haben Sengupta, Alshomary und Wachsmuth im Artikel „Back to the Roots: Predicting the Source Domain of Metaphors using Contrastive Learning“ festgehalten. Vorgestellt wurde er auf dem Workshop zu „Figurative Language“ der Konferenz „Empirical Methods in Natural Language Processing“ (EMNLP). Die Konferenz wurde als hybride Veranstaltung vom 7.-11. Dezember in Abu Dhabi abgehalten. Weiterführende Ansätze sind bereits in Arbeit.