4. Fol­ge des Pod­casts „Ex­plai­ning Ex­plaina­bi­li­ty“: Ko-Kon­struk­ti­on bei Sprach­mo­del­len

Haben wir mit ChatGPT und DeepSeek bereits eine Lösung für eine erklärbare KI gefunden, die unseren Anforderungen an eine KI, die sich selbst erklären kann, gerecht wird? Diese Frage diskutiert Moderatorin Prof. Dr.-Ing. Britta Wrede mit ihren Gästen Prof. Dr. Henning Wachsmuth und Prof. Dr. Axel Ngonga Ngomo in der vierten Folge des Podcasts „Explaining Explainability“.

Die Expert*innen beleuchten aus verschiedenen Perspektiven, inwiefern Sprachmodelle, auch bekannt als LLMs (Large Language Models), bereits jetzt ko-konstruieren, wo ihre Grenzen liegen und wie sie weiterentwickelt werden können. Beide Projektleiter*innen stellen zudem ihre Forschung zur Ko-Konstruktion im TRR 318 vor. Hörer*innen erfahren beispielsweise, wie Metaphern zur ko-konstruierten Erklärung beitragen und welches Projekt in der zweiten Förderphase des TRR 318 geplant ist.

Jetzt anhören: Zum Podcast