Logo
Kontakt
  • Deutsch
  • English
    • Seite "Forschung" öffnen
    • Forschungsprofil
    • Konzepte
    • Synthesegruppen
    • Open Science
    • Studien
    • Forschungspartnerschaften
  • Publikationen
    • Seite "Projekte" öffnen
      • Seite "Bereich A - Erklärprozess" öffnen
      • A01 - Adaptives Erklären
      • A02 - Verstehensprozess einer Erklärung beobachten und auswerten
      • A03 - Ko-Konstruktion von Erklärungen zwischen KI-Erklärer*in und menschlichen Erklärungsempfänger*innen mit und ohne Erregung
      • A04 - Ko-Konstruktion von dualitätsgestützten Erklärungen
      • A05 - Kontextualisiertes Scaffolding im Mensch-Roboter-Erklärdialog
      • A06 - Erklärungen des multimodalen Ausdrucks von Stress in klinischen Erklärungen
      • Seite "Bereich B - Soziale Praktik" öffnen
      • B01 - Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären
      • B03 - Nutzer*innen und Erklärbedürfnisse in real-weltlichen Kontexten
      • B05 - Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter
      • B06 - Ethik und Normativität der erklärbaren KI
      • B07 - Kommunikative Praktiken des Erfragens von Informationen und Erklärungen von LLM-basierten Agenten
      • Seite "Bereich C - Darstellung und Berechnung von Erklärungen" öffnen
      • C01 - Erklärungen zur Unterstützung gesunden Misstrauens in Large Language Models
      • C02 - Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen
      • C03 - Interpretierbares maschinelles Lernen: Veränderung erklären
      • C04 - Metaphern als Mittel zur Erklärung
      • C05 - Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden
      • C06 - Technisch unterstütztes Erklären von Stimmcharakteristika
      • C07 - Ko-Konstruktions-optimierte große Sprachmodelle für Erklärungen
      • Seite "Übergreifende Projekte" öffnen
      • Z - Zentrales Verwaltungsprojekt
      • RTG - Integriertes Graduiertenkolleg
      • WIKO - Fragen zu erklärbaren Technologien
      • INF - RAG-basierte Informationbereitstellung
      • Seite "Assoziierte Projekte" öffnen
      • Entwicklung symmetrischer mentaler Modelle
      • Human-Centric Explainable AI
  • Graduiertenkolleg
  • Mitglieder
  • Konferenzen
  • Co-Construction Workshops
  • KI-Forum
    • Seite "Medien" öffnen
    • Newsletter
    • Broschüre
    • Public Events
    • Podcast Explaining Explainability
    • YouTube
    • LinkedIn
    • Instragram
  • News
  • Termine
  • Stellen
  1. Sonderforschungsbereich/TRR 318 „Constructing Explainability”
Zurück zur News-Liste

TRR 318 wünscht fro­he Fest­ta­ge

21.12.2023

Beitrag teilen auf:

  • Teilen auf Instagram
  • Teilen auf Twitter
  • Teilen auf Facebook
  • Teilen auf Xing
  • Teilen auf LinkedIn
  • Teilen über E-Mail
  • Link kopieren
  • Teilen via Web API

In diesem Jahr gab es viele Fortschritte in unserer Forschung, eine zweite TRR 318 Konferenz und vieles mehr. Ein kurzer Rückblick auf unser Jahr 2023.

Download (53 KB)

Sonderforschungsbereich Transregio 318

Zukunftsmeile 2
33102 Paderborn
Deutschland

Rechtliches
  • Impressum
  • Datenschutz
  • Erklärung zur Barrierefreiheit
Soziale Netzwerke