KI ist...
Wer „KI ist” in eine Suchmaschine eingibt, erhält direkt automatische Ergänzungen. Nicht selten tauchen hier Vorurteile auf, die von unseren Forscher*innen eingeordnet werden.

KI ist... nur etwas für Informatiker
KI-Systeme werden von Informatiker*innen programmiert, das ist richtig. Genutzt wird KI aber in vielen Bereichen, wie zum Beispiel der Medizin. Für viele Anwender*innen sind KI Systeme oft komplex und undurchsichtig. Die Erkenntnisse aus unserer Forschung tragen dazu bei, Erklärprozesse zu durchschauen und damit KI interaktiver und begreifbarer zu machen. Dafür untersuchen wir zunächst, was nachvollziehbare Erklärungen zwischen Menschen, aber auch zwischen Mensch und Maschine ausmacht. Unser Ziel ist, dass KI in ihren Erklärungen Reaktionen und Nachfragen von Nutzer*innen berücksichtigt. Für diese Aufgabe haben wir im TRR 318 ein breites interdisziplinäres Team mit Forschenden aus Linguistik, Psychologie, Medienwissenschaft, Wirtschaftswissenschaft und Informatik aufgestellt.

KI ist... die neue Kollegin meines Arztes
Ärzt*innen treffen Entscheidungen über Menschenleben: Die Diagnose einer Krankheit oder das Aufstellen eines Behandlungsplans gehören zum medizinischen Alltag. Wenn wir sagen, dass wir künstliche Intelligenz (KI) in der Medizin einsetzen wollen, heißt das nicht, dass KI die Mediziner*innen ersetzt und selbst Entscheidungen trifft. Vielmehr soll KI Ärz*tinnen mit zusätzlichen Informationen unterstützen oder auf mögliche Krankheitsbilder hinweisen. Und auch Ärzt*innen sollen der KI Fragen stellen können, sodass die KI und das medizinische Personal gemeinsam Lösungen erarbeiten. Die medizinischen Entscheidungen selbst müssen letztlich immer von Menschen getroffen werden.

KI ist... viel Arbeit
ChatGPT und andere generative Modelle suggerieren, dass KI-Systeme einfach ‚funktionieren'. In allen Anwendungsbereichen, in denen eine KI innerhalb eines gegebenen Rahmens zuverlässig und robust eingesetzt werden muss, ist aber Training, Überwachung und Pflege der KI notwendig. Dafür müssen wir verstehen, was Nutzer*innen benötigen und wie sie mit der KI interagieren werden. Wir müssen eine Strategie entwickeln, um effizient Trainingsdaten für die KI zu generieren, bei denen der Mensch die erwartete Lösung vorgibt. Es müssen die richtigen Modelle, Algorithmen und Bewertungsfunktionen für das Training der KI ausgewählt werden. Das trainierte Modell muss auf sogenannte ‚ungesehene' Daten evaluiert werden, um die Robustheit, Generalisierbarkeit und Fehlerhaftigkeit der KI festzustellen, bevor sie in die Anwendung gebracht wird. Im sogenannten Lebenszyklus der KI müssen wir zudem die Performanz der KI konstant überwachen. Die KI muss regelmäßig neu oder weiter trainiert werden, um gewisse Fehler zu vermeiden oder um sie an zeitliche Veränderungen der Daten, dem Anwendungskontext oder der Nutzung anzupassen. Das ist dann ‚Training on the Job' für die KI.

KI ist... ethisch herausfordernd
Aktuell werden KI-Systeme in vielen Bereichen in atemberaubendem Tempo top-down eingeführt. Das bedeutet, dass eine zentrale Instanz entscheidet und alle untergeordneten Bereiche folgen. KI-Systeme haben aber oft eine erhebliche politische und gesellschaftliche Tragweite. Die Auswirkungen können wir noch gar nicht richtig einschätzen und sie werden im aktuellen Hype kaum berücksichtigt. Eine der größten ethischen Herausforderungen besteht derzeit in der rasanten Verbreitung bei (noch) fehlender Regulierung und Evaluation dieser Systeme. Unser Ziel ist es daher, KI-Systeme interdisziplinär und ko-konstruktiv zu entwickeln. Das heißt: Wir möchten eng mit den zukünftigen Nutzer*innen zusammenarbeiten, die Systeme auf sie abstimmen und gemeinsam auswerten. Damit bauen wir zum einen das Potenzial für eine demokratisch legitimierte gesellschaftliche Nutzung von KI-Systemen auf. Zum anderen können wir so die Expertise, Praktiken und gesellschaftlich relevanten Anforderungen in die technische Gestaltung der Systeme einbringen. Letztlich können wir damit auch das technische Entwicklungspotenzial von KI-Systemen besser erschließen.

KI ist... oft unverständlich
Wir alle haben täglich mit „Künstlicher Intelligenz“ zu tun. Sie empfiehlt mir zum Beispiel „Bücher, die mir gefallen könnten“, entscheidet, dass mein Smartphone erst einmal nur zu 80 Prozent aufgeladen wird, zeigt mir Werbung für Dinge, über die ich mich gestern im Café unterhalten habe, und beantwortet mir auf Zuruf Fragen. Manche Handlungen der KI sind nachvollziehbar (ich habe bereits ein eBook dieser Autorin gekauft), andere nicht (hört mein Smartphone meine Gespräche im Café etwa mit?). Die Verständlichkeit von KI ist dabei nicht immer wichtig (Hauptsache, das Smartphone ist morgen früh voll aufgeladen), für eine verantwortungsvolle Nutzung oft aber schon (kann ich den Antworten eines Large Language Models vertrauen?). Erklärbare KI hat das Ziel, Künstliche Intelligenz für Nutzer*innen verständlich zu machen und durch Erklärungen den Verstehensprozess zu ermöglichen. Im Idealfall wird dabei sowohl Wissen darüber erworben, wie die KI funktioniert (comprehension) als auch Wissen darüber, wie die KI genutzt werden kann (enabledness). Beide Formen des Verstehens greifen ineinander, bedingen sich gegenseitig und ermöglichen erst dadurch eine bewusste und verantwortliche Nutzung von KI und führt zu Handlungsfähigkeit (agency).

KI ist... dafür da, meine Hausaufgaben zu machen
Obwohl KI zweifellos auch nützlich sein kann, um Hausaufgaben zu erledigen, ist die Bedeutung der Technologie und ihr Potenzial weitaus größer als nur die Erledigung von Hausaufgaben. Mit KI können komplexe Probleme gelöst, medizinische Diagnosen unterstützt und Innovationen vorangetrieben werden. Dennoch beschäftigen sich derzeit viele Lehrende in Schule und Hochschule mit digitalen Technologien und KI. Oft geht es dabei um die Frage, wie KI konkret dazu genutzt werden kann, Lernprozesse zu gestalten oder auch die bestehende Prüfungskultur zu verändern. Will man Aufgaben, gerne auch Hausaufgaben lösen, dann erfordert das zunächst ein Problembewusstsein, dieses Bewusstsein für ein Problem und das Verständnis über eine oder mehrere Lösungsansätze sind dabei eine grundlegend menschliche Herausforderung. Hausaufgaben fördern die Entwicklung von Selbstständigkeit und Eigenverantwortung. Schüler*innen müssen lernen, ihre Zeit effektiv zu nutzen und ihre Aufgaben eigenständig zu bewältigen, was wichtige Fähigkeiten für das spätere Leben sind. Hausaufgaben sollten auch ein wichtiges Instrument sein, um den Lernfortschritt der Schüler*innen zu verfolgen und individuelles Feedback zu geben. Daraus konstituiert sich unter anderem ein Betreuungs- und Vertrauensverhältnis zwischen Lehrkräften und Schüler*innen. Wird dieser Prozess ausgelagert, dann hat das Auswirkungen auf die persönlichen Beziehungen und das pädagogische Verhältnis. Eine geschickte, sinnvolle wie auch innovative Integration von KI erfordert klare Regeln, das Bewusstsein für ethische Dimensionen im Umgang mit den Technologien und gezielte Integrationen in didaktische Konzepte. Damit Schülerinnen und Schüler einen guten Umgang mit neuen Technologien erlernen können, braucht es auch geeignete Fortbildungsangebote für Lehrkräfte.

KI ist... mein größer Konkurrent
Die Diskussion, dass Menschen sich regelmäßig von Technologien (Computer, Roboter, KI) bedroht fühlen, ist eigentlich ganz interessant, denn mit jeder neueren Technologie scheinen wir uns nochmal versichern zu müssen, was uns besonders macht. Spannend, dass wir das nicht wissen, sondern immer wieder neu glauben, es erklären und rechtfertigen zu müssen, z.B. indem wir sagen ‚aber diese Technik kann nicht kreativ sein‘, ‚aber diese Technik kann nicht fühlen‘ oder ‚aber diese Technik hat zu wenig Wissen über die Welt‘. Besonders auffällig ist das an Arbeitsplätzen, an denen Menschen schon zuvor befürchtet haben, durch alle möglichen Technologien ersetzt zu werden, weil Technik einzelne Aufgaben oder manchmal auch ganze Jobs ersetzt. Faktisch ist es allerdings so, dass sich alle Arbeitsplätze ständig verändern und auch neue Berufsfelder entstehen. Beispielsweise hat bei der Einführung der Computer niemand daran gedacht, dass mal eine große Menge Menschen als Appentwickler arbeiten wird. Es ist sicher, dass KI die Art, wie wir arbeiten verändert. Vermutlich wird sich in vielen Fällen auch ändern, was wir tun, allerdings eher in der Aufteilung zwischen Menschen und KI und nicht so, dass Menschen und KI bei genau gleichen Aufgaben in Konkurrenz zueinander stehen.