Expert in the Loop
Um KI-Modelle in einer auf Sicherheit und Qualität bedachten Fertigung für die Aerospace-Branche einsetzen zu können, müssen diese Modelle nachvollziehbar bzw. erklärbar gemacht werden. Im letzten Jahrzehnt wurde eine breite Palette von Ansätzen definiert, um KI-Modelle für den Menschen verständlich zu machen. Diese Ansätze sind vielversprechend, haben aber zwei Nachteile, die sie für den industriellen Einsatz unattraktiv machen. Erstens sind sie oft zu komplex, um sie zu verstehen und zweitens, was noch wichtiger ist, berücksichtigen sie nicht die unterschiedlichen Präferenzen, Fachkenntnisse und Interessen der Benutzer (engl. to reason about a model). Je nach Aufgabe und Fachkenntnis möchte der Benutzer beispielsweise die Eingaben, die interne Modellstruktur, die Modellausgaben oder den Trainingsalgorithmus verstehen. Diese nutzerzentrierten Interessen stellen unterschiedliche, teils gegensätzliche, Ansprüche an eine Interaktionsschnittstelle. In den bisherigen Forschungsergebnissen wurden die nutzerzentrierten Interessen allerdings nicht ausreichend berücksichtigt. Hier setzen wir mit Projekt BrAIN an. Wir wollen nicht nur die Ergebnisse des KISystems nachvollziehbar machen, sondern möchten einen Schritt weitergehen und die Interaktion/Visualisierung an den jeweiligen Nutzer (z.B. Maschinenbediener oder Technologe in der Prozessauslegung) und dessen Aufgaben anpassen sowie die Interaktion in das KI-System selbst einbinden. Dies soll den Nutzern einerseits ermöglichen sich das System und seine Entscheidungen zu erklären, andererseits erhält das System Feedback, von dem es lernen kann. Dazu wird ein Rahmen definiert, der die speziellen Ziele des Benutzers mit verschiedenen xAI-Techniken (z. B. LIME, feature perturbations, LRP) verbindet. Das Resultat soll ein interaktives xAI-Tool sein, das den Expert-User in der Loop hält und ihm ermöglicht mit dem System zu interagieren, indem er z. B. Vorschläge des Systems annimmt oder ablehnt und diese Entscheidungen begründet.
Zunächst wird dazu identifiziert, was genau der Benutzer verstehen möchte bzw.
sollte, z. B. endgültige Modellausgabe oder nur Teilergebnisse. Diese Information
kann mit Hilfe einer Feedback-Schnittstelle geholt werden. Weiters kann der Benutzer
die Schnittstelle verwenden um (i) explorative Fragen zu stellen deren Antwort zum
Verständnis des KI-Modells beitragen kann (was, wie und warum), oder (ii)
Rückmeldungen oder Vorschläge an das KI-System zu senden. Das letztere veranlasst,
dass sich das System laufend verbessert. Als nächstes werden eine Reihe von
individuellen Argumentationsmethoden und Erklärungstypen (z. B. Visualisierungen)
definiert, die den Zielen, Präferenzen und Bedürfnissen des Benutzers am besten
gerecht werden können.
Auf die Gestaltung dieser Feedback-Schnittstelle ist dabei besonderer Wert zu legen.
Hier entscheidet sich, ob der Benutzer dieses Tool annehmen wird und ob es deren
Anforderungen entspricht. Es bedarf einer genauen Erhebung der Benutzertypen und
derer Bedürfnisse, um eine benutzerfreundliche Schnittstelle schaffen zu können. Für
diese Erhebung binden wir Experten der Virtual Vehicle Forschungs GmbH (ViV)
(Drittleister) ein, die einiges an Erfahrung in der Gestaltung von benutzerfreundlichen
Schnittstellen mitbringen. Die Experten des ViV werden vor Ort bei BSTG die
Anforderungen der Benutzer und die unterschiedlichen Benutzertypen erheben und
Empfehlungen für die Ausgestaltung der Schnittstelle geben sowie die laufende
Entwicklung beratend begleiten.
Ein interaktives xAI-Tool mit Expert in the Loop, das sich an die jeweiligen
Anforderungen der Benutzer anpasst und mit einem KI-System interagiert, wäre eine
große Innovation. Ein solches Tool könnte die industrielle Nutzung und Transparenz
von KI-Systemen fördern und maßgeblich zur Verbreitung von KI-basierten
Optimierungsalgorithmen beitragen.
Eine Herausforderung bei diesem Vorhaben stellt die Definition von Metriken dar, die
bestimmen sollen, was die beste Erklärung für einen bestimmten Benutzer ist. Das
Wissen und die Präferenzen der Benutzer können sich im Laufe der Zeit ändern,
wodurch die Erklärungen dynamisch an das neue Benutzerprofil angepasst werden
müssen. Eine weitere Herausforderung stellt das Herausholen des Benutzer
Feedbacks/Inputs dar. Benutzer sind nicht immer bereit ein Feedback zu geben,
obwohl dadurch ihre Chancen steigen, Dienste und Informationen zu erhalten, die ihre
Wünsche und Bedürfnisse besser ansprechen. Dies stellt uns vor der Herausforderung,
Methoden zu definieren, die die Bereitschaft des Benutzers zur direkten Interaktion
mit dem KI-System erhöhen. Dabei müssen die sozialen, psychologischen oder
kognitiven Faktoren des Menschen besonders beachtet werden.