In einem spannenden Gespräch mit PlasticObs+ gibt Carolin Leluschko, Informatikerin beim Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), spannende Einblicke in die Welt der erklärbaren Künstlichen Intelligenz (eXplainable AI, kurz: XAI).
Leluschko arbeitet intensiv an den Plastikprojekten des DFKI, mit dem Ziel, KI-Systeme nicht nur zu entwickeln, sondern auch deren Anwendbarkeit und Funktionalität auf verschiedenen Plattformen zu erweitern.
Ein zentraler Punkt Leluschkos Arbeit ist die XAI, bei der es darum geht, die oft komplexen und unverständlichen Entscheidungsprozesse der KI-Modelle transparent und nachvollziehbar zu machen. Sie unterstreicht, wie wichtig es ist, dass verschiedene Stakeholder, wie Entwickler:innen, Nutzer:innen und Interessierte, die Arbeitsweise und Entscheidungen von KI-Systemen verstehen können. Dies stärkt nicht nur das Vertrauen in die Technologie, sondern fördert auch ihre Effizienz und Robustheit, da Schwachstellen so besser erkannt und angegangen werden können.
Bei der Arbeit am Projekt PlasticObs+ liegt ein Fokus Leluschkos darauf, ein nutzerzentriertes und interaktives Framework zu entwickeln, das als Schnittstelle zwischen XAI-Methoden und den Nutzern dient. Hierdurch können Nutzer:innen effektiv interagieren, Fragen stellen und Erklärungen erhalten, die für sie relevant sind, um ein besseres Verständnis und eine größere Akzeptanz der KI-Technologie zu fördern.
Trotz der klaren Vorteile und der entscheidenden Bedeutung der XAI stehen Forschende und Entwickler:innen vor erheblichen Herausforderungen. Eine dieser Herausforderungen ist, wie Leluschko betont, das Dilemma, den Blackbox-Charakter von KI-Systemen zu überwinden und gleichzeitig Erklärungen zu liefern, die für verschiedene Stakeholdergruppen verständlich und relevant sind.
Das Potenzial von XAI im Projekt PlasticObs+ ist enorm. Wie Carolin Leluschko erläutert, soll ein interaktives Framework als Brücke zwischen den komplexen XAI-Methoden und den Anwender:innen dienen: „Dieses Framework soll als Schnittstelle zwischen den XAI-Methoden und den Nutzenden dienen, sodass sie interagieren und Fragen stellen können.“ Damit ermöglicht es eine gezielte Interaktion und ein tieferes Verständnis für die Entscheidungen, die von KI-Systemen getroffen werden.
Eine weitere große Herausforderung liegt in der Vermittlung: Es ist nicht nur wichtig, dass KI-Systeme ihre Entscheidungen erklären können, sondern auch, dass diese Erklärungen für unterschiedliche Stakeholder verständlich sind. „Schwierig ist, dass viele Forschungsarbeiten bisher auf die Entwicklung von Methoden fokussiert waren, um den Blackbox-Charakter von KI-Systemen zu überwinden. Die Erklärungen müssen jedoch auch für andere Stakeholder verständlich sein, und genau diese Lücke zu schließen, stellt eine große Herausforderung dar.“, betont Carolin.
Die Relevanz von XAI erstreckt sich über viele Sektoren hinaus. Auch im Gesundheitswesen spielt XAI eine entscheidende Rolle, insbesondere in der medizinischen Bildanalyse, einem Bereich, in dem Leluschko vielversprechende Forschungsprojekte sieht.
Im Hinblick auf die Zukunft und die Rolle von XAI beim DFKI ist Leluschko optimistisch. Mit dem HAIX-Projekt des DFKI, welches sich auf Hybrid AI Explainer konzentriert, und anderen Initiativen plant das DFKI, die Forschung und Entwicklung im Bereich XAI entscheidend voranzutreiben, um effektive und verständliche KI-Lösungen für eine breite Palette von Anwendungen zu realisieren, einschließlich des Projekts PlasticObs+.
Die Forschungs- und Entwicklungsarbeit im Bereich der erklärbarer Künstlichen Intelligenz geht stetig voran. Die vielfältigen Einsatzmöglichkeiten und die steigende Relevanz von XAI spiegeln sich in der intensiven Forschungstätigkeit und den zahlreichen Projekten wider, die beim DFKI laufen. Im Kontext von PlasticObs+ spiegelt sich der innovative Ansatz, den Carolin Leluschko und ihre Kolleg:innen verfolgen, wider: „Es soll Erklärungen liefern, die für jeden Nutzenden relevant sind und Interaktionen ermöglichen.“
Trotz des klaren Engagements und der vielversprechenden Fortschritte in der XAI-Forschung, weist Carolin Leluschko auf bestehende regulatorische Lücken hin: „Grundsätzlich ist die Regulierung von KI und XAI ein großes Thema, und es gibt einen wachsenden Ruf nach Regulatorien und Kontrollinstanzen.“ Diese Äußerung unterstreicht die Notwendigkeit, neben der technologischen Entwicklung auch einen rechtlichen Rahmen zu schaffen, der sowohl die Anwendung als auch die Erklärbarkeit von KI sichert.
Die Anstrengungen und Fortschritte des DFKI und von Projekten wie PlasticObs+ auf dem Gebiet der XAI sind beachtlich. Der Einsatz von erklärbarer KI wird nicht nur das Vertrauen in KI-Systeme stärken, sondern auch dazu beitragen, dass diese Technologien effektiver und verantwortungsbewusster eingesetzt werden können. Sie helfen dabei, nicht nur den Entwicklern, sondern auch den Endbenutzern ein tiefgreifendes Verständnis der KI-Entscheidungsprozesse zu vermitteln. Zum Abschluss betont Leluschko die zukünftigen Pläne des DFKI in Bezug auf XAI: „XAI wird beim DFKI zunehmend wichtiger. Ein großes Projekt ist das HAIX-Projekt... und die Forschung in diesem Bereich wird definitiv weiter vorangetrieben.“ So positiv blickt die KI-Community hoffnungsvoll in eine Zukunft, in der KI-Systeme nicht nur intelligente Entscheidungen treffen, sondern diese auch verständlich und nachvollziehbar für alle Beteiligten erklären können, so auch in unserem Projekt PlasticObs+!
Kommentare