TechKompass Optical Character Recognition (OCR)

Explainable AI (XAI)

Explainable AI (XAI)

Inzwischen finden Verfahren aus dem Bereich der künstlichen Intelligenz (KI) in immer mehr Anwendungsfeldern Verwendung, z. B. zum Erkennen von Objekten auf Bildern oder zur Verarbeitung von Sprache. Dabei übertreffen sie teilweise bereits die Leistungsfähigkeit von Menschen. Die Ergebnisse von gegenwärtig eingesetzten KI-Systemen sind allerdings häufig nicht nachvollziehbar, bspw. warum auf einem Bild ein bestimmtes Objekt erkannt wurde. Dies stellt insbesondere in sicherheitskritischen Anwendungsfeldern, wie z. B. bei autonomen Fahrzeugen oder im medizinischen Bereich, einen erheblichen Nachteil dar und schränkt eine weitere Verbreitung von KI-Systemen entsprechend ein.

Ein Roboter und ein Mensch geben sich die Hand. Ein Roboter und ein Mensch geben sich die Hand.
© Robot hand photo created by rawpixel.com - www.freepik.com

Im Rahmen von Explainable Artificial Intelligence (XAI) beschäftigt man sich deshalb damit, die Ergebnisse von KI-Systemen in einer für Menschen verständlichen Form zu erklären. Diese Fähigkeit ist eine wichtige Voraussetzung, um das Vertrauen eines Benutzers in das KI-System zu steigern. Außerdem erlaubt sie es, die Stärken und Schwächen des Systems besser einschätzen zu können. (Fraunhofer-Institut für Naturwissenschaftlich-Technische Trendanalysen INT)

Explainable Aritificial Intelligence (XAI) bezeichnet somit das Bestreben, durch Machine Learning (ML) (dies schließt auch neuronale Netze mit ein) gewonnene Erkenntnisse und Vorhersagen erklär- und überprüfbar zu machen. Im Zuge der Digitalisierung ist XAI ein wichtiger Baustein zur Öffnung der viel beschriebenen "black box", um sowohl die Qualität in der Fertigung zu verbessern, als auch das Vertrauen der Nutzer und Kunden in KI-basierte Entscheidungsfindung zu gewinnen (1).  Darüber hinaus enthält auch die GDPR (General Data Protection Regulation, deutsch: DSGVO) der EU Vorschriften, die den Einsatz von XAI notwendig machen könnten, sobald personenbezogene Daten verarbeitet werden (2). 

Anwendungen von XAI im industriellen Kontext sind beispielsweise getrieben von notwendigem Vertrauen - in dem Sinne, dass kostspielige Entscheidungen von einem ML-Modell getroffen werden sollen - und dem Bedürfnis, bestimmte Phänomene besser zu verstehen - Ausfälle von Maschinen vorhersagen und durch entsprechende Daten diese dann verbessern (3).

Bedingt durch das Einsatzgebiet fokussieren viele ML-Modelle auf Bild- oder Sensordaten, da diese Informationen relativ leicht zu gewinnen sind oder bereits gesammelt werden. Jüngere Forschungen zeigen, dass es möglich ist, Sensordaten komplexer Fertigungsanlagen als Trainingsdaten zu nutzen. Die daraus entstehenden Modelle sind in der Lage, i) Time-to-Failure (TTF), ii) Zustand des Equipments, sowie iii) TTF-Intervalle besser vorherzusagen oder zu erkennen als menschliche Experten (Jalali et al.).

Im Bereich der Bildverarbeitung gibt es bereits seit längerer Zeit entsprechende Forschung, die darauf abzielt, die Bildbereiche zu identifizieren, die seitens eines ML-Modells zur Klassifikation herangezogen werden. (Ribeiro et al. 2016) Ist hier eine der grundlegenden Arbeiten; die Autoren stellen auch ein Open Source-Tool zur Verfügung, das allerdings nach eigenen Angaben für Text- oder Tabellen-Daten gemacht ist (4).

Explainable AI unterscheidet sich somit von den traditionellen Techniken des maschinellen Lernens, bei denen die Entwickler oft nicht verstehen können, warum das System zu einer bestimmten Entscheidung gekommen ist (5).

Quellen:

(1):Vgl.: https://www.forbes.com/sites/forbestechcouncil/2021/02/22/why-explainability-is-the-next-step-for-ai-in-manufacturing/?sh=70e798761517, abgerufen 31.8.2021; und https://www.pwc.co.uk/services/risk/insights/explainable-ai.html, abgerufen am 1.9.2021
(2):https://www.dsgvo-portal.de/gdpr_recital_71.php, abgerufen am 1.9.2021
(3):https://ercim-news.ercim.eu/en116/r-i/understandable-deep-neural-networks-for-predictive-maintenance-in-the-manufacturing-industry, abgerufen am 1.9.2021
(4):https://github.com/marcotcr/lime, abgerufen am 1.9.2021
(5):https://www.nextmsc.com/report/explainable-ai-market, abgerufen am 05.10.2021.

Regionale Experten

Prof. Dr. Benjamin Risse

  • WWU Münster
  • Institut für Informatik
  • Professorship for Sustainable Development am Institut für Geoinformatik
  • Forschungsschwerpunkte:
  • Computer Vision, Machine Learning, Image Processing, Computer Graphics, Robotics
  • Kontakt