Explainable AI: Hintergründe und Vorteile

Explainable Artificial Intelligence (kurz XAI) bezeichnet Forschungsansätze, Methoden und Modelle, die es ermöglichen sollen, die inneren Vorgänge eines Algorithmus nachvollziehbarer und verständlicher zu machen. Es geht vereinfacht gesagt darum, algorithmische Black-Box Modelle hin zur Glass-Box zu entwickeln. Also die internen Vorgänge von Anwendungen künstlicher Intelligenz transparenter zu gestalten und getroffene Vorhersagen nachvollziehbarer zu machen. Dazu wird überprüft, warum, wie und wann ein bestimmter Input zu einem bestimmten Output führt. Dies lässt sich beispielsweise durch Visualisierungen realisieren, zu denen es mittlerweile mehrere Pakete in den gängigen Programmiersprachen R und Python gibt. Da es ein wesentlicher Teil des Credos unseres Handelns bei eoda ist, Transparenz, verständliche Algorithmen, verständliche Entscheidungsfindung und verständliche Lösungen zu gewährleisten, liegt uns das Thema Explainable AI natürlich besonders am Herzen.

Warum Explainable AI?

Datengetriebene Prozesse und Anwendungen, Machine-Learning-Algorithmen, Künstliche Intelligenz und automatisierte Entscheidungssysteme sind heute in vielen Bereichen ein ständiger Begleiter unserer Lebensrealität. In der Medizin, der Justiz, dem Finanzwesen und der Industrie, um nur wenige Beispiele zu nennen, unterstützen uns ML Algorithmen bei unserer Arbeit.

Dabei erlaubt die Verfügbarkeit von großen Datensätzen und schnellen Computern, immer komplexere Modelle zu trainieren. So komplex, dass sie nicht durch direkte Betrachtung der Modellparameter analysiert werden können, wenn ein Modell mit mehreren tausend Parametern arbeitet. Dieses Problem nennt man auch das „Black-Box“ Phänomen.

Die prognostische Leistung solcher Black-Box Modelle kann erstaunlich sein; uns Insights liefern, die bei der menschlichen Betrachtung der Daten eventuell untergegangen wären. Gleichzeitig können komplexe algorithmische Systeme für die Nutzer undurchsichtig wirken und Fragen nach Erklärbarkeit und Nachvollziehbarkeit der Entscheidungsprozesse oder Empfehlungen nur in begrenztem Maße beantworten.

Eine Frage des Vertrauens

Für Business Anwenderinnen und Anwender können Einsichten darin, wie ein bestimmter Algorithmus genau operiert bzw. wie er seine Entscheidungen konkret findet, besonders relevant sein. Warum hat das Modell so entschieden und nicht anders? Wann hat es Erfolg, wann scheitert es? Wie lassen sich Fehler nachhaltig korrigieren? Fehlende Erklärbarkeit kann zu Vertrauensverlusten in Bezug auf die Methoden und Ergebnisse maschinellen Lernens auf Seiten der Anwender führen.

Die daraus resultierende Frage ist, ob wir als Menschen und letztendliche Entscheidungsträger bereit sind, den Empfehlungen und Vorhersagen künstlicher Intelligenz blind zu vertrauen und diese Entscheidungen zu akzeptieren, oder ob es unser Anspruch ist, Modellentscheidungen nachvollziehen zu können. Vertrauen und Akzeptanz sind letztendlich essenzielle Faktoren, um neue Technologien wie KI zu adaptieren und produktiv in Geschäftsprozesse mit einzubeziehen.

Um dieses notwendige Vertrauen herzustellen, ist Transparenz in diese Technologien sowie die Nachvollziehbarkeit bzw. die Begründbarkeit der Entscheidungen von ML-Systemen der Schlüssel. Diese beiden Aspekte wiederum stellen den Kerngegenstand von Explainable AI dar.

Wie gelangen wir zur Explainable AI?

Um ein KI-System erklärbar und transparent zu gestalten, gibt es drei Aspekte, die erfüllt werden sollten. Diese lauten:

1. Explainable Predictions: Was sind Ziele und Zwecke des Algorithmus? Welche Features mit welcher Gewichtung werden für eine Vorhersage herangezogen? Was sind die Haupttreiber einer Entscheidung?

2. Explainable Data: Welche Datenquellen wurden verwendet und wie werden die Ergebnisse überprüft? Hier spielt die Überprüfung auf einen möglichen Bias in den Daten und die verwendeten Metriken eine Rolle.

3. Explainable Algorithms: Was sind die individuellen Ebenen und Schwellenwerte, die vom Input zum Output führen? Welche Inputs führen zu welchen Outputs?

Praktisch kann man hier zum einen Fragen bezüglich der internen Struktur und Logik der Systeme verfolgen. Zum anderen, und in der Praxis durchaus häufiger, verfolgt man sogenannte „post-hoc“ Interpretationen, die durch Visualisierungen und die Berechnung der Einflussgröße jedes Features, erklären sollen, wie und warum bestimmte algorithmische Entscheidungen zustande gekommen sind.

Explainable AI: Win-Win Situation für alle Stakeholder?

Durch diese Schritte in der Entwicklung und Evaluation künstlich intelligenter Systeme nimmt nicht nur die Transparenz und das damit einhergehende Vertrauen zu, sondern sie ermöglichen auch eine informierte und begründete Entscheidungsfindung. Sie ermöglichen die iterative Verbesserung bestehender Modelle durch Feedbackprozesse und fördern letztendlich die gemeingesellschaftliche öffentliche Wahrnehmung und Akzeptanz von KI. Neben den Benefits auf geschäftlicher Ebene könnten sich so auch gesellschaftliche Vorteile ergeben, wenn sich bei den Zielgruppen und Nutzerinnen und Nutzern eine stärkere Erwartung an Erklärbarkeit entwickelt. Schon heute spricht die DSGVO in Deutschland und das „Right to Explanation“ auf europäischer Ebene den Nutzerinnen und Nutzern das Recht zu, eine Erklärung für auf ihre Person bezogene Entscheidungen automatisierter Systeme zu beanspruchen. Diese Regelungen finden vorrangig in besonders sensiblen, operativen Bereichen wie dem Kreditscoring oder Arbeitsmarktentscheidungen Gewicht, sind aber auch auf Industrieebene im Kontext der Fehlerbehebung und Haftbarkeit denkbar.

Im Idealfall würden also sämtliche Stakeholder von Explainable AI profitieren. Durch XAI wären Sie in der Lage das Modellverhalten besser zu verstehen und robustere Modelle zu bauen, sowie effektiveres Debugging zu betreiben. Sie wären in der Lage, auf Grund von Nachvollziehbarkeit algorithmischer Systeme, bessere und begründbarere Entscheidungen zu treffen und gleichzeitig das Vertrauen und die Akzeptanz in der Belegschaft für solche Systeme zu erhöhen. Und Sie wären in der Lage durch erhöhte Transparenz und Erklärbarkeit eine höhere Zustimmung und Zufriedenheit bei potenziellen Kunden zu generieren.

Durch die Integration von Explainability Tools in bestehende und produktive ML-Systeme , wie etwa beim Einsatz unser auf YUNA basierenden Produkte, ergeben sich neue Optionen zur Geschäftsentwicklung.
Sie sehen ebenfalls die Vorteile von Explainable AI und wollen Ihre AI-Initiativen stärker in diese Richtung vorantreiben? Dann sind wir Ihr Ansprechpartner für die Konzeption und Umsetzung von XAI in Ihrem Unternehmen. Sprechen Sie uns an. 

 

Autor

Nils Knoth

Nils Knoth studiert im Master Psychologie an der Universität Kassel. Er interessiert sich für die Schnittpunkte von Psychologie und Computer Wissenschaften. Bei eoda beschäftigt er sich neben der Arbeit in vielfältigen Kundenprojekten unter anderem auch intensiv mit dem Thema Explainable AI.

eoda Datenanalyse-Blog: Bleiben Sie auf dem Laufenden