Datenanalyse

Wieso nimmt die Erklärbarkeit einer künstlichen Intelligenz eine Schlüsselrolle ein?

Explainable Artificial Intelligence ist eines der heißen Themen in der Forschung im Bereich künstliche Intelligenz. Sucht es doch Antworten auf die natürlichste aller menschlichen Fragen „Warum ist das so?“ Hier erfahren Sie wieso das Thema elementar ist, wie Sie es einordnen können und wie es umgesetzt werden kann.

Warum ist Erklärbarkeit wichtig?

Fangen wir mit einem Beispiel an: Welches Tier Sehen Sie im linken Bild?

Quelle: Ribeiro et al. (2016 S.1143)

Wo die Entscheidung eines Menschen schnell für die Klassifikation als Husky ausfällt, hat sich das dahinterliegende künstliche neuronale Netz anders entschieden. Schnell tritt dann die Frage des „Warums?“ auf, denn das Netz hatte doch bisher immer den richtigen Riecher. Die Erklärbarkeit liefert die Antwort im rechten Bild: Der Algorithmus hat nicht die Tierart erlernt, sondern von der Erkennung von Schnee auf die Klassifikation als Wolf geschlossen. Ähnliche Beispiele existieren für Anwendungsfälle wie „wenn Schienen, dann Zug“ oder „wenn Wasser, dann Schiff“. Alles Beispiele in denen elementare Fehler im Trainingsaufbau nicht erkannt worden sind. Daneben kann Erklärbarkeit auch aus der sozialen und rechtlichen Sicht Mehrwerte generieren:

  • Fehler im Lernprozess können erkannt und das Modell nachgebessert werden [1]
  • Wissen über Zusammenhänge im Prozess können extrahiert und die Entscheidung begründet werden, was das Vertrauen des Menschen in die Algorithmik stärkt [2]
  • die Rechtsprechung verlangt es (Die EU führte das sogenannte „Right of Explanation“ im Bereich GDPR 2016 ein.) [3]

Was ist Erklärbarkeit?

Das Wort Erklärbarkeit ist in der Literatur und im allgemeinen Sprachgebrauch nicht eindeutig definiert. Da die Thematik erst in den letzten Jahren stark an Dynamik gewonnen hat, hat sich noch keine einheitliche Definition durchgesetzt. Ein Zitat aus der Literatur beschreibt: „Eine Erklärung ist die Sammlung von Merkmalen […], die für ein gegebenes Beispiel zu einer Entscheidung […] beigetragen haben.“ (Montavon u.a. 2017, Seite 2). Auf den Produktionsprozess transferiert sollte nochmals in zwei Dimensionen unterschieden werden:

  • Globale Erklärung: Grundlegende Zusammenhänge im Produktionsprozess. In der Gummiherstellung bestimmen zum Beispiel der Ruß- und Füllstoffanteile maßgeblich die Qualitätsparameter.
  • Lokale Erklärung: Konkrete Einflüsse auf einen Fertigungsauftrag oder ein Bauteil. Beispielsweise kann ein kalter Windzug durch ein offenes Hallentor in der Extrusion einzelne Batches stark beeinflussen.

Bei der Suche nach erklärbaren Einflüssen gilt es also immer, diese beiden Sichtweisen im Hinterkopf zu behalten.

Wie kann Erklärbarkeit umgesetzt werden?

Datenanalysen kommen oft dann zum Einsatz, wenn für den Mitarbeiter die Komplexität zu hoch wird. Der Erklärbarkeitsansatz kann dabei über zwei Stoßrichtungen umgesetzt werden:

  • Design nachvollziehbarer Algorithmen: Komplexität mit mehr Komplexität zu lösen kann sinnvoll sein. Es gibt jedoch im Bereich der Datenanalyse eine Vielzahl von Werkzeugen. Mit statistischen Tests bis hin zu nachvollziehbaren Machine-Learning Anwendungen lassen sich viele Anwendungsfälle abbilden – ohne eine sogenannte „Black Box“ als Algorithmus zu verwenden,
  • Erklärbarkeitsansätze für heutige Black Boxes (wie KNN): Gerade in der Bilderkennung führen wenige Wege um den Einsatz von künstlichen neuronalen Netzen herum. Zur Auflösung der eingangs beschriebenen Herausforderungen (Netzevaluierung, Vertrauen generieren, rechtliche Anforderungen erfüllen) wurden verschiedenste Werkzeuge wie Layerwise relavance Propagation erforscht und eingesetzt. [4]

Zusammenfassung

Es wurde aufgezeigt, dass Erklärbarkeit das Vertrauen in die Entscheidung eines Algorithmus erhöhen und Fehler im Modell mit Erklärbarkeitsansätzen vermieden werden können. Ebenfalls schreibt der Gesetzgeber bei Umgang von Analysen mit persönlichen Daten bereits Ansätze zur Erklärbarkeit vor. Erklärbarkeit wurde beschrieben als die Merkmale, die ausschlaggebend für eine Entscheidung sind. Daneben kann und muss die Erklärbarkeit auf eine lokale (spezifische Auswirkungen in einem Fertigungsauftrag) und globale (allgemeine Zusammenhänge im Produktionsprozess) Sichtweisen aufgeschlüsselt werden. Lösungsansätze für die Erklärbarkeit sind die Verwendung von nachvollziehbaren Algorithmen oder die Anwendung von Erklärbarkeitsmethoden wie Layerwise relevance Propagation.

Quellen

[1] Montavon G., Samek W., Müller K.-R. (2018, S.12) Methods for interpreting and understanding deep neural networks
Ribeiro M.,Singh S., Guestrin C. (2016 S.1136) “Why Should I Trust You?”: Explaining the Predictions of Any Classifier
[2] Samek W., Wiegang T. Müller K.-R.. (2017, S.3) Explainable Artificial Intelligence: Understanding, Visualizing and Interpreting Deep Learning Models
[3] Samek W., Wiegang T. Müller K.-R.. (2017, S.7) Explainable Artificial Intelligence: Understanding, Visualizing and Interpreting Deep Learning Models
[4] Bach S, Binder A, Montavon G, Klauschen F, Müller K-R, Samek W (2015) On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.