53 lines
3.6 KiB
TeX
53 lines
3.6 KiB
TeX
\chapter{Erklärbarkeit}
|
|
\label{erklaerbarkeit}
|
|
Das Ziel der Erklärbarkeit ist es genügend Informationen über ein System zu sammeln, um eine Entscheidung des Systems erklären zu können.
|
|
|
|
\section{Verfahren}
|
|
\label{erklaerbarkeit: verfahren}
|
|
\includegraphics[width = \textwidth]{black-box_explanations.png}\\
|
|
Erklärungen, die durch ein externe Methode geliefert werden bezeichnet man auch als \say{post hoc} Erklärungen
|
|
|
|
\section{Heatmaps}
|
|
\label{erklaerbarkeit: heatmaps}
|
|
Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden,
|
|
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
|
|
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
|
|
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
|
|
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}\\
|
|
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
|
|
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
|
|
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\
|
|
Dies zeigt, dass eine solche approximierende Erklärung schnell \say{irreführend}seien kann.
|
|
|
|
\section{Interpretierbare Systeme}
|
|
\label{interpretierbare systeme}
|
|
Systeme, die ihr Handeln eigenständig erklären werden als \say{interpretierbar} bezeichnet.
|
|
Dies hat den Vorteil,
|
|
dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss,
|
|
das System zu erklären.
|
|
Die Erklärungen sind somit \say{wirklichkeitsgetreu}.
|
|
Die ausgegebene Erklärung stimmt sicher mit dem tatsächlichen Aufbau des Modells überein.
|
|
Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber.
|
|
Da der Mensch lediglich dazu in der Lage ist $7\pm 2$ Elemente gleichzeitig im Kopf zu behalten,
|
|
sollte die Interpretation, die das System liefert auch in etwa so viele Eigenschaften verwenden.
|
|
Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}).
|
|
|
|
\subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}}
|
|
\label{accuracy-interpretability tradeoff mythos}
|
|
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.\\
|
|
\includegraphics[width =.4\textwidth]{accuracy_interpretability_tradeoff.png}\\
|
|
Da beide Eigenschaften allerdings nicht quantifizierbar sind, ist dies ein Mythos.
|
|
Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein,
|
|
da sie dem Entwickler helfen können das Problem besser zu verstehen.
|
|
|
|
\paragraph{Beispiel 2HELPS2B}
|
|
siehe Vorlesung \say{Problematiken aktueller Ansätze}
|
|
|
|
\subsection{Interpretierbare Modelle für Bilder}
|
|
\label{interpretierbare bilder modelle}
|
|
Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt.
|
|
Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\
|
|
\includegraphics[width = \textwidth]{this_looks_like_that.png}
|
|
|
|
\includegraphics[width = \textwidth]{this_looks_like_that2.png}
|