interpretierbare modelle hinzugefügt
This commit is contained in:
parent
1638547010
commit
54aa05ad56
@ -4,7 +4,8 @@
|
|||||||
|
|
||||||
\section{Verfahren}
|
\section{Verfahren}
|
||||||
\label{erklaerbarkeit: verfahren}
|
\label{erklaerbarkeit: verfahren}
|
||||||
\includegraphics[width = \textwidth]{black-box_explanations.png}
|
\includegraphics[width = \textwidth]{black-box_explanations.png}\\
|
||||||
|
Erklärungen, die durch ein externe Methode geliefert werden bezeichnet man auch als \say{post hoc} Erklärungen
|
||||||
|
|
||||||
\section{Heatmaps}
|
\section{Heatmaps}
|
||||||
\label{erklaerbarkeit: heatmaps}
|
\label{erklaerbarkeit: heatmaps}
|
||||||
@ -12,7 +13,40 @@
|
|||||||
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
|
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
|
||||||
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
|
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
|
||||||
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
|
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
|
||||||
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}
|
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}\\
|
||||||
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
|
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
|
||||||
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
|
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
|
||||||
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}
|
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\
|
||||||
|
Dies zeigt, dass eine solche approximierende Erklärung schnell \say{irreführend}seien kann.
|
||||||
|
|
||||||
|
\section{Interpretierbare Systeme}
|
||||||
|
\label{interpretierbare systeme}
|
||||||
|
Systeme, die ihr Handeln eigenständig erklären werden als \say{interpretierbar} bezeichnet.
|
||||||
|
Dies hat den Vorteil,
|
||||||
|
dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss,
|
||||||
|
das System zu erklären.
|
||||||
|
Die Erklärungen sind somit \say{wirklichkeitsgetreu}.
|
||||||
|
Die ausgegebene Erklärung stimmt sicher mit dem tatsächlichen Aufbau des Modells überein.
|
||||||
|
Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber.
|
||||||
|
Da der Mensch lediglich dazu in der Lage ist $7\pm 2$ Elemente gleichzeitig im Kopf zu behalten,
|
||||||
|
sollte die Interpretation, die das System liefert auch in etwa so viele Eigenschaften verwenden.
|
||||||
|
Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}).
|
||||||
|
|
||||||
|
\subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}}
|
||||||
|
\label{accuracy-interpretability tradeoff mythos}
|
||||||
|
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.\\
|
||||||
|
\includegraphics[width =.4\textwidth]{accuracy_interpretability_tradeoff.png}\\
|
||||||
|
Da beide Eigenschaften allerdings nicht quantifizierbar sind, ist dies ein Mythos.
|
||||||
|
Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein,
|
||||||
|
da sie dem Entwickler helfen können das Problem besser zu verstehen.
|
||||||
|
|
||||||
|
\paragraph{Beispiel 2HELPS2B}
|
||||||
|
siehe Vorlesung \say{Problematiken aktueller Ansätze}
|
||||||
|
|
||||||
|
\subsection{Interpretierbare Modelle für Bilder}
|
||||||
|
\label{interpretierbare bilder modelle}
|
||||||
|
Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt.
|
||||||
|
Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\
|
||||||
|
\includegraphics[width = \textwidth]{this_looks_like_that.png}
|
||||||
|
|
||||||
|
\includegraphics[width = \textwidth]{this_looks_like_that2.png}
|
||||||
|
BIN
images/accuracy_interpretability_tradeoff.png
Normal file
BIN
images/accuracy_interpretability_tradeoff.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 9.5 KiB |
BIN
images/this_looks_like_that.png
Normal file
BIN
images/this_looks_like_that.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 320 KiB |
BIN
images/this_looks_like_that2.png
Normal file
BIN
images/this_looks_like_that2.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 149 KiB |
Loading…
x
Reference in New Issue
Block a user