formatierung verbessert

This commit is contained in:
2021-02-04 20:30:35 +01:00
parent 412f5005b3
commit 631f74c840
18 changed files with 112 additions and 56 deletions

View File

@@ -8,13 +8,17 @@
\subsection{Bias-Variance-Tradeoff}
\label{bias-variance-tradeoff}
Je mehr Bias ein Modell erhält, desto kleiner ist die Varianz, die z.B. durch Rauschen von Messdaten verursacht wird.
\includegraphics[width = \textwidth]{bias-variance-tradeoff.png}
\begin{center}
\includegraphics[width = .9\textwidth]{bias-variance-tradeoff.png}
\end{center}
\section{Algorithmic Bias}
\label{algorithmic bias}
Unter dem \say{algorithmic bias} versteht man alle Einflussfaktoren,
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).\\
\includegraphics[width = \textwidth]{algorithmic_bias.png}
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).
\begin{center}
\includegraphics[width = .9\textwidth]{algorithmic_bias_example.png}
\end{center}
Diese Form des Bias kann an unterschiedlichen Stellen der Modellerstellung auftreten.\\
\includegraphics[width = \textwidth]{algorithmic_bias.png}\\

View File

@@ -10,10 +10,14 @@
\section{Heatmaps}
\label{erklaerbarkeit: heatmaps}
Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden,
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}\\
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.
\begin{center}
\includegraphics[width = .7\textwidth]{layer-wise_relevance_propagation.png}
\end{center}
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:
\begin{center}
\includegraphics[width = .8\textwidth]{validierung_gesichtsklassifikator.png}\\
\end{center}
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\
@@ -26,27 +30,25 @@
dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss,
das System zu erklären.
Die Erklärungen sind somit \say{wirklichkeitsgetreu}.
Die ausgegebene Erklärung stimmt sicher mit dem tatsächlichen Aufbau des Modells überein.
Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber.
Da der Mensch lediglich dazu in der Lage ist $7\pm 2$ Elemente gleichzeitig im Kopf zu behalten,
sollte die Interpretation, die das System liefert auch in etwa so viele Eigenschaften verwenden.
Die vom System gelieferte Interpretation sollte dabei nur so viele Elemente enthalten, wie der Mensch im Kopf halten kann ($\approx 7 \pm 2$).
Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}).
\subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}}
\label{accuracy-interpretability tradeoff mythos}
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.\\
\includegraphics[width =.4\textwidth]{accuracy_interpretability_tradeoff.png}\\
Da beide Eigenschaften allerdings nicht quantifizierbar sind, ist dies ein Mythos.
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.
Allerdings ist dies ein Mythos.
Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein,
da sie dem Entwickler helfen können das Problem besser zu verstehen.
\paragraph{Beispiel 2HELPS2B}
siehe Vorlesung \say{Problematiken aktueller Ansätze}
(Beispiel: siehe Vorlesung \say{Problematiken aktueller Ansätze})
\subsection{Interpretierbare Modelle für Bilder}
\label{interpretierbare bilder modelle}
Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt.
Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\
\includegraphics[width = \textwidth]{this_looks_like_that.png}
\includegraphics[width = \textwidth]{this_looks_like_that2.png}
\begin{figure}[h]
\vspace{-5mm}
\includegraphics[width = \textwidth]{this_looks_like_that.png}
\includegraphics[width = \textwidth]{this_looks_like_that2.png}\\
\vspace{-25mm}
\end{figure}

View File

@@ -8,7 +8,6 @@
\item Produktionsausfall (durch unentdeckten Systemfehler)
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
\item \dots
\end{itemize}
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.