generated from TH_General/Template_Summary
formatierung verbessert
This commit is contained in:
@@ -8,13 +8,17 @@
|
||||
\subsection{Bias-Variance-Tradeoff}
|
||||
\label{bias-variance-tradeoff}
|
||||
Je mehr Bias ein Modell erhält, desto kleiner ist die Varianz, die z.B. durch Rauschen von Messdaten verursacht wird.
|
||||
\includegraphics[width = \textwidth]{bias-variance-tradeoff.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .9\textwidth]{bias-variance-tradeoff.png}
|
||||
\end{center}
|
||||
|
||||
\section{Algorithmic Bias}
|
||||
\label{algorithmic bias}
|
||||
Unter dem \say{algorithmic bias} versteht man alle Einflussfaktoren,
|
||||
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).\\
|
||||
\includegraphics[width = \textwidth]{algorithmic_bias.png}
|
||||
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).
|
||||
\begin{center}
|
||||
\includegraphics[width = .9\textwidth]{algorithmic_bias_example.png}
|
||||
\end{center}
|
||||
Diese Form des Bias kann an unterschiedlichen Stellen der Modellerstellung auftreten.\\
|
||||
\includegraphics[width = \textwidth]{algorithmic_bias.png}\\
|
||||
|
||||
|
||||
@@ -10,10 +10,14 @@
|
||||
\section{Heatmaps}
|
||||
\label{erklaerbarkeit: heatmaps}
|
||||
Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden,
|
||||
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
|
||||
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
|
||||
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
|
||||
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}\\
|
||||
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.
|
||||
\begin{center}
|
||||
\includegraphics[width = .7\textwidth]{layer-wise_relevance_propagation.png}
|
||||
\end{center}
|
||||
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:
|
||||
\begin{center}
|
||||
\includegraphics[width = .8\textwidth]{validierung_gesichtsklassifikator.png}\\
|
||||
\end{center}
|
||||
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
|
||||
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
|
||||
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\
|
||||
@@ -26,27 +30,25 @@
|
||||
dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss,
|
||||
das System zu erklären.
|
||||
Die Erklärungen sind somit \say{wirklichkeitsgetreu}.
|
||||
Die ausgegebene Erklärung stimmt sicher mit dem tatsächlichen Aufbau des Modells überein.
|
||||
Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber.
|
||||
Da der Mensch lediglich dazu in der Lage ist $7\pm 2$ Elemente gleichzeitig im Kopf zu behalten,
|
||||
sollte die Interpretation, die das System liefert auch in etwa so viele Eigenschaften verwenden.
|
||||
Die vom System gelieferte Interpretation sollte dabei nur so viele Elemente enthalten, wie der Mensch im Kopf halten kann ($\approx 7 \pm 2$).
|
||||
Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}).
|
||||
|
||||
\subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}}
|
||||
\label{accuracy-interpretability tradeoff mythos}
|
||||
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.\\
|
||||
\includegraphics[width =.4\textwidth]{accuracy_interpretability_tradeoff.png}\\
|
||||
Da beide Eigenschaften allerdings nicht quantifizierbar sind, ist dies ein Mythos.
|
||||
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.
|
||||
Allerdings ist dies ein Mythos.
|
||||
Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein,
|
||||
da sie dem Entwickler helfen können das Problem besser zu verstehen.
|
||||
|
||||
\paragraph{Beispiel 2HELPS2B}
|
||||
siehe Vorlesung \say{Problematiken aktueller Ansätze}
|
||||
(Beispiel: siehe Vorlesung \say{Problematiken aktueller Ansätze})
|
||||
|
||||
\subsection{Interpretierbare Modelle für Bilder}
|
||||
\label{interpretierbare bilder modelle}
|
||||
Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt.
|
||||
Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that.png}
|
||||
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that2.png}
|
||||
\begin{figure}[h]
|
||||
\vspace{-5mm}
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that.png}
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that2.png}\\
|
||||
\vspace{-25mm}
|
||||
\end{figure}
|
||||
|
||||
@@ -8,7 +8,6 @@
|
||||
\item Produktionsausfall (durch unentdeckten Systemfehler)
|
||||
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
|
||||
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
|
||||
\item \dots
|
||||
\end{itemize}
|
||||
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.
|
||||
|
||||
|
||||
Reference in New Issue
Block a user