formatierung verbessert

This commit is contained in:
paul-loedige 2021-02-04 20:30:35 +01:00
parent 412f5005b3
commit 631f74c840
18 changed files with 112 additions and 56 deletions

View File

@ -26,6 +26,8 @@ rightsub = \grq%
%for code snippets %for code snippets
\usepackage{xcolor} \usepackage{xcolor}
\usepackage{listings} \usepackage{listings}
%for table color
\usepackage{colortbl}
%acronyms %acronyms
\usepackage[printonlyused]{acronym} \usepackage[printonlyused]{acronym}
%header and footer %header and footer

View File

@ -10,15 +10,15 @@
\section{Zielbasierter Agent} \section{Zielbasierter Agent}
\label{goal-based agent} \label{goal-based agent}
\includegraphics[width=\textwidth]{goal-based_agent.png} \includegraphics[width=.9\textwidth]{goal-based_agent.png}
\section{Nutzenorientierter Agent} \section{Nutzenorientierter Agent}
\label{utility-oriented agent} \label{utility-oriented agent}
\includegraphics[width=\textwidth]{utility-oriented_agent.png} \includegraphics[width=.9\textwidth]{utility-oriented_agent.png}
\section{Lernender Agent} \section{Lernender Agent}
\label{learning agent} \label{learning agent}
\includegraphics[width=\textwidth]{learning_agent.png} \includegraphics[width=.9\textwidth]{learning_agent.png}
\section{Softwarearchitekturen für Agentenprogramme} \section{Softwarearchitekturen für Agentenprogramme}
\label{software architecture for agent programs} \label{software architecture for agent programs}
@ -33,11 +33,13 @@
\hline \hline
\textbf{Vorteile} & \textbf{Nachteile}\\ \textbf{Vorteile} & \textbf{Nachteile}\\
\hline \hline
\vspace{-5mm}
\begin{itemize} \begin{itemize}
\item Einfach (Schichten sind abgeschlossene Verhalten) \item Einfach (Schichten sind abgeschlossene Verhalten)
\item deterministisch (daher echtzeitfähig) \item deterministisch (daher echtzeitfähig)
\item Parallelität in der Ausführung \item Parallelität in der Ausführung
\end{itemize} & \end{itemize} &
\vspace{-5mm}
\begin{itemize} \begin{itemize}
\item Verhalten fest implementiert und von Umgebung abhängig \item Verhalten fest implementiert und von Umgebung abhängig
\item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar \item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar

View File

@ -5,6 +5,7 @@
\section{\ac{PEAS} Beispiele} \section{\ac{PEAS} Beispiele}
\label{peas beispiele} \label{peas beispiele}
\includegraphics[width=\textwidth]{beispiele_PEAS.png} \includegraphics[width=\textwidth]{beispiele_PEAS.png}
\pagebreak
\section{Eigenschaften von Umgebungen} \section{Eigenschaften von Umgebungen}
\label{umgebungen: eigenschaften} \label{umgebungen: eigenschaften}

View File

@ -48,7 +48,7 @@
{\Huge\color{orange}Probleme bei unerwarteten Daten!}\\ {\Huge\color{orange}Probleme bei unerwarteten Daten!}\\
\includegraphics[width=.6\textwidth]{lernen_durch_unterscheiden_fehlerquellen.png} \includegraphics[width=.6\textwidth]{lernen_durch_unterscheiden_fehlerquellen.png}
\end{center} \end{center}
\pagebreak
\subsection{Polanyi-Paradox} \subsection{Polanyi-Paradox}
\label{polanyi-paradox} \label{polanyi-paradox}
Der Mensch versteht selber nicht, wie er in der Lage dazu ist Bilder zu unterscheiden. Der Mensch versteht selber nicht, wie er in der Lage dazu ist Bilder zu unterscheiden.

View File

@ -4,12 +4,30 @@
Für weitere Informationen siehe Zusammenfassung KB Kapitel 1. Für weitere Informationen siehe Zusammenfassung KB Kapitel 1.
\section{Syntax} \section{Syntax}
\label{aussagenlogik: syntax} \label{aussagenlogik: syntax}
\includegraphics[width = \textwidth]{syntax_aussagenlogik.png} \begin{center}
\includegraphics[width = .6\textwidth]{syntax_aussagenlogik.png}
\end{center}
\section{Operatoren} \section{Operatoren}
\label{aussagenlogik: operatoren} \label{aussagenlogik: operatoren}
\includegraphics[width = \textwidth]{aussagenlogik.png} \begin{tabular}{c|c||c|c|c|c|c|c|c}
\rowcolor{black!20!white}
$A$ & $B$ & $\neg A$ & $A\wedge B$ & $A\vee B$ & $A\Rightarrow B$ & $A\Leftrightarrow B$ & $\neg A \vee B$ & $(A\Rightarrow B)\wedge(B\Rightarrow A)$\\
\hline
0&0&1&0&0&1&1&1&1\\
\hline
0&1&1&0&1&1&0&1&0\\
\hline
1&0&0&0&1&0&0&0&0\\
\hline
1&1&0&1&1&1&1&1&1
\end{tabular}
\section{Äquivalenzen} \section{Äquivalenzen}
\label{aussagenlogik: aequivalenzen} \label{aussagenlogik: aequivalenzen}
\includegraphics[width = \textwidth]{aussagenlogik_äquivalenzen.png} \begin{figure}
\vspace{-10mm}
\includegraphics[width = .8\textwidth]{aussagenlogik_äquivalenzen.png}
\vspace{-10mm}
\end{figure}

View File

@ -2,10 +2,13 @@
\label{logik: beweisverfahren} \label{logik: beweisverfahren}
\section{Logische Folgerung} \section{Logische Folgerung}
\label{logische folgerung} \label{logische folgerung}
\begin{wrapfigure}[10]{r}{.5\textwidth}
\vspace{-10mm}
\includegraphics[width = .5\textwidth]{folgerung.png}
\end{wrapfigure}
$$\models \subseteq Formel(\Sigma)\times Formel(\Sigma)$$ $$\models \subseteq Formel(\Sigma)\times Formel(\Sigma)$$
$$ F \models G: \text{Aus }F\text{ folgt logisch }G$$ $$ F \models G: \text{Aus }F\text{ folgt logisch }G$$
$$ F \models G \text{ gdw. } Mod(F)\subseteq Mod(G)$$ $$ F \models G \text{ gdw. } Mod(F)\subseteq Mod(G)$$
\includegraphics[width = .8\textwidth]{folgerung.png}\\
Hieraus lässt sich ein automatisiertes Beweisverfahren entwickeln, indem überprüft wird, ob in jeder Welt, ind der $F$ war ist auch $G$ war ist. Hieraus lässt sich ein automatisiertes Beweisverfahren entwickeln, indem überprüft wird, ob in jeder Welt, ind der $F$ war ist auch $G$ war ist.
\section{Widerspruchsbeweis} \section{Widerspruchsbeweis}
@ -30,25 +33,33 @@
\subsection{Inferenzregeln} \subsection{Inferenzregeln}
\label{inferenzregeln} \label{inferenzregeln}
\includegraphics[width = .8\textwidth]{inferenzregeln.png} \begin{center}
\includegraphics[width = .6\textwidth]{inferenzregeln.png}
\end{center}
\subsection{Beweis durch Resolution} \subsection{Beweis durch Resolution}
\label{beweis durch resolution} \label{beweis durch resolution}
\Large
$$\frac{A\vee B, \neg B\vee C}{A\vee C}$$ $$\frac{A\vee B, \neg B\vee C}{A\vee C}$$
\normalsize
\subsection{Allgemeine Resolutionsregel} \subsection{Allgemeine Resolutionsregel}
\label{allgemeine resolutionsregel} \label{allgemeine resolutionsregel}
\Large
$$\frac{(A_1\vee \dots \vee A_m\vee B), (\neg B \vee C_1 \vee\dots\vee C_n)}{(A_1\vee\dots\vee A_m\vee C_1\vee\dots\vee C_n)}$$ $$\frac{(A_1\vee \dots \vee A_m\vee B), (\neg B \vee C_1 \vee\dots\vee C_n)}{(A_1\vee\dots\vee A_m\vee C_1\vee\dots\vee C_n)}$$
\normalsize
\subsection{Klauselform} \subsection{Klauselform}
\label{klauselform} \label{klauselform}
Die Klauselform ist die Mengendarstellung der \ac{KNF}:\\ Die Klauselform ist die Mengendarstellung der \ac{KNF}:\\
\includegraphics[width = \textwidth]{klauselform.png} \includegraphics[width = .7\textwidth]{klauselform.png}
\subsection{Resolutionsalgorithmus} \subsection{Resolutionsalgorithmus}
\label{resolutionsalgorithmus} \label{resolutionsalgorithmus}
\includegraphics[width = .8\textwidth]{resolutionsalgorithmus1.png}\\ \begin{center}
\includegraphics[width = .3\textwidth]{resolutionsalgorithmus2.png} \includegraphics[width = .6\textwidth]{resolutionsalgorithmus1.png}\\
\includegraphics[width = .2\textwidth]{resolutionsalgorithmus2.png}
\end{center}
\section{Hornklauseln} \section{Hornklauseln}
\label{hornklauseln} \label{hornklauseln}
@ -67,11 +78,15 @@
\label{forward chaining} \label{forward chaining}
Der Modus Ponens (\ref{inferenzregeln}) ist für Hornklauseln eine vollständige Inferenzregel: Der Modus Ponens (\ref{inferenzregeln}) ist für Hornklauseln eine vollständige Inferenzregel:
$$\frac{A_1\wedge\dots\wedge A_m, A_1\wedge\dots\wedge A_m \Rightarrow B}{B}$$ $$\frac{A_1\wedge\dots\wedge A_m, A_1\wedge\dots\wedge A_m \Rightarrow B}{B}$$
\includegraphics[width = \textwidth]{forward_chaining.png} \begin{center}
\includegraphics[width = .6\textwidth]{forward_chaining.png}
\end{center}
\subsection{Backward Chaining} \subsection{Backward Chaining}
\label{backward chaining} \label{backward chaining}
Während das Forward Chaining (\ref{forward chaining}) den einen datengetriebenen Ansatz verfolgt (Bei den Fakten starten und Anfrage herleiten) Während das Forward Chaining (\ref{forward chaining}) den einen datengetriebenen Ansatz verfolgt (Bei den Fakten starten und Anfrage herleiten)
beginnt das Backward Chaining bei der Anfrage und arbeitet die relevanten Teile des Und-Oder-Graphen rückwärts ab. beginnt das Backward Chaining bei der Anfrage und arbeitet die relevanten Teile des Und-Oder-Graphen rückwärts ab.
Dies hat den Vorteil, das anders als beim Forward Chaining keine potentiell unnötigen Formeln abgeleitet werden.\\ Dies hat den Vorteil, das anders als beim Forward Chaining keine potentiell unnötigen Formeln abgeleitet werden.\\
\includegraphics[width = \textwidth]{backward_chaining.png} \begin{center}
\includegraphics[width = .6\textwidth]{backward_chaining.png}
\end{center}

View File

@ -1,6 +1,8 @@
\chapter{Einführung} \chapter{Einführung}
\label{einfuehrung logik} \label{einfuehrung logik}
\includegraphics[width = \textwidth]{logikbasierte_wissensrepräsentation_und_Interferenz.png} \begin{center}
\includegraphics[width = .8\textwidth]{logikbasierte_wissensrepräsentation_und_Interferenz.png}
\end{center}
\section{Wissensbasierter Agent} \section{Wissensbasierter Agent}
\label{wissensbasierter Agent} \label{wissensbasierter Agent}

View File

@ -2,7 +2,9 @@
\label{formen der inferenz} \label{formen der inferenz}
\section{Inferenzrelationen} \section{Inferenzrelationen}
\label{inferenzrelationen} \label{inferenzrelationen}
\includegraphics[width = \textwidth]{inferenzrelationen.png} \begin{center}
\includegraphics[width = .5\textwidth]{inferenzrelationen.png}
\end{center}
\section{Korrektes und unsicheres Schließen} \section{Korrektes und unsicheres Schließen}
\label{korrektes und unsicheres schliessen} \label{korrektes und unsicheres schliessen}
@ -20,7 +22,7 @@
\label{syntax und semantik} \label{syntax und semantik}
Eine Syntax legt fest, wie die Sätze zur formalen Sprache der repräsentierten Welt aufgebaut sind. Eine Syntax legt fest, wie die Sätze zur formalen Sprache der repräsentierten Welt aufgebaut sind.
Die Semantik definiert, auf welche Aspekte der repräsentierten Welt sich ein Satz bezieht.\\ Die Semantik definiert, auf welche Aspekte der repräsentierten Welt sich ein Satz bezieht.\\
\includegraphics[width = \textwidth]{syntax und semantik.png} \includegraphics[width = .8\textwidth]{syntax und semantik.png}
\section{Menschliches Schließen} \section{Menschliches Schließen}
\label{menschliches schliessen} \label{menschliches schliessen}

View File

@ -31,7 +31,7 @@
\section{Klassifizierung von Formeln} \section{Klassifizierung von Formeln}
\label{formelklassifizierung} \label{formelklassifizierung}
\begin{tabbing} \begin{tabbing}
\=\textbf{erfüllbar} \hspace{10mm}\= $Mod(F)\ne\emptyset$\\ \=\textbf{erfüllbar} \hspace{20mm}\= $Mod(F)\ne\emptyset$\\
\>\textbf{unerfüllbar} \> $Mod(F) = \emptyset$\\ \>\textbf{unerfüllbar} \> $Mod(F) = \emptyset$\\
\>\textbf{allgemeingültig} \> $Mod(F) = Int(\Sigma)$\\ \>\textbf{allgemeingültig} \> $Mod(F) = Int(\Sigma)$\\
\>\textbf{falsifizierbar} \> $Mod(F) \ne Int(\Sigma)$ \>\textbf{falsifizierbar} \> $Mod(F) \ne Int(\Sigma)$

View File

@ -29,7 +29,7 @@
\subsection{Mögliche Welten} \subsection{Mögliche Welten}
\label{prae. 1.stufe: moegliche welten} \label{prae. 1.stufe: moegliche welten}
\includegraphics[width = \textwidth]{prädikatenlogik_1_stufe_mögliche_welten.png} \includegraphics[width = .9\textwidth]{prädikatenlogik_1_stufe_mögliche_welten.png}
\subsection{Funtionssymbole} \subsection{Funtionssymbole}
\label{prae. 1.stufe: funktionssymbole} \label{prae. 1.stufe: funktionssymbole}
@ -40,7 +40,7 @@
\subsection{Funktionen} \subsection{Funktionen}
\label{prae. 1.stufe: funktionssymbole} \label{prae. 1.stufe: funktionssymbole}
\includegraphics[width = \textwidth]{prädikatenlogik_1_stufe_funktionen.png} \includegraphics[width = .9\textwidth]{prädikatenlogik_1_stufe_funktionen.png}
\subsection{Prädikatensymbole} \subsection{Prädikatensymbole}
\label{prae. 1.stufe: praedikatensymbole} \label{prae. 1.stufe: praedikatensymbole}

View File

@ -47,7 +47,9 @@
\section{Übersicht über die Welt der \ac{KI}} \section{Übersicht über die Welt der \ac{KI}}
\label{ml: uebersicht} \label{ml: uebersicht}
\includegraphics[width = \textwidth]{übersicht_ki.png} \begin{center}
\includegraphics[width = .7\textwidth]{übersicht_ki.png}
\end{center}
\subsection{Einordnung} \subsection{Einordnung}
\label{ml: uebersicht: einordnung} \label{ml: uebersicht: einordnung}
@ -78,6 +80,7 @@
So soll ein Klassifizierer beispielsweise nicht die perfekte Lösung für die Trainingsdaten liefern, sondern lediglich eine \textbf{generalisierte} Lösung erstellen, So soll ein Klassifizierer beispielsweise nicht die perfekte Lösung für die Trainingsdaten liefern, sondern lediglich eine \textbf{generalisierte} Lösung erstellen,
die auch unbekannte Daten gut klassifiziert.\\ die auch unbekannte Daten gut klassifiziert.\\
\includegraphics[width = \textwidth]{generalisierung.png} \includegraphics[width = \textwidth]{generalisierung.png}
\pagebreak
\section{Hypothesenraum} \section{Hypothesenraum}
\label{ml: hypothesenraum} \label{ml: hypothesenraum}
@ -96,7 +99,10 @@
Von den Trainingsdaten werden bei vielen Modellerstellungen noch einmal 20\% für die Validierung während des Trainings abgespalten. Von den Trainingsdaten werden bei vielen Modellerstellungen noch einmal 20\% für die Validierung während des Trainings abgespalten.
Bei dem Splitten der Daten muss darauf geachtet werden, dass das Datenverhältnis in den Splits dem Gesamtdatensatz entspricht. Bei dem Splitten der Daten muss darauf geachtet werden, dass das Datenverhältnis in den Splits dem Gesamtdatensatz entspricht.
D.h. z.B. das sortierte Daten vor dem splitten gemischt werden müssen\\ D.h. z.B. das sortierte Daten vor dem splitten gemischt werden müssen\\
\includegraphics[width = .8\textwidth]{train_test_split.png} \begin{center}
\includegraphics[width = .8\textwidth]{train_test_split.png}
\end{center}
\pagebreak
\subsection{N-fold Cross-Validation} \subsection{N-fold Cross-Validation}
\label{ml: n-fold cross-validation} \label{ml: n-fold cross-validation}

View File

@ -84,10 +84,9 @@
\section{Einordnung in Maschinelles Lernen} \section{Einordnung in Maschinelles Lernen}
\label{rl: einordnung} \label{rl: einordnung}
Das /ac{RL} ist ein Teil des \acf{ML}.\\ Das \ac{RL} ist ein Teil des \acf{ML}, hat aber viele Schnittstellen zu den verschiedensten Wissenschaften.\\
\includegraphics[width = .6\textwidth]{reinforcement_learning_einordnung.png} \includegraphics[width = .5\textwidth]{reinforcement_learning_einordnung.png}
Es hat viele Schnittstellen zu den verschiedensten Wissenschaften.\\ \includegraphics[width = .5\textwidth]{reinforcement_learning_schnittstellen.png}
\includegraphics[width = .8\textwidth]{reinforcement_learning_schnittstellen.png}
\section{Active Reinforcement Learning} \section{Active Reinforcement Learning}
\label{active reinforcement learning} \label{active reinforcement learning}
@ -102,7 +101,7 @@
$$Q(s,a)=\mathbb{E}\left[R_{t+1}+\gamma Q(S_{t+1},A_{t+1})\mid S_t=s, A_t=a\right]$$ $$Q(s,a)=\mathbb{E}\left[R_{t+1}+\gamma Q(S_{t+1},A_{t+1})\mid S_t=s, A_t=a\right]$$
Hieraus ergibt sich die Aktualisierungsregel für das Q-Learning Hieraus ergibt sich die Aktualisierungsregel für das Q-Learning
$$Q(s_t,a_t)\gets \underbrace{s_t,a_t}_{\text{old value}} + \underbrace{a}_{\text{learning rate}} \cdot \left(\overbrace{\underbrace{r_{t+1}}_{\text{reward}} + \underbrace{\gamma}_{\text{discount facotr}}\cdot\underbrace{\max_aQ(s_{t+1},a)}_{\text{estimate of optimal future value}}}^{\text{learned value}}-\underbrace{Q(s_t,a_t)_{\text{old value}}}\right)$$ $$Q(s_t,a_t)\gets \underbrace{s_t,a_t}_{\text{old value}} + \underbrace{a}_{\text{learning rate}} \cdot \left(\overbrace{\underbrace{r_{t+1}}_{\text{reward}} + \underbrace{\gamma}_{\text{discount facotr}}\cdot\underbrace{\max_aQ(s_{t+1},a)}_{\text{estimate of optimal future value}}}^{\text{learned value}}-\underbrace{Q(s_t,a_t)_{\text{old value}}}\right)$$
\includegraphics[width =.8\textwidth]{q-learning.png} \\ \includegraphics[width =.9\textwidth]{q-learning.png} \\
Für die Auswahl des Pfades wird häufig der $\epsilon$-greedy (\ref{epsilon-greedy}) Algorithmus verwendet.\\ Für die Auswahl des Pfades wird häufig der $\epsilon$-greedy (\ref{epsilon-greedy}) Algorithmus verwendet.\\
\begin{tabular}{|p{.465\textwidth}|p{.465\textwidth}|} \begin{tabular}{|p{.465\textwidth}|p{.465\textwidth}|}
\hline \hline

View File

@ -9,15 +9,15 @@
\label{csp: examples} \label{csp: examples}
\subsection{Karteneinfärbung} \subsection{Karteneinfärbung}
\label{csp: Karteneinfaerbung} \label{csp: Karteneinfaerbung}
\includegraphics[width = \textwidth]{karteneinfärbung.png} \includegraphics[width = .8\textwidth]{karteneinfärbung.png}
\subsection{N-Damen-Problem} \subsection{N-Damen-Problem}
\label{csp: n-damen} \label{csp: n-damen}
\includegraphics[width = \textwidth]{n-damen.png} \includegraphics[width = .8\textwidth]{n-damen.png}
\subsection{Sudoku} \subsection{Sudoku}
\label{csp: sudoku} \label{csp: sudoku}
\includegraphics[width = \textwidth]{sudoku.png} \includegraphics[width = .8\textwidth]{sudoku.png}
\section{Lösungswege} \section{Lösungswege}
\label{csp: solutions} \label{csp: solutions}

View File

@ -1,6 +1,6 @@
\chapter{Lokale Suche} \chapter{Lokale Suche}
\label{local search} \label{local search}
\includegraphics[width = \textwidth]{lokale suche.png} \includegraphics[width = .9\textwidth]{lokale suche.png}
\section{Hill Climbing} \section{Hill Climbing}
\label{hill climbing} \label{hill climbing}
@ -28,15 +28,19 @@
\hline \hline
\textbf{Vorteile} & \textbf{Nachteile}\\ \textbf{Vorteile} & \textbf{Nachteile}\\
\hline \hline
\vspace{-5mm}
\begin{itemize} \begin{itemize}
\item schnell und effizient zu einer besseren Lösung \item schnell und effizient zu einer besseren Lösung
\end{itemize} & \end{itemize}
\vspace{-5mm} &
\vspace{-5mm}
\begin{itemize} \begin{itemize}
\item Schaut nicht weiter als zu den direkten Nachbarn, \item Schaut nicht weiter als zu den direkten Nachbarn,
bleibt daher in lokalen Maxima, Plateaus, u.ä. stecken bleibt daher in lokalen Maxima, Plateaus, u.ä. stecken
\item \textbf{nicht vollständig} \item \textbf{nicht vollständig}
\item \textbf{nicht optimal} \item \textbf{nicht optimal}
\end{itemize}\\ \end{itemize}
\vspace{-5mm}\\
\hline \hline
\end{tabular} \end{tabular}

View File

@ -8,13 +8,17 @@
\subsection{Bias-Variance-Tradeoff} \subsection{Bias-Variance-Tradeoff}
\label{bias-variance-tradeoff} \label{bias-variance-tradeoff}
Je mehr Bias ein Modell erhält, desto kleiner ist die Varianz, die z.B. durch Rauschen von Messdaten verursacht wird. Je mehr Bias ein Modell erhält, desto kleiner ist die Varianz, die z.B. durch Rauschen von Messdaten verursacht wird.
\includegraphics[width = \textwidth]{bias-variance-tradeoff.png} \begin{center}
\includegraphics[width = .9\textwidth]{bias-variance-tradeoff.png}
\end{center}
\section{Algorithmic Bias} \section{Algorithmic Bias}
\label{algorithmic bias} \label{algorithmic bias}
Unter dem \say{algorithmic bias} versteht man alle Einflussfaktoren, Unter dem \say{algorithmic bias} versteht man alle Einflussfaktoren,
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).\\ die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).
\includegraphics[width = \textwidth]{algorithmic_bias.png} \begin{center}
\includegraphics[width = .9\textwidth]{algorithmic_bias_example.png}
\end{center}
Diese Form des Bias kann an unterschiedlichen Stellen der Modellerstellung auftreten.\\ Diese Form des Bias kann an unterschiedlichen Stellen der Modellerstellung auftreten.\\
\includegraphics[width = \textwidth]{algorithmic_bias.png}\\ \includegraphics[width = \textwidth]{algorithmic_bias.png}\\

View File

@ -10,10 +10,14 @@
\section{Heatmaps} \section{Heatmaps}
\label{erklaerbarkeit: heatmaps} \label{erklaerbarkeit: heatmaps}
Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden, Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden,
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\ welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\ \begin{center}
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\ \includegraphics[width = .7\textwidth]{layer-wise_relevance_propagation.png}
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}\\ \end{center}
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:
\begin{center}
\includegraphics[width = .8\textwidth]{validierung_gesichtsklassifikator.png}\\
\end{center}
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind. Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\ Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\ \includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\
@ -26,27 +30,25 @@
dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss, dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss,
das System zu erklären. das System zu erklären.
Die Erklärungen sind somit \say{wirklichkeitsgetreu}. Die Erklärungen sind somit \say{wirklichkeitsgetreu}.
Die ausgegebene Erklärung stimmt sicher mit dem tatsächlichen Aufbau des Modells überein.
Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber. Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber.
Da der Mensch lediglich dazu in der Lage ist $7\pm 2$ Elemente gleichzeitig im Kopf zu behalten, Die vom System gelieferte Interpretation sollte dabei nur so viele Elemente enthalten, wie der Mensch im Kopf halten kann ($\approx 7 \pm 2$).
sollte die Interpretation, die das System liefert auch in etwa so viele Eigenschaften verwenden.
Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}). Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}).
\subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}} \subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}}
\label{accuracy-interpretability tradeoff mythos} \label{accuracy-interpretability tradeoff mythos}
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.\\ Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.
\includegraphics[width =.4\textwidth]{accuracy_interpretability_tradeoff.png}\\ Allerdings ist dies ein Mythos.
Da beide Eigenschaften allerdings nicht quantifizierbar sind, ist dies ein Mythos.
Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein, Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein,
da sie dem Entwickler helfen können das Problem besser zu verstehen. da sie dem Entwickler helfen können das Problem besser zu verstehen.
(Beispiel: siehe Vorlesung \say{Problematiken aktueller Ansätze})
\paragraph{Beispiel 2HELPS2B}
siehe Vorlesung \say{Problematiken aktueller Ansätze}
\subsection{Interpretierbare Modelle für Bilder} \subsection{Interpretierbare Modelle für Bilder}
\label{interpretierbare bilder modelle} \label{interpretierbare bilder modelle}
Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt. Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt.
Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\ Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\
\includegraphics[width = \textwidth]{this_looks_like_that.png} \begin{figure}[h]
\vspace{-5mm}
\includegraphics[width = \textwidth]{this_looks_like_that2.png} \includegraphics[width = \textwidth]{this_looks_like_that.png}
\includegraphics[width = \textwidth]{this_looks_like_that2.png}\\
\vspace{-25mm}
\end{figure}

View File

@ -8,7 +8,6 @@
\item Produktionsausfall (durch unentdeckten Systemfehler) \item Produktionsausfall (durch unentdeckten Systemfehler)
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias}))) \item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht) \item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
\item \dots
\end{itemize} \end{itemize}
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben. Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.

View File

@ -46,8 +46,8 @@
\section{Hinweise zur Implementierung} \section{Hinweise zur Implementierung}
\label{Hinweise zur Implementierung} \label{Hinweise zur Implementierung}
\includegraphics[width = \textwidth]{hinweise_zur_implementierung.png} \includegraphics[width = .83\textwidth]{hinweise_zur_implementierung.png}
\includegraphics[width = \textwidth]{hinweise_zur_implementierung2.png} \includegraphics[width = .83\textwidth]{hinweise_zur_implementierung2.png}
\includegraphics[width = \textwidth]{hinweise_zur_implementierung3.png} \includegraphics[width = .83\textwidth]{hinweise_zur_implementierung3.png}