formatierung verbessert
This commit is contained in:
parent
412f5005b3
commit
631f74c840
@ -26,6 +26,8 @@ rightsub = \grq%
|
||||
%for code snippets
|
||||
\usepackage{xcolor}
|
||||
\usepackage{listings}
|
||||
%for table color
|
||||
\usepackage{colortbl}
|
||||
%acronyms
|
||||
\usepackage[printonlyused]{acronym}
|
||||
%header and footer
|
||||
|
@ -10,15 +10,15 @@
|
||||
|
||||
\section{Zielbasierter Agent}
|
||||
\label{goal-based agent}
|
||||
\includegraphics[width=\textwidth]{goal-based_agent.png}
|
||||
\includegraphics[width=.9\textwidth]{goal-based_agent.png}
|
||||
|
||||
\section{Nutzenorientierter Agent}
|
||||
\label{utility-oriented agent}
|
||||
\includegraphics[width=\textwidth]{utility-oriented_agent.png}
|
||||
\includegraphics[width=.9\textwidth]{utility-oriented_agent.png}
|
||||
|
||||
\section{Lernender Agent}
|
||||
\label{learning agent}
|
||||
\includegraphics[width=\textwidth]{learning_agent.png}
|
||||
\includegraphics[width=.9\textwidth]{learning_agent.png}
|
||||
|
||||
\section{Softwarearchitekturen für Agentenprogramme}
|
||||
\label{software architecture for agent programs}
|
||||
@ -33,11 +33,13 @@
|
||||
\hline
|
||||
\textbf{Vorteile} & \textbf{Nachteile}\\
|
||||
\hline
|
||||
\vspace{-5mm}
|
||||
\begin{itemize}
|
||||
\item Einfach (Schichten sind abgeschlossene Verhalten)
|
||||
\item deterministisch (daher echtzeitfähig)
|
||||
\item Parallelität in der Ausführung
|
||||
\end{itemize} &
|
||||
\vspace{-5mm}
|
||||
\begin{itemize}
|
||||
\item Verhalten fest implementiert und von Umgebung abhängig
|
||||
\item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar
|
||||
|
@ -5,6 +5,7 @@
|
||||
\section{\ac{PEAS} Beispiele}
|
||||
\label{peas beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_PEAS.png}
|
||||
\pagebreak
|
||||
|
||||
\section{Eigenschaften von Umgebungen}
|
||||
\label{umgebungen: eigenschaften}
|
||||
|
@ -48,7 +48,7 @@
|
||||
{\Huge\color{orange}Probleme bei unerwarteten Daten!}\\
|
||||
\includegraphics[width=.6\textwidth]{lernen_durch_unterscheiden_fehlerquellen.png}
|
||||
\end{center}
|
||||
|
||||
\pagebreak
|
||||
\subsection{Polanyi-Paradox}
|
||||
\label{polanyi-paradox}
|
||||
Der Mensch versteht selber nicht, wie er in der Lage dazu ist Bilder zu unterscheiden.
|
||||
|
@ -4,12 +4,30 @@
|
||||
Für weitere Informationen siehe Zusammenfassung KB Kapitel 1.
|
||||
\section{Syntax}
|
||||
\label{aussagenlogik: syntax}
|
||||
\includegraphics[width = \textwidth]{syntax_aussagenlogik.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .6\textwidth]{syntax_aussagenlogik.png}
|
||||
\end{center}
|
||||
|
||||
\section{Operatoren}
|
||||
\label{aussagenlogik: operatoren}
|
||||
\includegraphics[width = \textwidth]{aussagenlogik.png}
|
||||
\begin{tabular}{c|c||c|c|c|c|c|c|c}
|
||||
\rowcolor{black!20!white}
|
||||
$A$ & $B$ & $\neg A$ & $A\wedge B$ & $A\vee B$ & $A\Rightarrow B$ & $A\Leftrightarrow B$ & $\neg A \vee B$ & $(A\Rightarrow B)\wedge(B\Rightarrow A)$\\
|
||||
\hline
|
||||
0&0&1&0&0&1&1&1&1\\
|
||||
\hline
|
||||
0&1&1&0&1&1&0&1&0\\
|
||||
\hline
|
||||
1&0&0&0&1&0&0&0&0\\
|
||||
\hline
|
||||
1&1&0&1&1&1&1&1&1
|
||||
\end{tabular}
|
||||
|
||||
|
||||
\section{Äquivalenzen}
|
||||
\label{aussagenlogik: aequivalenzen}
|
||||
\includegraphics[width = \textwidth]{aussagenlogik_äquivalenzen.png}
|
||||
\begin{figure}
|
||||
\vspace{-10mm}
|
||||
\includegraphics[width = .8\textwidth]{aussagenlogik_äquivalenzen.png}
|
||||
\vspace{-10mm}
|
||||
\end{figure}
|
@ -2,10 +2,13 @@
|
||||
\label{logik: beweisverfahren}
|
||||
\section{Logische Folgerung}
|
||||
\label{logische folgerung}
|
||||
\begin{wrapfigure}[10]{r}{.5\textwidth}
|
||||
\vspace{-10mm}
|
||||
\includegraphics[width = .5\textwidth]{folgerung.png}
|
||||
\end{wrapfigure}
|
||||
$$\models \subseteq Formel(\Sigma)\times Formel(\Sigma)$$
|
||||
$$ F \models G: \text{Aus }F\text{ folgt logisch }G$$
|
||||
$$ F \models G \text{ gdw. } Mod(F)\subseteq Mod(G)$$
|
||||
\includegraphics[width = .8\textwidth]{folgerung.png}\\
|
||||
Hieraus lässt sich ein automatisiertes Beweisverfahren entwickeln, indem überprüft wird, ob in jeder Welt, ind der $F$ war ist auch $G$ war ist.
|
||||
|
||||
\section{Widerspruchsbeweis}
|
||||
@ -30,25 +33,33 @@
|
||||
|
||||
\subsection{Inferenzregeln}
|
||||
\label{inferenzregeln}
|
||||
\includegraphics[width = .8\textwidth]{inferenzregeln.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .6\textwidth]{inferenzregeln.png}
|
||||
\end{center}
|
||||
|
||||
\subsection{Beweis durch Resolution}
|
||||
\label{beweis durch resolution}
|
||||
\Large
|
||||
$$\frac{A\vee B, \neg B\vee C}{A\vee C}$$
|
||||
\normalsize
|
||||
|
||||
\subsection{Allgemeine Resolutionsregel}
|
||||
\label{allgemeine resolutionsregel}
|
||||
\Large
|
||||
$$\frac{(A_1\vee \dots \vee A_m\vee B), (\neg B \vee C_1 \vee\dots\vee C_n)}{(A_1\vee\dots\vee A_m\vee C_1\vee\dots\vee C_n)}$$
|
||||
\normalsize
|
||||
|
||||
\subsection{Klauselform}
|
||||
\label{klauselform}
|
||||
Die Klauselform ist die Mengendarstellung der \ac{KNF}:\\
|
||||
\includegraphics[width = \textwidth]{klauselform.png}
|
||||
\includegraphics[width = .7\textwidth]{klauselform.png}
|
||||
|
||||
\subsection{Resolutionsalgorithmus}
|
||||
\label{resolutionsalgorithmus}
|
||||
\includegraphics[width = .8\textwidth]{resolutionsalgorithmus1.png}\\
|
||||
\includegraphics[width = .3\textwidth]{resolutionsalgorithmus2.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .6\textwidth]{resolutionsalgorithmus1.png}\\
|
||||
\includegraphics[width = .2\textwidth]{resolutionsalgorithmus2.png}
|
||||
\end{center}
|
||||
|
||||
\section{Hornklauseln}
|
||||
\label{hornklauseln}
|
||||
@ -67,11 +78,15 @@
|
||||
\label{forward chaining}
|
||||
Der Modus Ponens (\ref{inferenzregeln}) ist für Hornklauseln eine vollständige Inferenzregel:
|
||||
$$\frac{A_1\wedge\dots\wedge A_m, A_1\wedge\dots\wedge A_m \Rightarrow B}{B}$$
|
||||
\includegraphics[width = \textwidth]{forward_chaining.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .6\textwidth]{forward_chaining.png}
|
||||
\end{center}
|
||||
|
||||
\subsection{Backward Chaining}
|
||||
\label{backward chaining}
|
||||
Während das Forward Chaining (\ref{forward chaining}) den einen datengetriebenen Ansatz verfolgt (Bei den Fakten starten und Anfrage herleiten)
|
||||
beginnt das Backward Chaining bei der Anfrage und arbeitet die relevanten Teile des Und-Oder-Graphen rückwärts ab.
|
||||
Dies hat den Vorteil, das anders als beim Forward Chaining keine potentiell unnötigen Formeln abgeleitet werden.\\
|
||||
\includegraphics[width = \textwidth]{backward_chaining.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .6\textwidth]{backward_chaining.png}
|
||||
\end{center}
|
@ -1,6 +1,8 @@
|
||||
\chapter{Einführung}
|
||||
\label{einfuehrung logik}
|
||||
\includegraphics[width = \textwidth]{logikbasierte_wissensrepräsentation_und_Interferenz.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .8\textwidth]{logikbasierte_wissensrepräsentation_und_Interferenz.png}
|
||||
\end{center}
|
||||
|
||||
\section{Wissensbasierter Agent}
|
||||
\label{wissensbasierter Agent}
|
||||
|
@ -2,7 +2,9 @@
|
||||
\label{formen der inferenz}
|
||||
\section{Inferenzrelationen}
|
||||
\label{inferenzrelationen}
|
||||
\includegraphics[width = \textwidth]{inferenzrelationen.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .5\textwidth]{inferenzrelationen.png}
|
||||
\end{center}
|
||||
|
||||
\section{Korrektes und unsicheres Schließen}
|
||||
\label{korrektes und unsicheres schliessen}
|
||||
@ -20,7 +22,7 @@
|
||||
\label{syntax und semantik}
|
||||
Eine Syntax legt fest, wie die Sätze zur formalen Sprache der repräsentierten Welt aufgebaut sind.
|
||||
Die Semantik definiert, auf welche Aspekte der repräsentierten Welt sich ein Satz bezieht.\\
|
||||
\includegraphics[width = \textwidth]{syntax und semantik.png}
|
||||
\includegraphics[width = .8\textwidth]{syntax und semantik.png}
|
||||
|
||||
\section{Menschliches Schließen}
|
||||
\label{menschliches schliessen}
|
||||
|
@ -31,7 +31,7 @@
|
||||
\section{Klassifizierung von Formeln}
|
||||
\label{formelklassifizierung}
|
||||
\begin{tabbing}
|
||||
\=\textbf{erfüllbar} \hspace{10mm}\= $Mod(F)\ne\emptyset$\\
|
||||
\=\textbf{erfüllbar} \hspace{20mm}\= $Mod(F)\ne\emptyset$\\
|
||||
\>\textbf{unerfüllbar} \> $Mod(F) = \emptyset$\\
|
||||
\>\textbf{allgemeingültig} \> $Mod(F) = Int(\Sigma)$\\
|
||||
\>\textbf{falsifizierbar} \> $Mod(F) \ne Int(\Sigma)$
|
||||
|
@ -29,7 +29,7 @@
|
||||
|
||||
\subsection{Mögliche Welten}
|
||||
\label{prae. 1.stufe: moegliche welten}
|
||||
\includegraphics[width = \textwidth]{prädikatenlogik_1_stufe_mögliche_welten.png}
|
||||
\includegraphics[width = .9\textwidth]{prädikatenlogik_1_stufe_mögliche_welten.png}
|
||||
|
||||
\subsection{Funtionssymbole}
|
||||
\label{prae. 1.stufe: funktionssymbole}
|
||||
@ -40,7 +40,7 @@
|
||||
|
||||
\subsection{Funktionen}
|
||||
\label{prae. 1.stufe: funktionssymbole}
|
||||
\includegraphics[width = \textwidth]{prädikatenlogik_1_stufe_funktionen.png}
|
||||
\includegraphics[width = .9\textwidth]{prädikatenlogik_1_stufe_funktionen.png}
|
||||
|
||||
\subsection{Prädikatensymbole}
|
||||
\label{prae. 1.stufe: praedikatensymbole}
|
||||
|
@ -47,7 +47,9 @@
|
||||
|
||||
\section{Übersicht über die Welt der \ac{KI}}
|
||||
\label{ml: uebersicht}
|
||||
\includegraphics[width = \textwidth]{übersicht_ki.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .7\textwidth]{übersicht_ki.png}
|
||||
\end{center}
|
||||
|
||||
\subsection{Einordnung}
|
||||
\label{ml: uebersicht: einordnung}
|
||||
@ -78,6 +80,7 @@
|
||||
So soll ein Klassifizierer beispielsweise nicht die perfekte Lösung für die Trainingsdaten liefern, sondern lediglich eine \textbf{generalisierte} Lösung erstellen,
|
||||
die auch unbekannte Daten gut klassifiziert.\\
|
||||
\includegraphics[width = \textwidth]{generalisierung.png}
|
||||
\pagebreak
|
||||
|
||||
\section{Hypothesenraum}
|
||||
\label{ml: hypothesenraum}
|
||||
@ -96,7 +99,10 @@
|
||||
Von den Trainingsdaten werden bei vielen Modellerstellungen noch einmal 20\% für die Validierung während des Trainings abgespalten.
|
||||
Bei dem Splitten der Daten muss darauf geachtet werden, dass das Datenverhältnis in den Splits dem Gesamtdatensatz entspricht.
|
||||
D.h. z.B. das sortierte Daten vor dem splitten gemischt werden müssen\\
|
||||
\begin{center}
|
||||
\includegraphics[width = .8\textwidth]{train_test_split.png}
|
||||
\end{center}
|
||||
\pagebreak
|
||||
|
||||
\subsection{N-fold Cross-Validation}
|
||||
\label{ml: n-fold cross-validation}
|
||||
|
@ -84,10 +84,9 @@
|
||||
|
||||
\section{Einordnung in Maschinelles Lernen}
|
||||
\label{rl: einordnung}
|
||||
Das /ac{RL} ist ein Teil des \acf{ML}.\\
|
||||
\includegraphics[width = .6\textwidth]{reinforcement_learning_einordnung.png}
|
||||
Es hat viele Schnittstellen zu den verschiedensten Wissenschaften.\\
|
||||
\includegraphics[width = .8\textwidth]{reinforcement_learning_schnittstellen.png}
|
||||
Das \ac{RL} ist ein Teil des \acf{ML}, hat aber viele Schnittstellen zu den verschiedensten Wissenschaften.\\
|
||||
\includegraphics[width = .5\textwidth]{reinforcement_learning_einordnung.png}
|
||||
\includegraphics[width = .5\textwidth]{reinforcement_learning_schnittstellen.png}
|
||||
|
||||
\section{Active Reinforcement Learning}
|
||||
\label{active reinforcement learning}
|
||||
@ -102,7 +101,7 @@
|
||||
$$Q(s,a)=\mathbb{E}\left[R_{t+1}+\gamma Q(S_{t+1},A_{t+1})\mid S_t=s, A_t=a\right]$$
|
||||
Hieraus ergibt sich die Aktualisierungsregel für das Q-Learning
|
||||
$$Q(s_t,a_t)\gets \underbrace{s_t,a_t}_{\text{old value}} + \underbrace{a}_{\text{learning rate}} \cdot \left(\overbrace{\underbrace{r_{t+1}}_{\text{reward}} + \underbrace{\gamma}_{\text{discount facotr}}\cdot\underbrace{\max_aQ(s_{t+1},a)}_{\text{estimate of optimal future value}}}^{\text{learned value}}-\underbrace{Q(s_t,a_t)_{\text{old value}}}\right)$$
|
||||
\includegraphics[width =.8\textwidth]{q-learning.png} \\
|
||||
\includegraphics[width =.9\textwidth]{q-learning.png} \\
|
||||
Für die Auswahl des Pfades wird häufig der $\epsilon$-greedy (\ref{epsilon-greedy}) Algorithmus verwendet.\\
|
||||
\begin{tabular}{|p{.465\textwidth}|p{.465\textwidth}|}
|
||||
\hline
|
||||
|
@ -9,15 +9,15 @@
|
||||
\label{csp: examples}
|
||||
\subsection{Karteneinfärbung}
|
||||
\label{csp: Karteneinfaerbung}
|
||||
\includegraphics[width = \textwidth]{karteneinfärbung.png}
|
||||
\includegraphics[width = .8\textwidth]{karteneinfärbung.png}
|
||||
|
||||
\subsection{N-Damen-Problem}
|
||||
\label{csp: n-damen}
|
||||
\includegraphics[width = \textwidth]{n-damen.png}
|
||||
\includegraphics[width = .8\textwidth]{n-damen.png}
|
||||
|
||||
\subsection{Sudoku}
|
||||
\label{csp: sudoku}
|
||||
\includegraphics[width = \textwidth]{sudoku.png}
|
||||
\includegraphics[width = .8\textwidth]{sudoku.png}
|
||||
|
||||
\section{Lösungswege}
|
||||
\label{csp: solutions}
|
||||
|
@ -1,6 +1,6 @@
|
||||
\chapter{Lokale Suche}
|
||||
\label{local search}
|
||||
\includegraphics[width = \textwidth]{lokale suche.png}
|
||||
\includegraphics[width = .9\textwidth]{lokale suche.png}
|
||||
|
||||
\section{Hill Climbing}
|
||||
\label{hill climbing}
|
||||
@ -28,15 +28,19 @@
|
||||
\hline
|
||||
\textbf{Vorteile} & \textbf{Nachteile}\\
|
||||
\hline
|
||||
\vspace{-5mm}
|
||||
\begin{itemize}
|
||||
\item schnell und effizient zu einer besseren Lösung
|
||||
\end{itemize} &
|
||||
\end{itemize}
|
||||
\vspace{-5mm} &
|
||||
\vspace{-5mm}
|
||||
\begin{itemize}
|
||||
\item Schaut nicht weiter als zu den direkten Nachbarn,
|
||||
bleibt daher in lokalen Maxima, Plateaus, u.ä. stecken
|
||||
\item \textbf{nicht vollständig}
|
||||
\item \textbf{nicht optimal}
|
||||
\end{itemize}\\
|
||||
\end{itemize}
|
||||
\vspace{-5mm}\\
|
||||
\hline
|
||||
\end{tabular}
|
||||
|
||||
|
@ -8,13 +8,17 @@
|
||||
\subsection{Bias-Variance-Tradeoff}
|
||||
\label{bias-variance-tradeoff}
|
||||
Je mehr Bias ein Modell erhält, desto kleiner ist die Varianz, die z.B. durch Rauschen von Messdaten verursacht wird.
|
||||
\includegraphics[width = \textwidth]{bias-variance-tradeoff.png}
|
||||
\begin{center}
|
||||
\includegraphics[width = .9\textwidth]{bias-variance-tradeoff.png}
|
||||
\end{center}
|
||||
|
||||
\section{Algorithmic Bias}
|
||||
\label{algorithmic bias}
|
||||
Unter dem \say{algorithmic bias} versteht man alle Einflussfaktoren,
|
||||
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).\\
|
||||
\includegraphics[width = \textwidth]{algorithmic_bias.png}
|
||||
die zu einem systematischen Fehler des Systems führen (z.B. Unterrepräsentation einer Personengruppe in den Trainingsdaten).
|
||||
\begin{center}
|
||||
\includegraphics[width = .9\textwidth]{algorithmic_bias_example.png}
|
||||
\end{center}
|
||||
Diese Form des Bias kann an unterschiedlichen Stellen der Modellerstellung auftreten.\\
|
||||
\includegraphics[width = \textwidth]{algorithmic_bias.png}\\
|
||||
|
||||
|
@ -10,10 +10,14 @@
|
||||
\section{Heatmaps}
|
||||
\label{erklaerbarkeit: heatmaps}
|
||||
Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden,
|
||||
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
|
||||
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
|
||||
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
|
||||
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}\\
|
||||
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.
|
||||
\begin{center}
|
||||
\includegraphics[width = .7\textwidth]{layer-wise_relevance_propagation.png}
|
||||
\end{center}
|
||||
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:
|
||||
\begin{center}
|
||||
\includegraphics[width = .8\textwidth]{validierung_gesichtsklassifikator.png}\\
|
||||
\end{center}
|
||||
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
|
||||
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
|
||||
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}\\
|
||||
@ -26,27 +30,25 @@
|
||||
dass nicht (wie z.B. bei Heatmaps (\ref{erklaerbarkeit: heatmaps})) auf Basis einer externen Methode versucht werden muss,
|
||||
das System zu erklären.
|
||||
Die Erklärungen sind somit \say{wirklichkeitsgetreu}.
|
||||
Die ausgegebene Erklärung stimmt sicher mit dem tatsächlichen Aufbau des Modells überein.
|
||||
Dies erhöht das Vertrauen in die Erklärung und somit in das Modell selber.
|
||||
Da der Mensch lediglich dazu in der Lage ist $7\pm 2$ Elemente gleichzeitig im Kopf zu behalten,
|
||||
sollte die Interpretation, die das System liefert auch in etwa so viele Eigenschaften verwenden.
|
||||
Die vom System gelieferte Interpretation sollte dabei nur so viele Elemente enthalten, wie der Mensch im Kopf halten kann ($\approx 7 \pm 2$).
|
||||
Um dies auch bei komplexen Domänen erreichen zu können, benutzen interpretierbare Modelle hier fallbasiertes Schließen (\ref{inferenz und schliessen}).
|
||||
|
||||
\subsection{Accuracy-Interpretability Tradeoff {\color{red}Mythos}}
|
||||
\label{accuracy-interpretability tradeoff mythos}
|
||||
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.\\
|
||||
\includegraphics[width =.4\textwidth]{accuracy_interpretability_tradeoff.png}\\
|
||||
Da beide Eigenschaften allerdings nicht quantifizierbar sind, ist dies ein Mythos.
|
||||
Ein Mythos besagt, dass ein \ac{ML} System schlechter lernt, je interpretierbarer es ist.
|
||||
Allerdings ist dies ein Mythos.
|
||||
Gerade in der Entwicklung können gut interpretierbare Modelle sehr vom Vorteil sein,
|
||||
da sie dem Entwickler helfen können das Problem besser zu verstehen.
|
||||
|
||||
\paragraph{Beispiel 2HELPS2B}
|
||||
siehe Vorlesung \say{Problematiken aktueller Ansätze}
|
||||
(Beispiel: siehe Vorlesung \say{Problematiken aktueller Ansätze})
|
||||
|
||||
\subsection{Interpretierbare Modelle für Bilder}
|
||||
\label{interpretierbare bilder modelle}
|
||||
Da eine Argumentation auf Pixelbasis bei Bildern nicht zum Verständnis des Modells beiträgt wird hier meist ein \say{This looks like that} Verfahren angewandt.
|
||||
Hierbei gibt das Modell seine Begründungen für Klassifikationen als Vergleich mit bekannten gelabelten Daten aus.\\
|
||||
\begin{figure}[h]
|
||||
\vspace{-5mm}
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that.png}
|
||||
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that2.png}
|
||||
\includegraphics[width = \textwidth]{this_looks_like_that2.png}\\
|
||||
\vspace{-25mm}
|
||||
\end{figure}
|
||||
|
@ -8,7 +8,6 @@
|
||||
\item Produktionsausfall (durch unentdeckten Systemfehler)
|
||||
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
|
||||
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
|
||||
\item \dots
|
||||
\end{itemize}
|
||||
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.
|
||||
|
||||
|
@ -46,8 +46,8 @@
|
||||
|
||||
\section{Hinweise zur Implementierung}
|
||||
\label{Hinweise zur Implementierung}
|
||||
\includegraphics[width = \textwidth]{hinweise_zur_implementierung.png}
|
||||
\includegraphics[width = .83\textwidth]{hinweise_zur_implementierung.png}
|
||||
|
||||
\includegraphics[width = \textwidth]{hinweise_zur_implementierung2.png}
|
||||
\includegraphics[width = .83\textwidth]{hinweise_zur_implementierung2.png}
|
||||
|
||||
\includegraphics[width = \textwidth]{hinweise_zur_implementierung3.png}
|
||||
\includegraphics[width = .83\textwidth]{hinweise_zur_implementierung3.png}
|
Loading…
x
Reference in New Issue
Block a user