generated from TH_General/Template_Summary
57 lines
3.4 KiB
TeX
57 lines
3.4 KiB
TeX
\chapter{Supervised Learning}
|
|
\section{Einleitung}
|
|
Ein sehr komplexes Modell kann zwar das optimale Ergebnis für einen Trainingsdatensatz bilden,
|
|
stellt aber zumeist keine gute Lösung für das allgemeine Problem dar.
|
|
Meist ist es sinnvoll ein möglichst einfaches Modell zu entwickeln, welches die Trainingsdaten \say{gut} klassifiziert.
|
|
Ein solches Modell ist zumeist besser dazu in der Lage unbekannte Pattern zu klassifizieren.
|
|
Das Prinzip, immer das einfachste Modell zu wählen wird auch als \say{Occam's Razor} bezeichnet.\\
|
|
\includegraphics[width=.4\textwidth]{occam's razor 1.png}
|
|
\includegraphics[width=.5\textwidth]{occam's razor 2.png}
|
|
|
|
\section{Linear Machines}
|
|
Mithilfe von linearen Maschinen lassen sich bestimmte Arten von Problemen klassifizieren.\\
|
|
\includegraphics[width=\textwidth]{seperability.png}\\
|
|
Hierfür wird auf viele Aspekte der Vektoralgebra zurückgegriffen (siehe \ref{Vektoralgebra}).
|
|
|
|
\section{Aufstellung einer Diskriminanten}
|
|
\includegraphics[width=.8\textwidth]{diskriminante.png}\\
|
|
\paragraph{Verfahren}\mbox{}\\
|
|
\begin{enumerate}
|
|
\item durchschnittliches Element der Cluster errechnen:\\
|
|
\vspace{0.1mm}\\
|
|
Class C1: $\overline{m_{1C1}}=\frac{1}{M}\sum^{M-1}_{i=0}m_{1C1,i}\hspace{1mm}\overline{m_{2C1}}=\frac{1}{M}\sum^{M-1}_{i=0}m_{2C1,i}$\\
|
|
\vspace{0.1mm}\\
|
|
Class C2: $\overline{m_{1C2}}=\frac{1}{M}\sum^{M-1}_{i=0}m_{1C2,i}\hspace{1mm}\overline{m_{2C2}}=\frac{1}{M}\sum^{M-1}_{i=0}m_{2C2,i}$\\
|
|
\item Diskriminanten Funktion errechnen:\\
|
|
\includegraphics[width=.8\textwidth]{diskriminanten_berechnung.png}\\
|
|
\includegraphics[width=.8\textwidth]{diskriminanten_berechnung2.png}\\
|
|
\includegraphics[width=.8\textwidth]{diskriminanten_berechnung3.png}
|
|
\item \begin{align*}
|
|
m_2&=-\frac{1}{a}m_1+m_{h2}+\frac{a}{a}m_{h1}\\
|
|
&\downarrow\\
|
|
m_2 + \frac{1}{a}m_1 - \left(m_{h2}+\frac{a}{a}m_{h1}\right) &= 0\\
|
|
&\downarrow
|
|
\end{align*}
|
|
\begin{align*}
|
|
g(\bm{m}) &= \left(\frac{1}{a},1\right)\begin{pmatrix}m_1\\m_2\end{pmatrix}-\left(\frac{1}{a},1\right)\begin{pmatrix}m_{h1}\\m_{h2}\end{pmatrix} = 0\\
|
|
g(\bm{m}) &= \left(\frac{1}{a},1\right)\cdot(\bm{m}-\bm{m}_{\bm{h}}) = 0 \hspace{1mm} \left(\frac{1}{a},1\right)=\bm{C}^T\\
|
|
g(\bm{m}) &= \bm{C}^T\tilde{\bm{m}}=0
|
|
\end{align*}
|
|
\end{enumerate}
|
|
|
|
\subsection{Beispiel: 3 Koeffizienten}
|
|
$g(\bm{m}) = \bm{w}^T\bm{m}=0$ mit $\bm{w}^T = (w_2,w_1,w_0)$ und $\bm{m} = (m_2,m_1,1)^T$:
|
|
$$g(\bm{m}) = w_2m_2 + w_1m_1 + w_0 = 0$$
|
|
|
|
\paragraph{Vergleich der Koeffizienten}
|
|
$$g(\bm{m}) = m_2 + \frac{1}{a}m_1-\left(m_{h2}+\frac{1}{a}m_{h1}\right) = 0 \rightarrow a\cdot m_2+m_1-(a\cdot m_{h2}+m_{h1})=0$$
|
|
$$w_2m_2+w_1m_1+w_0=0\rightarrow w_2=a$$
|
|
$$w_1=1$$
|
|
$$w_0=-(a\cdot m_{h2}+m{h1})$$
|
|
Daraus folgt:
|
|
$$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$
|
|
$$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$
|
|
|
|
\subsection{Das technische Neuron}
|
|
Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\
|
|
\includegraphics[width=.8\textwidth]{technisches_neuron.png} |