improved page breaks

This commit is contained in:
2021-01-29 22:36:13 +01:00
parent 3d1b0956e5
commit df345bdfea
7 changed files with 18 additions and 8 deletions

View File

@@ -42,6 +42,7 @@
$$\mu_\text{MFPC}(m,\bm{p}) = 2^{-d(m,\bm{p})}\in I \text{ mit } d(m,\bm{p}) = \left(\frac{|m-S|}{C}\right)^D$$
Diese Funktion ist sehr effizient in Hardware implementierbar.
\acp{MFPC} wurden dafür entworfen Pattern Recognition (\ref{information and pattern regocgnition}) Systeme auf \acp{FPGA} zu verwenden.
\pagebreak
\subsection{Bestimmung der Parameter}
\label{fpc: parameterbestimmung}
@@ -70,6 +71,7 @@
0, &\mu(\bm{m};\bm{p})< B
\end{cases}
$$
\pagebreak
\section{Aggregationsoperator $h$}
\label{fpc: aggregationsopperator}

View File

@@ -41,6 +41,7 @@
Daraus folgt:
$$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$
$$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$
\pagebreak
\section{Das technische Neuron}
Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\
@@ -52,7 +53,7 @@
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
\includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus.png}
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
\subsection{Novikoff's Theorem}\label{novikoffs theorem}
Novikoff's Theorem besagt, dass der Lernalgorithmus des Perzeptrons bei einem linear trennbaren Datensatz unweigerlich eine Diskriminante findet.
@@ -73,11 +74,11 @@
Hierbei zergliedert (shatters) eine Hyperebene in einem Feature Space $\mathbb{R}^d$ $h=d+1$ linear unabhängige Punkte.
\subsubsection{Beispiel: Shattering im 2-dimensionalen Raum}
\includegraphics[width = .7\textwidth]{vc-dimension_shattering.png}
\includegraphics[width = .5\textwidth]{vc-dimension_shattering.png}
\subsection{Das XOR-Problem}
Um das XOR-Problem zu zergliedern werden 2 Diskriminanten benötigt:\\
\includegraphics[width=.8\textwidth]{XOR-Problem1.png}\\
\includegraphics[width=\textwidth]{XOR-Problem1.png}\\
Um das XOR-Problem von einer linearen Maschine klassifizieren zu lassen muss diese aus mindestens 2 Schichten bestehen.\\
\includegraphics[width=\textwidth]{XOR-Problem2.png}
@@ -92,7 +93,7 @@
Das Modell mit dem geringsten Test-Fehler wird als bestes Modell ausgewählt.
Dieser Ansatz beugt einem Over-Fitting des Modells auf die Trainingsdaten vor.\\
\begin{center}
\includegraphics[width=.6\textwidth]{cross-validation.png}
\includegraphics[width=.8\textwidth]{cross-validation.png}
\end{center}
\subsection{Loss function}
@@ -147,7 +148,7 @@
\subsection{Structural Risk}\label{strucutral risk}
Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\
\includegraphics[width=.6\textwidth]{structural_risk.png}
\includegraphics[width=.55\textwidth]{structural_risk.png}
\subsubsection{\ac{SRM}}
Eine Reduzierung kann entweder dadurch erreicht werden,

View File

@@ -20,6 +20,7 @@
\begin{wrapfigure}{h}{.6\textwidth}
\vspace{-10mm}
\includegraphics[width=.6\textwidth]{svm_base.png}
\vspace{-50mm}
\end{wrapfigure}
Für das dargestellte Bild ergibt sich:
\begin{flalign*}
@@ -32,6 +33,7 @@
$$r_p=\frac{g(\bm{m}_p)}{|\bm{w}|}\ge 0$$
und
$$r_0=-\frac{w_0}{|\bm{w}|}$$
\pagebreak
\subsection{Support Vektoren}
Um die Diskriminante in dem Bereich der möglichen Diskriminaten zu wählen, die am besten generalisiert werden unterstützende Vektoren (support vectors) verwendet.
@@ -110,7 +112,7 @@
$$K(\bm{m}_i,\bm{m}_j) = \phi^T(\bm{m}_i) \cdot \phi(\bm{m}_j)$$
\subsection{Formalismus}
\includegraphics[width=.8\textwidth]{kernel_trick_formalism.png}
\includegraphics[width=.7\textwidth]{kernel_trick_formalism.png}
\subsection{Der Trick}
\includegraphics[width=.8\textwidth]{kernel_trick_trick.png}
@@ -121,6 +123,7 @@
\subsubsection{Beispiel: Gausian \ac{RBF} Kernel}
$$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$
\includegraphics[width=\textwidth]{kernel_trick_example.png}
\pagebreak
\section{Soft Margin}
Falls Daten vorliegen, die nicht \say{einfach} (\ref{occam's razor}) separierbar sind ist es zwar möglich den Feature Space so zu transformieren, dass er linear separierbar wird,