improved page breaks

This commit is contained in:
paul-loedige 2021-01-29 22:36:13 +01:00
parent 3d1b0956e5
commit df345bdfea
7 changed files with 18 additions and 8 deletions

View File

@ -35,7 +35,7 @@
\begin{center}
\includegraphics[width=.8\textwidth]{human_vs_machine 1.png}\\
\includegraphics[width=\textwidth]{human_vs_machine 2.png}
\includegraphics[width=.8\textwidth]{human_vs_machine 2.png}
\end{center}
\section{Class allocation (Klassen-Einteilung)}

View File

@ -42,6 +42,7 @@
$$\mu_\text{MFPC}(m,\bm{p}) = 2^{-d(m,\bm{p})}\in I \text{ mit } d(m,\bm{p}) = \left(\frac{|m-S|}{C}\right)^D$$
Diese Funktion ist sehr effizient in Hardware implementierbar.
\acp{MFPC} wurden dafür entworfen Pattern Recognition (\ref{information and pattern regocgnition}) Systeme auf \acp{FPGA} zu verwenden.
\pagebreak
\subsection{Bestimmung der Parameter}
\label{fpc: parameterbestimmung}
@ -70,6 +71,7 @@
0, &\mu(\bm{m};\bm{p})< B
\end{cases}
$$
\pagebreak
\section{Aggregationsoperator $h$}
\label{fpc: aggregationsopperator}

View File

@ -41,6 +41,7 @@
Daraus folgt:
$$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$
$$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$
\pagebreak
\section{Das technische Neuron}
Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\
@ -52,7 +53,7 @@
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
\includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus.png}
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
\subsection{Novikoff's Theorem}\label{novikoffs theorem}
Novikoff's Theorem besagt, dass der Lernalgorithmus des Perzeptrons bei einem linear trennbaren Datensatz unweigerlich eine Diskriminante findet.
@ -73,11 +74,11 @@
Hierbei zergliedert (shatters) eine Hyperebene in einem Feature Space $\mathbb{R}^d$ $h=d+1$ linear unabhängige Punkte.
\subsubsection{Beispiel: Shattering im 2-dimensionalen Raum}
\includegraphics[width = .7\textwidth]{vc-dimension_shattering.png}
\includegraphics[width = .5\textwidth]{vc-dimension_shattering.png}
\subsection{Das XOR-Problem}
Um das XOR-Problem zu zergliedern werden 2 Diskriminanten benötigt:\\
\includegraphics[width=.8\textwidth]{XOR-Problem1.png}\\
\includegraphics[width=\textwidth]{XOR-Problem1.png}\\
Um das XOR-Problem von einer linearen Maschine klassifizieren zu lassen muss diese aus mindestens 2 Schichten bestehen.\\
\includegraphics[width=\textwidth]{XOR-Problem2.png}
@ -92,7 +93,7 @@
Das Modell mit dem geringsten Test-Fehler wird als bestes Modell ausgewählt.
Dieser Ansatz beugt einem Over-Fitting des Modells auf die Trainingsdaten vor.\\
\begin{center}
\includegraphics[width=.6\textwidth]{cross-validation.png}
\includegraphics[width=.8\textwidth]{cross-validation.png}
\end{center}
\subsection{Loss function}
@ -147,7 +148,7 @@
\subsection{Structural Risk}\label{strucutral risk}
Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\
\includegraphics[width=.6\textwidth]{structural_risk.png}
\includegraphics[width=.55\textwidth]{structural_risk.png}
\subsubsection{\ac{SRM}}
Eine Reduzierung kann entweder dadurch erreicht werden,

View File

@ -20,6 +20,7 @@
\begin{wrapfigure}{h}{.6\textwidth}
\vspace{-10mm}
\includegraphics[width=.6\textwidth]{svm_base.png}
\vspace{-50mm}
\end{wrapfigure}
Für das dargestellte Bild ergibt sich:
\begin{flalign*}
@ -32,6 +33,7 @@
$$r_p=\frac{g(\bm{m}_p)}{|\bm{w}|}\ge 0$$
und
$$r_0=-\frac{w_0}{|\bm{w}|}$$
\pagebreak
\subsection{Support Vektoren}
Um die Diskriminante in dem Bereich der möglichen Diskriminaten zu wählen, die am besten generalisiert werden unterstützende Vektoren (support vectors) verwendet.
@ -110,7 +112,7 @@
$$K(\bm{m}_i,\bm{m}_j) = \phi^T(\bm{m}_i) \cdot \phi(\bm{m}_j)$$
\subsection{Formalismus}
\includegraphics[width=.8\textwidth]{kernel_trick_formalism.png}
\includegraphics[width=.7\textwidth]{kernel_trick_formalism.png}
\subsection{Der Trick}
\includegraphics[width=.8\textwidth]{kernel_trick_trick.png}
@ -121,6 +123,7 @@
\subsubsection{Beispiel: Gausian \ac{RBF} Kernel}
$$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$
\includegraphics[width=\textwidth]{kernel_trick_example.png}
\pagebreak
\section{Soft Margin}
Falls Daten vorliegen, die nicht \say{einfach} (\ref{occam's razor}) separierbar sind ist es zwar möglich den Feature Space so zu transformieren, dass er linear separierbar wird,

View File

@ -13,8 +13,10 @@
Interessant sind hierbei vor allem das CLIQUE-Problem.
\begin{figure}[H]
\centering
\vspace{-8mm}
\includegraphics[width = .6\textwidth]{KB_CLIQUE_excerpt.png}
\caption{Auszug aus der KB (Komplexität und Berechbarkeit) Zusammfassung}
\vspace{-5mm}
\end{figure}
\subsection{Historische Entwicklung}

View File

@ -71,6 +71,7 @@
\end{enumerate}
Meistens wird in den Algorithmus eine Abbruchbedingung eingebaut, damit nicht alle Elemente in dem gleichen Cluster zusammengefasst werden.
Diese Abbruchbedingung definiert sich über den maximalen Abstand der Elemente in einem Cluster.
\pagebreak
\subsection{Abstand zwischen Clustern}
Es gibt mehrer Möglichkeiten um den Abstand zwischen zwei Clustern festzustellen
@ -82,7 +83,7 @@
\includegraphics[width=.8\textwidth]{complete-link.png}
\paragraph{Average Link}\mbox{}\\
\includegraphics[width=.8\textwidth]{average-link.png}
\includegraphics[width=.7\textwidth]{average-link.png}
\paragraph{Abstand der Zentroide der beiden Cluster}\mbox{}\\
\includegraphics[width=.8\textwidth]{centroid-distance.png}

View File

@ -18,6 +18,7 @@
\item \textbf{Result evaluation:} Aus- und Bewertung der Rückgabe des Clustering Algorithmus
\item \textbf{Result explanation:} Erklärung der Ergebnisse des Clusterings
\end{enumerate}
\pagebreak
\section{Abstandsbestimmung}
Für den Abstand zwischen Elementen gelten 2 grundlegende Regeln: