improved page breaks

This commit is contained in:
paul-loedige 2021-01-29 22:36:13 +01:00
parent 3d1b0956e5
commit df345bdfea
7 changed files with 18 additions and 8 deletions

View File

@ -35,7 +35,7 @@
\begin{center} \begin{center}
\includegraphics[width=.8\textwidth]{human_vs_machine 1.png}\\ \includegraphics[width=.8\textwidth]{human_vs_machine 1.png}\\
\includegraphics[width=\textwidth]{human_vs_machine 2.png} \includegraphics[width=.8\textwidth]{human_vs_machine 2.png}
\end{center} \end{center}
\section{Class allocation (Klassen-Einteilung)} \section{Class allocation (Klassen-Einteilung)}

View File

@ -42,6 +42,7 @@
$$\mu_\text{MFPC}(m,\bm{p}) = 2^{-d(m,\bm{p})}\in I \text{ mit } d(m,\bm{p}) = \left(\frac{|m-S|}{C}\right)^D$$ $$\mu_\text{MFPC}(m,\bm{p}) = 2^{-d(m,\bm{p})}\in I \text{ mit } d(m,\bm{p}) = \left(\frac{|m-S|}{C}\right)^D$$
Diese Funktion ist sehr effizient in Hardware implementierbar. Diese Funktion ist sehr effizient in Hardware implementierbar.
\acp{MFPC} wurden dafür entworfen Pattern Recognition (\ref{information and pattern regocgnition}) Systeme auf \acp{FPGA} zu verwenden. \acp{MFPC} wurden dafür entworfen Pattern Recognition (\ref{information and pattern regocgnition}) Systeme auf \acp{FPGA} zu verwenden.
\pagebreak
\subsection{Bestimmung der Parameter} \subsection{Bestimmung der Parameter}
\label{fpc: parameterbestimmung} \label{fpc: parameterbestimmung}
@ -70,6 +71,7 @@
0, &\mu(\bm{m};\bm{p})< B 0, &\mu(\bm{m};\bm{p})< B
\end{cases} \end{cases}
$$ $$
\pagebreak
\section{Aggregationsoperator $h$} \section{Aggregationsoperator $h$}
\label{fpc: aggregationsopperator} \label{fpc: aggregationsopperator}

View File

@ -41,6 +41,7 @@
Daraus folgt: Daraus folgt:
$$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$ $$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$
$$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$ $$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$
\pagebreak
\section{Das technische Neuron} \section{Das technische Neuron}
Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\ Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\
@ -52,7 +53,7 @@
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig. Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus} \subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
\includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus.png} \includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
\subsection{Novikoff's Theorem}\label{novikoffs theorem} \subsection{Novikoff's Theorem}\label{novikoffs theorem}
Novikoff's Theorem besagt, dass der Lernalgorithmus des Perzeptrons bei einem linear trennbaren Datensatz unweigerlich eine Diskriminante findet. Novikoff's Theorem besagt, dass der Lernalgorithmus des Perzeptrons bei einem linear trennbaren Datensatz unweigerlich eine Diskriminante findet.
@ -73,11 +74,11 @@
Hierbei zergliedert (shatters) eine Hyperebene in einem Feature Space $\mathbb{R}^d$ $h=d+1$ linear unabhängige Punkte. Hierbei zergliedert (shatters) eine Hyperebene in einem Feature Space $\mathbb{R}^d$ $h=d+1$ linear unabhängige Punkte.
\subsubsection{Beispiel: Shattering im 2-dimensionalen Raum} \subsubsection{Beispiel: Shattering im 2-dimensionalen Raum}
\includegraphics[width = .7\textwidth]{vc-dimension_shattering.png} \includegraphics[width = .5\textwidth]{vc-dimension_shattering.png}
\subsection{Das XOR-Problem} \subsection{Das XOR-Problem}
Um das XOR-Problem zu zergliedern werden 2 Diskriminanten benötigt:\\ Um das XOR-Problem zu zergliedern werden 2 Diskriminanten benötigt:\\
\includegraphics[width=.8\textwidth]{XOR-Problem1.png}\\ \includegraphics[width=\textwidth]{XOR-Problem1.png}\\
Um das XOR-Problem von einer linearen Maschine klassifizieren zu lassen muss diese aus mindestens 2 Schichten bestehen.\\ Um das XOR-Problem von einer linearen Maschine klassifizieren zu lassen muss diese aus mindestens 2 Schichten bestehen.\\
\includegraphics[width=\textwidth]{XOR-Problem2.png} \includegraphics[width=\textwidth]{XOR-Problem2.png}
@ -92,7 +93,7 @@
Das Modell mit dem geringsten Test-Fehler wird als bestes Modell ausgewählt. Das Modell mit dem geringsten Test-Fehler wird als bestes Modell ausgewählt.
Dieser Ansatz beugt einem Over-Fitting des Modells auf die Trainingsdaten vor.\\ Dieser Ansatz beugt einem Over-Fitting des Modells auf die Trainingsdaten vor.\\
\begin{center} \begin{center}
\includegraphics[width=.6\textwidth]{cross-validation.png} \includegraphics[width=.8\textwidth]{cross-validation.png}
\end{center} \end{center}
\subsection{Loss function} \subsection{Loss function}
@ -147,7 +148,7 @@
\subsection{Structural Risk}\label{strucutral risk} \subsection{Structural Risk}\label{strucutral risk}
Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\ Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\
\includegraphics[width=.6\textwidth]{structural_risk.png} \includegraphics[width=.55\textwidth]{structural_risk.png}
\subsubsection{\ac{SRM}} \subsubsection{\ac{SRM}}
Eine Reduzierung kann entweder dadurch erreicht werden, Eine Reduzierung kann entweder dadurch erreicht werden,

View File

@ -20,6 +20,7 @@
\begin{wrapfigure}{h}{.6\textwidth} \begin{wrapfigure}{h}{.6\textwidth}
\vspace{-10mm} \vspace{-10mm}
\includegraphics[width=.6\textwidth]{svm_base.png} \includegraphics[width=.6\textwidth]{svm_base.png}
\vspace{-50mm}
\end{wrapfigure} \end{wrapfigure}
Für das dargestellte Bild ergibt sich: Für das dargestellte Bild ergibt sich:
\begin{flalign*} \begin{flalign*}
@ -32,6 +33,7 @@
$$r_p=\frac{g(\bm{m}_p)}{|\bm{w}|}\ge 0$$ $$r_p=\frac{g(\bm{m}_p)}{|\bm{w}|}\ge 0$$
und und
$$r_0=-\frac{w_0}{|\bm{w}|}$$ $$r_0=-\frac{w_0}{|\bm{w}|}$$
\pagebreak
\subsection{Support Vektoren} \subsection{Support Vektoren}
Um die Diskriminante in dem Bereich der möglichen Diskriminaten zu wählen, die am besten generalisiert werden unterstützende Vektoren (support vectors) verwendet. Um die Diskriminante in dem Bereich der möglichen Diskriminaten zu wählen, die am besten generalisiert werden unterstützende Vektoren (support vectors) verwendet.
@ -110,7 +112,7 @@
$$K(\bm{m}_i,\bm{m}_j) = \phi^T(\bm{m}_i) \cdot \phi(\bm{m}_j)$$ $$K(\bm{m}_i,\bm{m}_j) = \phi^T(\bm{m}_i) \cdot \phi(\bm{m}_j)$$
\subsection{Formalismus} \subsection{Formalismus}
\includegraphics[width=.8\textwidth]{kernel_trick_formalism.png} \includegraphics[width=.7\textwidth]{kernel_trick_formalism.png}
\subsection{Der Trick} \subsection{Der Trick}
\includegraphics[width=.8\textwidth]{kernel_trick_trick.png} \includegraphics[width=.8\textwidth]{kernel_trick_trick.png}
@ -121,6 +123,7 @@
\subsubsection{Beispiel: Gausian \ac{RBF} Kernel} \subsubsection{Beispiel: Gausian \ac{RBF} Kernel}
$$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$ $$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$
\includegraphics[width=\textwidth]{kernel_trick_example.png} \includegraphics[width=\textwidth]{kernel_trick_example.png}
\pagebreak
\section{Soft Margin} \section{Soft Margin}
Falls Daten vorliegen, die nicht \say{einfach} (\ref{occam's razor}) separierbar sind ist es zwar möglich den Feature Space so zu transformieren, dass er linear separierbar wird, Falls Daten vorliegen, die nicht \say{einfach} (\ref{occam's razor}) separierbar sind ist es zwar möglich den Feature Space so zu transformieren, dass er linear separierbar wird,

View File

@ -13,8 +13,10 @@
Interessant sind hierbei vor allem das CLIQUE-Problem. Interessant sind hierbei vor allem das CLIQUE-Problem.
\begin{figure}[H] \begin{figure}[H]
\centering \centering
\vspace{-8mm}
\includegraphics[width = .6\textwidth]{KB_CLIQUE_excerpt.png} \includegraphics[width = .6\textwidth]{KB_CLIQUE_excerpt.png}
\caption{Auszug aus der KB (Komplexität und Berechbarkeit) Zusammfassung} \caption{Auszug aus der KB (Komplexität und Berechbarkeit) Zusammfassung}
\vspace{-5mm}
\end{figure} \end{figure}
\subsection{Historische Entwicklung} \subsection{Historische Entwicklung}

View File

@ -71,6 +71,7 @@
\end{enumerate} \end{enumerate}
Meistens wird in den Algorithmus eine Abbruchbedingung eingebaut, damit nicht alle Elemente in dem gleichen Cluster zusammengefasst werden. Meistens wird in den Algorithmus eine Abbruchbedingung eingebaut, damit nicht alle Elemente in dem gleichen Cluster zusammengefasst werden.
Diese Abbruchbedingung definiert sich über den maximalen Abstand der Elemente in einem Cluster. Diese Abbruchbedingung definiert sich über den maximalen Abstand der Elemente in einem Cluster.
\pagebreak
\subsection{Abstand zwischen Clustern} \subsection{Abstand zwischen Clustern}
Es gibt mehrer Möglichkeiten um den Abstand zwischen zwei Clustern festzustellen Es gibt mehrer Möglichkeiten um den Abstand zwischen zwei Clustern festzustellen
@ -82,7 +83,7 @@
\includegraphics[width=.8\textwidth]{complete-link.png} \includegraphics[width=.8\textwidth]{complete-link.png}
\paragraph{Average Link}\mbox{}\\ \paragraph{Average Link}\mbox{}\\
\includegraphics[width=.8\textwidth]{average-link.png} \includegraphics[width=.7\textwidth]{average-link.png}
\paragraph{Abstand der Zentroide der beiden Cluster}\mbox{}\\ \paragraph{Abstand der Zentroide der beiden Cluster}\mbox{}\\
\includegraphics[width=.8\textwidth]{centroid-distance.png} \includegraphics[width=.8\textwidth]{centroid-distance.png}

View File

@ -18,6 +18,7 @@
\item \textbf{Result evaluation:} Aus- und Bewertung der Rückgabe des Clustering Algorithmus \item \textbf{Result evaluation:} Aus- und Bewertung der Rückgabe des Clustering Algorithmus
\item \textbf{Result explanation:} Erklärung der Ergebnisse des Clusterings \item \textbf{Result explanation:} Erklärung der Ergebnisse des Clusterings
\end{enumerate} \end{enumerate}
\pagebreak
\section{Abstandsbestimmung} \section{Abstandsbestimmung}
Für den Abstand zwischen Elementen gelten 2 grundlegende Regeln: Für den Abstand zwischen Elementen gelten 2 grundlegende Regeln: