From df345bdfeae7983e01c3919fac9a0a8824644072 Mon Sep 17 00:00:00 2001 From: paul-loedige Date: Fri, 29 Jan 2021 22:36:13 +0100 Subject: [PATCH] improved page breaks --- .../Basics/Information and Pattern Recognition.tex | 2 +- .../Supervised Learning/Fuzzy Pattern Classifier.tex | 2 ++ chapters/Supervised Learning/Linear Machines.tex | 11 ++++++----- chapters/Supervised Learning/SVM.tex | 5 ++++- .../Association Rules und Link Analysis.tex | 2 ++ .../Unsupervised Learning/Clustering Algorithms.tex | 3 ++- chapters/Unsupervised Learning/Clustering.tex | 1 + 7 files changed, 18 insertions(+), 8 deletions(-) diff --git a/chapters/Basics/Information and Pattern Recognition.tex b/chapters/Basics/Information and Pattern Recognition.tex index ddc3926..363221e 100644 --- a/chapters/Basics/Information and Pattern Recognition.tex +++ b/chapters/Basics/Information and Pattern Recognition.tex @@ -35,7 +35,7 @@ \begin{center} \includegraphics[width=.8\textwidth]{human_vs_machine 1.png}\\ - \includegraphics[width=\textwidth]{human_vs_machine 2.png} + \includegraphics[width=.8\textwidth]{human_vs_machine 2.png} \end{center} \section{Class allocation (Klassen-Einteilung)} diff --git a/chapters/Supervised Learning/Fuzzy Pattern Classifier.tex b/chapters/Supervised Learning/Fuzzy Pattern Classifier.tex index 526bc74..cc1f25e 100644 --- a/chapters/Supervised Learning/Fuzzy Pattern Classifier.tex +++ b/chapters/Supervised Learning/Fuzzy Pattern Classifier.tex @@ -42,6 +42,7 @@ $$\mu_\text{MFPC}(m,\bm{p}) = 2^{-d(m,\bm{p})}\in I \text{ mit } d(m,\bm{p}) = \left(\frac{|m-S|}{C}\right)^D$$ Diese Funktion ist sehr effizient in Hardware implementierbar. \acp{MFPC} wurden dafür entworfen Pattern Recognition (\ref{information and pattern regocgnition}) Systeme auf \acp{FPGA} zu verwenden. +\pagebreak \subsection{Bestimmung der Parameter} \label{fpc: parameterbestimmung} @@ -70,6 +71,7 @@ 0, &\mu(\bm{m};\bm{p})< B \end{cases} $$ +\pagebreak \section{Aggregationsoperator $h$} \label{fpc: aggregationsopperator} diff --git a/chapters/Supervised Learning/Linear Machines.tex b/chapters/Supervised Learning/Linear Machines.tex index 3f819d6..1efaaf2 100644 --- a/chapters/Supervised Learning/Linear Machines.tex +++ b/chapters/Supervised Learning/Linear Machines.tex @@ -41,6 +41,7 @@ Daraus folgt: $$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$ $$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$ + \pagebreak \section{Das technische Neuron} Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\ @@ -52,7 +53,7 @@ Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig. \subsection{Beispiel: nicht-symmetrischer Lernalgorithmus} - \includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus.png} + \includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png} \subsection{Novikoff's Theorem}\label{novikoffs theorem} Novikoff's Theorem besagt, dass der Lernalgorithmus des Perzeptrons bei einem linear trennbaren Datensatz unweigerlich eine Diskriminante findet. @@ -73,11 +74,11 @@ Hierbei zergliedert (shatters) eine Hyperebene in einem Feature Space $\mathbb{R}^d$ $h=d+1$ linear unabhängige Punkte. \subsubsection{Beispiel: Shattering im 2-dimensionalen Raum} - \includegraphics[width = .7\textwidth]{vc-dimension_shattering.png} + \includegraphics[width = .5\textwidth]{vc-dimension_shattering.png} \subsection{Das XOR-Problem} Um das XOR-Problem zu zergliedern werden 2 Diskriminanten benötigt:\\ - \includegraphics[width=.8\textwidth]{XOR-Problem1.png}\\ + \includegraphics[width=\textwidth]{XOR-Problem1.png}\\ Um das XOR-Problem von einer linearen Maschine klassifizieren zu lassen muss diese aus mindestens 2 Schichten bestehen.\\ \includegraphics[width=\textwidth]{XOR-Problem2.png} @@ -92,7 +93,7 @@ Das Modell mit dem geringsten Test-Fehler wird als bestes Modell ausgewählt. Dieser Ansatz beugt einem Over-Fitting des Modells auf die Trainingsdaten vor.\\ \begin{center} - \includegraphics[width=.6\textwidth]{cross-validation.png} + \includegraphics[width=.8\textwidth]{cross-validation.png} \end{center} \subsection{Loss function} @@ -147,7 +148,7 @@ \subsection{Structural Risk}\label{strucutral risk} Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\ - \includegraphics[width=.6\textwidth]{structural_risk.png} + \includegraphics[width=.55\textwidth]{structural_risk.png} \subsubsection{\ac{SRM}} Eine Reduzierung kann entweder dadurch erreicht werden, diff --git a/chapters/Supervised Learning/SVM.tex b/chapters/Supervised Learning/SVM.tex index 21b65d1..f9e4030 100644 --- a/chapters/Supervised Learning/SVM.tex +++ b/chapters/Supervised Learning/SVM.tex @@ -20,6 +20,7 @@ \begin{wrapfigure}{h}{.6\textwidth} \vspace{-10mm} \includegraphics[width=.6\textwidth]{svm_base.png} + \vspace{-50mm} \end{wrapfigure} Für das dargestellte Bild ergibt sich: \begin{flalign*} @@ -32,6 +33,7 @@ $$r_p=\frac{g(\bm{m}_p)}{|\bm{w}|}\ge 0$$ und $$r_0=-\frac{w_0}{|\bm{w}|}$$ +\pagebreak \subsection{Support Vektoren} Um die Diskriminante in dem Bereich der möglichen Diskriminaten zu wählen, die am besten generalisiert werden unterstützende Vektoren (support vectors) verwendet. @@ -110,7 +112,7 @@ $$K(\bm{m}_i,\bm{m}_j) = \phi^T(\bm{m}_i) \cdot \phi(\bm{m}_j)$$ \subsection{Formalismus} - \includegraphics[width=.8\textwidth]{kernel_trick_formalism.png} + \includegraphics[width=.7\textwidth]{kernel_trick_formalism.png} \subsection{Der Trick} \includegraphics[width=.8\textwidth]{kernel_trick_trick.png} @@ -121,6 +123,7 @@ \subsubsection{Beispiel: Gausian \ac{RBF} Kernel} $$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$ \includegraphics[width=\textwidth]{kernel_trick_example.png} +\pagebreak \section{Soft Margin} Falls Daten vorliegen, die nicht \say{einfach} (\ref{occam's razor}) separierbar sind ist es zwar möglich den Feature Space so zu transformieren, dass er linear separierbar wird, diff --git a/chapters/Unsupervised Learning/Association Rules und Link Analysis.tex b/chapters/Unsupervised Learning/Association Rules und Link Analysis.tex index a3b0f39..ca50c48 100644 --- a/chapters/Unsupervised Learning/Association Rules und Link Analysis.tex +++ b/chapters/Unsupervised Learning/Association Rules und Link Analysis.tex @@ -13,8 +13,10 @@ Interessant sind hierbei vor allem das CLIQUE-Problem. \begin{figure}[H] \centering + \vspace{-8mm} \includegraphics[width = .6\textwidth]{KB_CLIQUE_excerpt.png} \caption{Auszug aus der KB (Komplexität und Berechbarkeit) Zusammfassung} + \vspace{-5mm} \end{figure} \subsection{Historische Entwicklung} diff --git a/chapters/Unsupervised Learning/Clustering Algorithms.tex b/chapters/Unsupervised Learning/Clustering Algorithms.tex index 3e835dd..92d0309 100644 --- a/chapters/Unsupervised Learning/Clustering Algorithms.tex +++ b/chapters/Unsupervised Learning/Clustering Algorithms.tex @@ -71,6 +71,7 @@ \end{enumerate} Meistens wird in den Algorithmus eine Abbruchbedingung eingebaut, damit nicht alle Elemente in dem gleichen Cluster zusammengefasst werden. Diese Abbruchbedingung definiert sich über den maximalen Abstand der Elemente in einem Cluster. +\pagebreak \subsection{Abstand zwischen Clustern} Es gibt mehrer Möglichkeiten um den Abstand zwischen zwei Clustern festzustellen @@ -82,7 +83,7 @@ \includegraphics[width=.8\textwidth]{complete-link.png} \paragraph{Average Link}\mbox{}\\ - \includegraphics[width=.8\textwidth]{average-link.png} + \includegraphics[width=.7\textwidth]{average-link.png} \paragraph{Abstand der Zentroide der beiden Cluster}\mbox{}\\ \includegraphics[width=.8\textwidth]{centroid-distance.png} diff --git a/chapters/Unsupervised Learning/Clustering.tex b/chapters/Unsupervised Learning/Clustering.tex index a3f9d82..cc69cf0 100644 --- a/chapters/Unsupervised Learning/Clustering.tex +++ b/chapters/Unsupervised Learning/Clustering.tex @@ -18,6 +18,7 @@ \item \textbf{Result evaluation:} Aus- und Bewertung der Rückgabe des Clustering Algorithmus \item \textbf{Result explanation:} Erklärung der Ergebnisse des Clusterings \end{enumerate} +\pagebreak \section{Abstandsbestimmung} Für den Abstand zwischen Elementen gelten 2 grundlegende Regeln: