generated from TH_General/Template_Summary
improved page breaks
This commit is contained in:
parent
3d1b0956e5
commit
df345bdfea
@ -35,7 +35,7 @@
|
||||
\begin{center}
|
||||
\includegraphics[width=.8\textwidth]{human_vs_machine 1.png}\\
|
||||
|
||||
\includegraphics[width=\textwidth]{human_vs_machine 2.png}
|
||||
\includegraphics[width=.8\textwidth]{human_vs_machine 2.png}
|
||||
\end{center}
|
||||
|
||||
\section{Class allocation (Klassen-Einteilung)}
|
||||
|
@ -42,6 +42,7 @@
|
||||
$$\mu_\text{MFPC}(m,\bm{p}) = 2^{-d(m,\bm{p})}\in I \text{ mit } d(m,\bm{p}) = \left(\frac{|m-S|}{C}\right)^D$$
|
||||
Diese Funktion ist sehr effizient in Hardware implementierbar.
|
||||
\acp{MFPC} wurden dafür entworfen Pattern Recognition (\ref{information and pattern regocgnition}) Systeme auf \acp{FPGA} zu verwenden.
|
||||
\pagebreak
|
||||
|
||||
\subsection{Bestimmung der Parameter}
|
||||
\label{fpc: parameterbestimmung}
|
||||
@ -70,6 +71,7 @@
|
||||
0, &\mu(\bm{m};\bm{p})< B
|
||||
\end{cases}
|
||||
$$
|
||||
\pagebreak
|
||||
|
||||
\section{Aggregationsoperator $h$}
|
||||
\label{fpc: aggregationsopperator}
|
||||
|
@ -41,6 +41,7 @@
|
||||
Daraus folgt:
|
||||
$$g(\bm{m}) > 0 \forall \bm{m}\in C_2$$
|
||||
$$g(\bm{m}) < 0 \forall \bm{m}\in C_1$$
|
||||
\pagebreak
|
||||
|
||||
\section{Das technische Neuron}
|
||||
Ein technisches Neuron besteht aus den Gewichten für die Eingangswerte und der Aktivierungsfunktion:\\
|
||||
@ -52,7 +53,7 @@
|
||||
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
|
||||
|
||||
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
|
||||
\includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus.png}
|
||||
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
|
||||
|
||||
\subsection{Novikoff's Theorem}\label{novikoffs theorem}
|
||||
Novikoff's Theorem besagt, dass der Lernalgorithmus des Perzeptrons bei einem linear trennbaren Datensatz unweigerlich eine Diskriminante findet.
|
||||
@ -73,11 +74,11 @@
|
||||
Hierbei zergliedert (shatters) eine Hyperebene in einem Feature Space $\mathbb{R}^d$ $h=d+1$ linear unabhängige Punkte.
|
||||
|
||||
\subsubsection{Beispiel: Shattering im 2-dimensionalen Raum}
|
||||
\includegraphics[width = .7\textwidth]{vc-dimension_shattering.png}
|
||||
\includegraphics[width = .5\textwidth]{vc-dimension_shattering.png}
|
||||
|
||||
\subsection{Das XOR-Problem}
|
||||
Um das XOR-Problem zu zergliedern werden 2 Diskriminanten benötigt:\\
|
||||
\includegraphics[width=.8\textwidth]{XOR-Problem1.png}\\
|
||||
\includegraphics[width=\textwidth]{XOR-Problem1.png}\\
|
||||
Um das XOR-Problem von einer linearen Maschine klassifizieren zu lassen muss diese aus mindestens 2 Schichten bestehen.\\
|
||||
\includegraphics[width=\textwidth]{XOR-Problem2.png}
|
||||
|
||||
@ -92,7 +93,7 @@
|
||||
Das Modell mit dem geringsten Test-Fehler wird als bestes Modell ausgewählt.
|
||||
Dieser Ansatz beugt einem Over-Fitting des Modells auf die Trainingsdaten vor.\\
|
||||
\begin{center}
|
||||
\includegraphics[width=.6\textwidth]{cross-validation.png}
|
||||
\includegraphics[width=.8\textwidth]{cross-validation.png}
|
||||
\end{center}
|
||||
|
||||
\subsection{Loss function}
|
||||
@ -147,7 +148,7 @@
|
||||
|
||||
\subsection{Structural Risk}\label{strucutral risk}
|
||||
Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\
|
||||
\includegraphics[width=.6\textwidth]{structural_risk.png}
|
||||
\includegraphics[width=.55\textwidth]{structural_risk.png}
|
||||
|
||||
\subsubsection{\ac{SRM}}
|
||||
Eine Reduzierung kann entweder dadurch erreicht werden,
|
||||
|
@ -20,6 +20,7 @@
|
||||
\begin{wrapfigure}{h}{.6\textwidth}
|
||||
\vspace{-10mm}
|
||||
\includegraphics[width=.6\textwidth]{svm_base.png}
|
||||
\vspace{-50mm}
|
||||
\end{wrapfigure}
|
||||
Für das dargestellte Bild ergibt sich:
|
||||
\begin{flalign*}
|
||||
@ -32,6 +33,7 @@
|
||||
$$r_p=\frac{g(\bm{m}_p)}{|\bm{w}|}\ge 0$$
|
||||
und
|
||||
$$r_0=-\frac{w_0}{|\bm{w}|}$$
|
||||
\pagebreak
|
||||
|
||||
\subsection{Support Vektoren}
|
||||
Um die Diskriminante in dem Bereich der möglichen Diskriminaten zu wählen, die am besten generalisiert werden unterstützende Vektoren (support vectors) verwendet.
|
||||
@ -110,7 +112,7 @@
|
||||
$$K(\bm{m}_i,\bm{m}_j) = \phi^T(\bm{m}_i) \cdot \phi(\bm{m}_j)$$
|
||||
|
||||
\subsection{Formalismus}
|
||||
\includegraphics[width=.8\textwidth]{kernel_trick_formalism.png}
|
||||
\includegraphics[width=.7\textwidth]{kernel_trick_formalism.png}
|
||||
|
||||
\subsection{Der Trick}
|
||||
\includegraphics[width=.8\textwidth]{kernel_trick_trick.png}
|
||||
@ -121,6 +123,7 @@
|
||||
\subsubsection{Beispiel: Gausian \ac{RBF} Kernel}
|
||||
$$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$
|
||||
\includegraphics[width=\textwidth]{kernel_trick_example.png}
|
||||
\pagebreak
|
||||
|
||||
\section{Soft Margin}
|
||||
Falls Daten vorliegen, die nicht \say{einfach} (\ref{occam's razor}) separierbar sind ist es zwar möglich den Feature Space so zu transformieren, dass er linear separierbar wird,
|
||||
|
@ -13,8 +13,10 @@
|
||||
Interessant sind hierbei vor allem das CLIQUE-Problem.
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
\vspace{-8mm}
|
||||
\includegraphics[width = .6\textwidth]{KB_CLIQUE_excerpt.png}
|
||||
\caption{Auszug aus der KB (Komplexität und Berechbarkeit) Zusammfassung}
|
||||
\vspace{-5mm}
|
||||
\end{figure}
|
||||
|
||||
\subsection{Historische Entwicklung}
|
||||
|
@ -71,6 +71,7 @@
|
||||
\end{enumerate}
|
||||
Meistens wird in den Algorithmus eine Abbruchbedingung eingebaut, damit nicht alle Elemente in dem gleichen Cluster zusammengefasst werden.
|
||||
Diese Abbruchbedingung definiert sich über den maximalen Abstand der Elemente in einem Cluster.
|
||||
\pagebreak
|
||||
|
||||
\subsection{Abstand zwischen Clustern}
|
||||
Es gibt mehrer Möglichkeiten um den Abstand zwischen zwei Clustern festzustellen
|
||||
@ -82,7 +83,7 @@
|
||||
\includegraphics[width=.8\textwidth]{complete-link.png}
|
||||
|
||||
\paragraph{Average Link}\mbox{}\\
|
||||
\includegraphics[width=.8\textwidth]{average-link.png}
|
||||
\includegraphics[width=.7\textwidth]{average-link.png}
|
||||
|
||||
\paragraph{Abstand der Zentroide der beiden Cluster}\mbox{}\\
|
||||
\includegraphics[width=.8\textwidth]{centroid-distance.png}
|
||||
|
@ -18,6 +18,7 @@
|
||||
\item \textbf{Result evaluation:} Aus- und Bewertung der Rückgabe des Clustering Algorithmus
|
||||
\item \textbf{Result explanation:} Erklärung der Ergebnisse des Clusterings
|
||||
\end{enumerate}
|
||||
\pagebreak
|
||||
|
||||
\section{Abstandsbestimmung}
|
||||
Für den Abstand zwischen Elementen gelten 2 grundlegende Regeln:
|
||||
|
Loading…
x
Reference in New Issue
Block a user