erste Vorlesung Deep Learning hinzugefügt. Akronyme überarbeitet.

This commit is contained in:
2021-01-29 11:35:49 +01:00
parent 6eb205463c
commit dd25ed8ed7
17 changed files with 69 additions and 9 deletions

View File

@@ -64,7 +64,7 @@
\includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus_symmetrisch.png}
\section{\ac{VC-Dimension}}\label{vc-dimension}
Die \acl{VC-Dimension} gibt ein Maß für die \say{learning power} einer Klassifizierung.
Die \ac{VC-Dimension} gibt ein Maß für die \say{learning power} einer Klassifizierung.
\subsection{Shattering}
\say{Here we will only consider functions that correspond to the two-class pattern recognition case, so that $g(\bm{m}, y) \in \{-1, 1\}\forall x, y$.
@@ -149,8 +149,8 @@
Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\
\includegraphics[width=.6\textwidth]{structural_risk.png}
\subsubsection{\acl{SRM}}
\ac{SRM} kann entweder dadurch erreicht werden,
\subsubsection{\ac{SRM}}
Eine Reduzierung kann entweder dadurch erreicht werden,
dass das empirische Risiko (\ref{empirical risk}) bei gleichbleibenden $\varepsilon$ (\ref{capacity term}) reduziert wird,
oder durch eine Reduzierung von $\varepsilon$ bei gleichbleibenden empirischen Risiko.
Letzteres ist der Ansatz den die \ac{SVM}s (\ref{svm}) verfolgen.

View File

@@ -1,4 +1,4 @@
\chapter{\acl{SVM}}\label{svm}
\chapter{\ac{SVM}}\label{svm}
\ac{SVM}s können als lineare (\ref{linear machines}) oder nicht-lineare Maschinen aufgebaut werden.\\
\begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|}
\hline
@@ -16,7 +16,7 @@
\hline
\end{tabular}
\section{lineare \acl{SVM}}
\section{lineare \ac{SVM}}
\begin{wrapfigure}{h}{.6\textwidth}
\vspace{-10mm}
\includegraphics[width=.6\textwidth]{svm_base.png}
@@ -74,7 +74,7 @@
\subsubsection{Sparsity}
\ac{SVM}s sind \say{sparse learning machines}, da Sie meist nur von wenigen Support Vektoren abhängen.
\section{nicht-lineare \acl{SVM}}\label{non linear svm}
\section{nicht-lineare \ac{SVM}}\label{non linear svm}
\ac{SVM}s können auch dafür benutzt werden, nicht-linear-trennbare Cluster zu teilen.
Hierfür müssen einige mathematischen Tricks angewandt werden.
@@ -118,8 +118,7 @@
\subsection{Polynomialer Kernel}
\includegraphics[width=.8\textwidth]{kernel_trick_polynomial_kernel.png}
\subsubsection{Beispiel: Gausian \acl{RBF} Kernel}
Der \say{Gausian \ac{RBF}} Kernel ist definiert durch:
\subsubsection{Beispiel: Gausian \ac{RBF} Kernel}
$$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$
\includegraphics[width=\textwidth]{kernel_trick_example.png}