forked from TH_General/Template_Summary
Fixed warnings related to the use of glossaries in section titles.
This commit is contained in:
@@ -45,7 +45,7 @@ Die Auswahl der passenden Hyperparameter (z.B. \nomsym{variance} für den \namer
|
||||
\label{fig:gaussian_kernel_model_selection}
|
||||
\end{figure}
|
||||
|
||||
\section{Examples and comparison to \glsxtrshort{RBF} regression}%
|
||||
\section{Examples and comparison to \texorpdfstring{\glsxtrshort{RBF}}{\glsfmtshort{RBF}} regression}%
|
||||
\label{sec:Examples and comparison to RBF regression}
|
||||
\begin{center}
|
||||
\includegraphics[width=.9\textwidth]{kernel_regression_comparison.pdf}
|
||||
|
||||
@@ -1,4 +1,4 @@
|
||||
\chapter{\glsfmtfull{SVM}}%
|
||||
\chapter{\texorpdfstring{\glsxtrfull{SVM}}{\glsfmtfull{SVM}}}%
|
||||
\label{cha:SVM}
|
||||
\glspl{SVM} sind eine Methode zur binären Klassifikation (\cref{sec:Binary Classification}).
|
||||
Anders als bei anderen Algorithmen werden die Klassen hierbei nicht mit 0 und 1,
|
||||
@@ -52,7 +52,7 @@ dass $\nomeq{margin}=\frac{2}{\|\bm w\|}$ ist.
|
||||
\begin{wrapfigure}{r}{.5\textwidth}
|
||||
\centering
|
||||
\includegraphics[width=\linewidth]{svm_positive_negative_support.png}
|
||||
\caption{Support Vektoren einer \glsxtrshort{SVM}}
|
||||
\caption{Support Vektoren einer \texorpdfstring{\glsxtrshort{SVM}}{\glsxfmtshort{SVM}}}
|
||||
\label{fig:svm_positive_negative_support}
|
||||
\vspace*{-10mm}
|
||||
\end{wrapfigure}
|
||||
@@ -62,7 +62,7 @@ Zudem lassen sich im gleichen Zug die positiven und negativen Support Vektoren d
|
||||
\item negativer Support Vektor: $\bm w^T \bm x_- + b = +1$
|
||||
\end{itemize}
|
||||
|
||||
\subsection{\glsxtrshort{SVM} Optimization}%
|
||||
\subsection{\texorpdfstring{\glsxtrshort{SVM} Optimization}{\glsfmtshort{SVM} Optimization}}%
|
||||
\label{sub:SVM Optimization}
|
||||
Das Problem ist für das Maximum Margin Verfahren gegeben durch:
|
||||
\begin{equation} \label{eq:maximum_margin_optimization_problem}
|
||||
@@ -117,7 +117,7 @@ Die Interpretation der \noms{slack-variable} erfolgt dabei wie folgt:
|
||||
\end{figure}
|
||||
|
||||
\subsection{Optimization}%
|
||||
\label{sub:Optimization}
|
||||
\label{sub:Soft Max-Margin:Optimization}
|
||||
Das Optimierungsproblem für die Soft Max-Margin Methode ist gegeben durch:
|
||||
\begin{equation} \label{eq:soft_max-margin_optimization}
|
||||
\argmin_{\bm w, \bm\xi} \|\bm w\|^2 + C\sum_i^N\nomeq{slack-variable}\qquad y_i(\bm w^T\bm x_i + b)\ge 1-\nomeq{slack-variable}, \nomeq{slack-variable}\ge 0
|
||||
@@ -154,10 +154,10 @@ Im Falle des Hinge Loss bedeutet das:
|
||||
\end{equation}
|
||||
|
||||
\section{Anwendungsbeispiele}%
|
||||
\label{sec:Anwendungsbeispiele}
|
||||
\label{sec:SVM:Anwendungsbeispiele}
|
||||
{\color{red} siehe Vorlesung 06 Folien 34 ff.}
|
||||
|
||||
\section{\glsxtrshortpl{SVM} with Kernels}%
|
||||
\section{\texorpdfstring{\glsxtrshortpl{SVM} with Kernels}{\glsfmtshortpl{SVM} with Kernels}}%
|
||||
\label{sec:SVMs with Kernels}
|
||||
Mithilfe des Kernel Tricks (\cref{sec:Kernel Trick}) und der Lagrangian Optimization (\cref{sec:Lagrangian Multipliers}) kann die \gls{SVM}-Optimierung als Dual Optimization Problem formuliert werden ({\color{red} Herleitung Vorlesung 06 Folien 52-56}):
|
||||
\begin{itemize}
|
||||
@@ -185,6 +185,6 @@ Die verstellbaren Parameter sind hierbei:
|
||||
\item die Parameter des gewählten Kernels
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Beispiele}%
|
||||
\label{sub:Beispiele}
|
||||
\subsubsection{Beispiele}%
|
||||
\label{ssub:SVM:Model Selection:Beispiele}
|
||||
{\color{red} siehe Vorlesung 06 Folien 57-60 und 62-63}
|
||||
|
||||
Reference in New Issue
Block a user