verlinkungen zur Vorlesung in Anhang gepackt.

This commit is contained in:
2022-02-21 14:50:48 +01:00
parent c9f9736173
commit b156e620d0
23 changed files with 287 additions and 45 deletions

View File

@@ -126,7 +126,7 @@ Hierbei stellt $C$ einen inversen Regularisierungsfaktor dar.
\subsection{Hinge Loss}%
\label{sub:Hinge Loss}
Die Optimierung kann in ein uneingeschränktes (unconstrained) Problem umgeschrieben werden ({\color{red} Herleitung Vorlesung 06 Seite 21}):
Die Optimierung kann in ein uneingeschränktes (unconstrained) Problem umgeschrieben werden (Herleitung: \cref{sec:Herleitung: Soft Max-Margin: Hinge Loss}):
\begin{equation} \label{eq:soft_max-margin_unconstrained}
\argmin_{\bm w} \underbrace{\|\bm w\|^2}_{\text{regularization}} + \underbrace{C\sum_{i=1}^N \max(0, 1-y_i f(\bm x_i))}_{\text{loss function}}
\end{equation}
@@ -155,11 +155,11 @@ Im Falle des Hinge Loss bedeutet das:
\section{Anwendungsbeispiele}%
\label{sec:SVM:Anwendungsbeispiele}
{\color{red} siehe Vorlesung 06 Folien 34 ff.}
siehe \cref{sec:Anwendungsbeispiele: SVMs}
\section{\texorpdfstring{\glsxtrshortpl{SVM} with Kernels}{\glsfmtshortpl{SVM} with Kernels}}%
\label{sec:SVMs with Kernels}
Mithilfe des Kernel Tricks (\cref{sec:Kernel Trick}) und der Lagrangian Optimization (\cref{sec:Lagrangian Multipliers}) kann die \gls{SVM}-Optimierung als Dual Optimization Problem formuliert werden ({\color{red} Herleitung Vorlesung 06 Folien 52-56}):
Mithilfe des Kernel Tricks (\cref{sec:Kernel Trick}) und der Lagrangian Optimization (\cref{sec:Lagrangian Multipliers}) kann die \gls{SVM}-Optimierung als Dual Optimization Problem formuliert werden (Herleitung: \cref{sec:Herleitung: SVMs with Kernels}):
\begin{itemize}
\item Primal Optimization Problem:
\begin{equation} \label{eq:svm_primal_optimization_problem}
@@ -187,4 +187,4 @@ Die verstellbaren Parameter sind hierbei:
\subsubsection{Beispiele}%
\label{ssub:SVM:Model Selection:Beispiele}
{\color{red} siehe Vorlesung 06 Folien 57-60 und 62-63}
siehe \cref{sec:Beispiele: SVM: Model Selection}