forked from TH_General/Template_Summary
Fixed warnings related to the use of glossaries in section titles.
This commit is contained in:
@@ -53,7 +53,7 @@ $\bm{w}$ ist der Normalvektor (normal) zur Geraden und $b$ das Bias.
|
||||
\includegraphics[width=\textwidth]{linear_separability.png}
|
||||
|
||||
\subsection{Optimization}%
|
||||
\label{sub:Optimization}
|
||||
\label{sub:Binary Classification:Optimization}
|
||||
Um den linearen Klassifikator zu optimieren sind mehrere Methoden denkbar.
|
||||
\subsubsection{0-1 loss}%
|
||||
\label{ssub:0-1 loss}
|
||||
@@ -210,7 +210,7 @@ Dies stellt eine Approximation des tatsächlich erwarteten Verlustes nach dem Pr
|
||||
\mathbb{E}_{\bm{x}}\left[l(\bm{x};\bm{\theta})\right]\qquad \bm{\theta}_{t+1} = \bm{\theta}_t - \eta\mathbb{E}_{\bm{x}}\left[\nabla_{\bm{\theta}} l(\bm{x};\bm{\theta}_t)\right]
|
||||
\end{equation}
|
||||
|
||||
\subsection{\glsxtrfull{SDG}}%
|
||||
\subsection{\texorpdfstring{\glsxtrfull{SDG}}{\glsfmtfull{SDG}}}%
|
||||
\label{sub:SDG}
|
||||
\begin{wrapfigure}{r}{.5\textwidth}
|
||||
\vspace*{-15mm}
|
||||
|
||||
@@ -83,7 +83,7 @@ Dies ermöglicht es mittels der linearen Regression auch jede nicht-lineare Funk
|
||||
indem eine passende \nomf{vector_valued_function} gefunden wird.
|
||||
|
||||
\subsection{Beispiele}%
|
||||
\label{sub:Beispiele}
|
||||
\label{sub:linear Regression:Beispiele}
|
||||
\subsubsection{Polynomial Curve Fitting}%
|
||||
\label{ssub:Polynomial Curve Fitting}
|
||||
\begin{wrapfigure}{r}{.4\textwidth}
|
||||
|
||||
@@ -101,7 +101,7 @@ Um die Nachteile der \nameref{sub:Hold-out Mehtod} zu umgehen wird meist die Cro
|
||||
|
||||
\subsubsection{Sonderformen der Cross Validation}%
|
||||
\label{ssub:Sonderformen der Cross Validation}
|
||||
\paragraph{\glsxtrfull{LLO} Cross Validation}%
|
||||
\paragraph{\texorpdfstring{\glsxtrfull{LLO} Cross Validation}{\glsfmtfull{LLO} Cross Validation}}%
|
||||
\label{par:LLO Cross Validation}
|
||||
Sonderform, bei der $k=n$,
|
||||
wodurch es genau so viele Durchläufe wie Datenpunkte gibt
|
||||
@@ -158,7 +158,7 @@ Man spricht hierbei von Data Augmentation.
|
||||
\centering
|
||||
\includegraphics[width=\linewidth]{artificial_noise2.png}
|
||||
\caption{mögl. Diskriminanten mit künstlichen Noise}
|
||||
\label{fig:regression_without_artifical_noise}
|
||||
\label{fig:regression_with_artifical_noise}
|
||||
\end{subfigure}
|
||||
\caption{Einfluss von künstlichen Noise}
|
||||
\label{fig:artificial_noise}
|
||||
|
||||
@@ -1,6 +1,6 @@
|
||||
\chapter{Trees and Forests}%
|
||||
\label{cha:Trees and Forests}
|
||||
\section{\glsxtrfull{CART}}%
|
||||
\section{\texorpdfstring{\glsxtrfull{CART}}{\glsfmtfull{CART}}}%
|
||||
\label{sec:CART}
|
||||
|
||||
\begin{wrapfigure}[8]{r}{.5\textwidth}
|
||||
@@ -77,7 +77,7 @@ In dieser Formel gibt $p_L(k)$ an,
|
||||
welchen Anteil die Klasse $k$ auf der linken Seite des Splits hat.
|
||||
|
||||
\subsection{Beispiele}%
|
||||
\label{sub:Beispiele}
|
||||
\label{sub:CART:Beispiele}
|
||||
\subsubsection{Classification Tree}%
|
||||
\label{ssub:Classification Tree}
|
||||
\includegraphics[width=.6\textwidth]{classification_tree.png}
|
||||
|
||||
@@ -1,4 +1,4 @@
|
||||
\chapter{\glsfmtfull{knn}}%
|
||||
\chapter[\glsfmtfull{knn}]{\texorpdfstring{\glsxtrfull{knn}}{\glsfmtfull{knn}}}%
|
||||
\label{cha:k-Nearest Neighbors}
|
||||
Beim \gls{knn}-Verfahren wird dem System eine Reihe von gelabelten Trainingsdaten übergeben.
|
||||
Für die Klassifizierung erfolgt durch
|
||||
|
||||
Reference in New Issue
Block a user