Alle Optimierungen abgeschlossen.

This commit is contained in:
2022-02-21 15:29:29 +01:00
parent b156e620d0
commit d378e4291b
11 changed files with 113 additions and 108 deletions

View File

@@ -212,13 +212,13 @@ Dies stellt eine Approximation des tatsächlich erwarteten Verlustes nach dem Pr
\subsection{\texorpdfstring{\glsxtrfull{SDG}}{\glsfmtfull{SDG}}}%
\label{sub:SDG}
\begin{wrapfigure}{r}{.5\textwidth}
\begin{wrapfigure}{r}{.4\textwidth}
\vspace*{-15mm}
\centering
\includegraphics[width=0.8\linewidth]{batch_vs_stochastic_gradient_descent.png}
\caption{Batch vs. Stochastic Gradient Descent}
\label{fig:batch_vs_stochastic_gradient_descent}
\vspace*{-20mm}
\vspace*{-10mm}
\end{wrapfigure}
Um die Loss Function nicht für alle Datenpunkte evaluieren zu müssen wird beim \gls{SDG} lediglich der Verlust an einem einzelnen, zufällig gewählten Punkt ermittelt
\begin{equation} \label{eq:stochastic_gradient_descent}

View File

@@ -82,6 +82,7 @@ welchen Anteil die Klasse $k$ auf der linken Seite des Splits hat.
\label{ssub:Classification Tree}
\includegraphics[width=.6\textwidth]{classification_tree.png}\\
(Herleitung: \cref{sec:Herleitung: CART: Classification Tree})
\clearpage
\subsubsection{Regression Tree}%
\label{ssub:Regression Tree}