verlinkungen zur Vorlesung in Anhang gepackt.

This commit is contained in:
2022-02-21 14:50:48 +01:00
parent c9f9736173
commit b156e620d0
23 changed files with 287 additions and 45 deletions

View File

@@ -51,7 +51,7 @@ in die umgewandelt werden kann:
\section{Gaussian Bayes Rules}%
\label{sec:Gaussian Bayes Rules}
Es gibt zwei bayesische Regeln für die Errechnung des Posteriors:\\
({\color{red}Herleitung Vorlesung 07 Folien 28 und 29})\\
(Herleitung: \cref{sec:Herleitung: Gaussian Bayes Rules})\\
Gegeben: Marginal (\cref{eq:marginal_gaussian_distribution}) und Conditional (\cref{eq:conditional_gaussian_distribution})
\begin{itemize}
\item Gaussian Bayes Rule 1:

View File

@@ -124,4 +124,4 @@ weshalb hier nur mit dem \nameref{sec:Gradient Descent} Verfahren (\cref{sec:Gra
und auch hierbei potentiell nur ein lokales Optimum gefunden wird.
\subsubsection{Beispiele}%
\label{ssub:Beispiele}
({\color{red}siehe Vorlesung 07 Folie 55 ff.})
siehe \cref{sec:Beispiele fuer die Optimierung von Hyper-Parametern eines Gaussian Kernels}

View File

@@ -216,7 +216,7 @@ In diesem Zusammenhang berechnet sich die \gls{MLE} durch:
\begin{equation} \label{eq:MLE:conditional}
\log\text{lik}(\bm{\theta};D) = \sum_i \log p_{\bm{\theta}}(y_i|x_i)
\end{equation}
{\color{red} Erklärung: siehe Folien 21 und 22 in Vorlesung 2}
Erklärung: \cref{sec:Zusaetzliche Informationen: MLE: conditional log-likelihood}
\section{\glstoplong{KL} Divergenz}%
\label{sec:KL-Divergenz}