forked from TH_General/Template_Summary
verlinkungen zur Vorlesung in Anhang gepackt.
This commit is contained in:
@@ -51,7 +51,7 @@ in die umgewandelt werden kann:
|
||||
\section{Gaussian Bayes Rules}%
|
||||
\label{sec:Gaussian Bayes Rules}
|
||||
Es gibt zwei bayesische Regeln für die Errechnung des Posteriors:\\
|
||||
({\color{red}Herleitung Vorlesung 07 Folien 28 und 29})\\
|
||||
(Herleitung: \cref{sec:Herleitung: Gaussian Bayes Rules})\\
|
||||
Gegeben: Marginal (\cref{eq:marginal_gaussian_distribution}) und Conditional (\cref{eq:conditional_gaussian_distribution})
|
||||
\begin{itemize}
|
||||
\item Gaussian Bayes Rule 1:
|
||||
|
||||
@@ -124,4 +124,4 @@ weshalb hier nur mit dem \nameref{sec:Gradient Descent} Verfahren (\cref{sec:Gra
|
||||
und auch hierbei potentiell nur ein lokales Optimum gefunden wird.
|
||||
\subsubsection{Beispiele}%
|
||||
\label{ssub:Beispiele}
|
||||
({\color{red}siehe Vorlesung 07 Folie 55 ff.})
|
||||
siehe \cref{sec:Beispiele fuer die Optimierung von Hyper-Parametern eines Gaussian Kernels}
|
||||
|
||||
@@ -216,7 +216,7 @@ In diesem Zusammenhang berechnet sich die \gls{MLE} durch:
|
||||
\begin{equation} \label{eq:MLE:conditional}
|
||||
\log\text{lik}(\bm{\theta};D) = \sum_i \log p_{\bm{\theta}}(y_i|x_i)
|
||||
\end{equation}
|
||||
{\color{red} Erklärung: siehe Folien 21 und 22 in Vorlesung 2}
|
||||
Erklärung: \cref{sec:Zusaetzliche Informationen: MLE: conditional log-likelihood}
|
||||
|
||||
\section{\glstoplong{KL} Divergenz}%
|
||||
\label{sec:KL-Divergenz}
|
||||
|
||||
Reference in New Issue
Block a user