verlinkungen zur Vorlesung in Anhang gepackt.

This commit is contained in:
2022-02-21 14:50:48 +01:00
parent c9f9736173
commit b156e620d0
23 changed files with 287 additions and 45 deletions

View File

@@ -134,6 +134,6 @@ Bei der \say{maximum a-posteriori solution} handelt es sich um eine Vereinfachun
\label{sub:MAP:Anwendungsbeispiel: Regression}
Läuft am Ende auf \dref{sub:Ridge Regression} hinaus.
Soll den Zusammenhang beider Methoden zeigen.
{\color{red} siehe Vorlesung 07 Folien 20-22}
(siehe \cref{sec:Anwendungsbeispiel: Bayesian Learning: Regression})

View File

@@ -42,7 +42,7 @@ Allerdings ist $\nomeq{variance}(\bm x^*)$ jetzt abhängig von den Eingangsdaten
\section{Gaussian Processes}%
\label{sec:Gaussian Processes}
Ein Gaußscher Prozess ist im Grunde nichts anderes als die kernelized version der \dref{sec:Bayesian Linear Regression} ({\color{red}Beweis: Vorlesung 07 Folie 44 ff.}).
Ein Gaußscher Prozess ist im Grunde nichts anderes als die kernelized version der \dref{sec:Bayesian Linear Regression} (Beweis: \cref{sec:Beweis: Gaussian Processes ist eine kernelized Bayesian Linear Regression}).
\begin{equation} \label{eq:guassian_process_general_definition}
f(\bm x)\sim\nomeq{gaussian_process}(\underbrace{m(\bm x)}_{\text{mean function}},\underbrace{k(\bm x,\bm x')}_{\text{covariance function}})
\end{equation}
@@ -60,7 +60,7 @@ Ein Gaußscher Prozess ist im Grunde nichts anderes als die kernelized version d
(Covariance Function muss positiv definit sein (genau wie Kernel Function(\cref{sec:Positive Definite Kernels})))
\end{itemize}
Für Gaußsche Prozesse lässt ist der Posterior gegeben durch:\\
({\color{red} Herleitung und weitere Informationen Vorlesung 07 Folie 40})
(Herleitung und weitere Informationen: \cref{sec:Herleitung: Gaussian Processes: Posterior})
\begin{equation} \label{eq:gaussian_process_posterior}
p(\bm y|\bm X) = \nomeq{gaussian_distribution}(\bm y|0,\bm K + \sigma_y^2\nomeq{identity_matrix})
\end{equation}
@@ -74,7 +74,7 @@ Hierbei ist $\bm K$ die \say{covariance matrix} und nicht die \noms{kernel_matri
\end{equation}
Die Vorhersage $p(y^*|\bm X,\bm y,\bm x^*)$ ist eine \noms{gaussian_distribution},
wobei \noms{mean} und \noms{variance} gegeben sind durch:\\
({\color{red} Herleitung Vorlesung 07 Folie 41})
(Herleitung: \cref{sec:Herleitung: Gaussian Processes: mean and variance})
\begin{itemize}
\item $\nomeq{mean}(\bm x^*) = \bm k_{\bm x^*}^T(\bm K + \sigma_y^2\nomeq{identity_matrix})^{-1}\bm y$
\item $\nomeq{variance}(\bm x^*) = k^* + \sigma_y^2 - \bm k_{\bm x^*}^T(\bm K + \sigma_y^2\nomeq{identity_matrix})^{-1}\bm k_{\bm x^*}$