forked from TH_General/Template_Summary
alle nameref überdacht.
This commit is contained in:
@@ -33,7 +33,7 @@ Daher ist $p(\bm y^*|\bm x^*,\nomeq{parameter_vector})$ nur noch von den gegeben
|
||||
\section{Example: Gaussian Distribution}%
|
||||
\label{sec:Example: Gaussian Distribution}
|
||||
Indem man \nomsym{mean} und $\sigma$ als \nomf{parameter_vector} betrachtet,
|
||||
kann die \nameref{sub:Gaussian Distribution} in die zuvor gezeigte Form gebracht werden:
|
||||
kann die \dref{sub:Gaussian Distribution} in die zuvor gezeigte Form gebracht werden:
|
||||
\begin{equation} \label{eq:Gaussian_Distribution_parameter_vector}
|
||||
p(x|\nomeq{parameter_vector}=\{\nomeq{mean},\sigma\})
|
||||
=\nomeq{gaussian_distribution}(x|\nomeq{mean},\sigma) = \dfrac{1}{\sqrt{2\pi\nomeq{variance}}}\exp\left\{-\dfrac{(x-\nomeq{mean})^2}{2\nomeq{variance}}\right\}
|
||||
@@ -42,7 +42,7 @@ Hieraus ergibt sich für einen ganzen Datensatz $\bm X$:
|
||||
\begin{equation} \label{eq:gaussian_distribution_dataset}
|
||||
p(\bm X|\nomeq{mean},\sigma)=\prod_i p(x_i|\nomeq{mean},\sigma) = \frac{1}{(2\pi\nomeq{variance})^{\frac{N}{2}}} \exp\left\{ -\frac{\sum_i(x_i-\nomeq{mean})^2}{2\nomeq{variance}} \right\}
|
||||
\end{equation}
|
||||
Mithilfe des \say{\nameref{sub:Completing the square}} Verfahrens können \nomf{variance} und \nomf{mean} für die a-posteriori Abschätzung ermittelt werden:
|
||||
Mithilfe des \say{\nameref{sub:Completing the square}} Verfahrens (\cref{sub:Completing the square}) können \nomf{variance} und \nomf{mean} für die a-posteriori Abschätzung ermittelt werden:
|
||||
\begin{itemize}
|
||||
\item $\nomeq{mean}_N = \dfrac{N\sigma_0^2}{N\sigma_0^2+\nomeq{variance}}\sum_i x_i + \dfrac{\nomeq{variance}}{N\sigma_0^2 + \nomeq{variance}}\nomeq{mean}_0
|
||||
= \dfrac{N\sigma_0^2}{N\sigma_0^2 + \nomeq{variance}}\nomeq{mean}_{ML} + \dfrac{\nomeq{variance}}{N\sigma_0^2 + \nomeq{variance}}\nomeq{mean}_0$\\
|
||||
@@ -132,7 +132,7 @@ Bei der \say{maximum a-posteriori solution} handelt es sich um eine Vereinfachun
|
||||
|
||||
\subsection{Anwendungsbeispiel: Regression}%
|
||||
\label{sub:MAP:Anwendungsbeispiel: Regression}
|
||||
Läuft am Ende auf \nameref{sub:Ridge Regression} hinaus.
|
||||
Läuft am Ende auf \dref{sub:Ridge Regression} hinaus.
|
||||
Soll den Zusammenhang beider Methoden zeigen.
|
||||
{\color{red} siehe Vorlesung 07 Folien 20-22}
|
||||
|
||||
|
||||
@@ -31,18 +31,18 @@ Anschließend erfolgt die Regression nach den Schritten des \nameref{cha:Bayesia
|
||||
p(y^*|\bm x^*,\bm X,\bm y) &= \int p(y^*|\bm w,\bm x^*)p(\bm w|\bm X,\bm y)d\bm w \\
|
||||
&= \int \nomeq{gaussian_distribution}(y_*|\phi_*^T\bm w,\sigma_{\bm y}^2)\nomeq{gaussian_distribution}(\bm w|\bm\mu_{\bm w|\bm X,\bm y},\nomeq{covariance}_{\bm w|\bm X,\bm y}) d\bm w
|
||||
\end{align}
|
||||
Um diese Gleichung zu lösen kann die \nameref{sec:Gaussian Propagation} (\cref{sec:Gaussian Propagation}) verwendet werden:
|
||||
Um diese Gleichung zu lösen kann die \dref{sec:Gaussian Propagation} verwendet werden:
|
||||
\begin{itemize}
|
||||
\item $\nomeq{mean}(\bm x^*) = \phi(\bm x^*)^T(\bm\Phi^T\bm\Phi + \nomeq{regularization_factor}\sigma_{\bm y}^2\nomeq{identity_matrix})^{-1}\bm\Phi^T\bm y$
|
||||
\item $\nomeq{variance}(\bm x^*) = \sigma_{\bm y}^2(1+\phi(\bm x^*)^T(\bm\Phi^T\bm\Phi + \nomeq{regularization_factor}\sigma_{\bm y}^2\nomeq{identity_matrix})^{-1}\phi(\bm x^*))$
|
||||
\end{itemize}
|
||||
\end{enumerate}
|
||||
Es fällt auf, dass $\nomeq{mean}(\bm{x^*})$ sich im Vergleich zur \nameref{sub:Ridge Regression} nicht verändert hat.
|
||||
Es fällt auf, dass $\nomeq{mean}(\bm{x^*})$ sich im Vergleich zur \dref{sub:Ridge Regression} nicht verändert hat.
|
||||
Allerdings ist $\nomeq{variance}(\bm x^*)$ jetzt abhängig von den Eingangsdaten.
|
||||
|
||||
\section{Gaussian Processes}%
|
||||
\label{sec:Gaussian Processes}
|
||||
Ein Gaußscher Prozess ist im Grunde nichts anderes als die kernelized version der \nameref{sec:Bayesian Linear Regression} ({\color{red}Beweis: Vorlesung 07 Folie 44 ff.}).
|
||||
Ein Gaußscher Prozess ist im Grunde nichts anderes als die kernelized version der \dref{sec:Bayesian Linear Regression} ({\color{red}Beweis: Vorlesung 07 Folie 44 ff.}).
|
||||
\begin{equation} \label{eq:guassian_process_general_definition}
|
||||
f(\bm x)\sim\nomeq{gaussian_process}(\underbrace{m(\bm x)}_{\text{mean function}},\underbrace{k(\bm x,\bm x')}_{\text{covariance function}})
|
||||
\end{equation}
|
||||
|
||||
Reference in New Issue
Block a user