Template_Summary/chapters/Bayesian_Learning/Bayesian_Regression_Algorithms.tex

28 lines
1.5 KiB
TeX

\chapter{Bayesian Regression Algorithms}%
\label{cha:Bayesian Regression Algorithms}
\section{Bayesian Linear Regression}%
\label{sec:Bayesian Linear Regression}
Für die Bayesian Linear Regression ist es möglich den Posterior und die Vorhersage ohne die Nutzung von Approximationen zu berechnen.
Hierzu werden die folgenden Komponenten benötigt:
\begin{itemize}
\item Likelihood (einzelnes Sample): $p(y|\bm x,\bm w) = \nomeq{gaussian_distribution}(y|\bm w^T \nomeq{vector_valued_function},\nomeq{variance})$
\item Likelihood (ganzer Datensatz): $p(\bm y|\bm X,\bm w) = \prod_i \nomeq{gaussian_distribution}(y_i|\bm w^T \bm\phi(\bm x_i), \nomeq{variance})$
\item Gaussian Prior: $p(\bm w) = \nomeq{gaussian_distribution}(\bm w|0,\nomeq{regularization_factor}^{-1}\nomeq{identity_matrix})$
\end{itemize}
Anschließend erfolgt die Regression nach den Schritten des \nameref{cha:Bayesian Learning}:
\begin{enumerate}
\item Posterior errechnen:
\begin{equation} \label{eq:bayesion_linear_regression_posterior}
p(\bm w|\bm X,\bm y) = \frac{p(\bm y|\bm X,\bm w)p(\bm w)}{p(\bm y|\bm X)}
= \frac{p(\bm y|\bm X,\bm w)p(\bm w)}{\int p(\bm y|\bm X,\bm w)p(\bm w)d\bm w}
\end{equation}
\item Predictive Distribution errechnen:
\begin{equation} \label{eq:bayesion_linear_regression_predictive_distribution}
p(y^*|\bm x^*,\bm X,\bm y) = \int p(y^*|\bm w,\bm x^*)p(\bm w|\bm X,\bm y)d\bm w
\end{equation}
\end{enumerate}
WEITER AUF FOLIE 398