forked from TH_General/Template_Summary
Alle Optimierungen abgeschlossen.
This commit is contained in:
@@ -33,6 +33,8 @@ Man spricht hierbei dann von einem Dual Optimization Problem
|
||||
\bm\lambda^*=\argmax_{\bm\lambda} g(\bm\lambda), g(\bm\lambda)= \min_{\bm x}L(\bm x,\bm\lambda)
|
||||
\end{equation}
|
||||
Hieraus ergibt sich der folgende Ablauf für die Lagrangian Optimization
|
||||
\pagebreak
|
||||
|
||||
\begin{mybox}
|
||||
\textbf{\large Lagrangian Optimization}\\
|
||||
\begin{enumerate}
|
||||
|
||||
@@ -73,7 +73,7 @@ Gegeben: Marginal (\cref{eq:marginal_gaussian_distribution}) und Conditional (\c
|
||||
\section{Gaussian Propagation}%
|
||||
\label{sec:Gaussian Propagation}
|
||||
Mit den Marginal und Conditional aus \cref{eq:marginal_gaussian_distribution} und \cref{eq:conditional_gaussian_distribution} ist es möglich den Conditional $p(\bm y)$ zu ermitteln:\\
|
||||
({\color{red}Herleitung Vorlesung 07 Folie 31})
|
||||
(Herleitung: \cref{sec:Herleitung: Gaussian Propagation})
|
||||
\begin{itemize}
|
||||
\item Mean: \tabto{2.2cm}$\bm\mu_{\bm y} = \bm F\bm\mu_{\bm x}$
|
||||
\item Covariance:\tabto{2.2cm} $\nomeq{covariance}_{\bm y} = \sigma_{\bm y}^2\nomeq{identity_matrix} + \bm F\nomeq{covariance}_{\bm x}\bm F^T$
|
||||
|
||||
@@ -75,7 +75,7 @@ und ist die am häufigsten genutzte Kernel Methode
|
||||
\begin{equation} \label{eq:gaussian_kernel}
|
||||
\nomeq{kernel_function}(\bm x,\bm y) = \exp\left(-\frac{\|\bm x - \bm y\|^2}{2\nomeq{variance}}\right)
|
||||
\end{equation}
|
||||
{\color{red}Beweis für die positive Definitheit in Vorlesung 04 Seite 14 f.}
|
||||
(Beweis für die positive Definitheit in \cref{sec:Beweis fuer die positive Definitheit des Gaussian Kernels})
|
||||
|
||||
\section{Kernel Trick}%
|
||||
\label{sec:Kernel Trick}
|
||||
|
||||
Reference in New Issue
Block a user