Alle Optimierungen abgeschlossen.

This commit is contained in:
2022-02-21 15:29:29 +01:00
parent b156e620d0
commit d378e4291b
11 changed files with 113 additions and 108 deletions

View File

@@ -33,6 +33,8 @@ Man spricht hierbei dann von einem Dual Optimization Problem
\bm\lambda^*=\argmax_{\bm\lambda} g(\bm\lambda), g(\bm\lambda)= \min_{\bm x}L(\bm x,\bm\lambda)
\end{equation}
Hieraus ergibt sich der folgende Ablauf für die Lagrangian Optimization
\pagebreak
\begin{mybox}
\textbf{\large Lagrangian Optimization}\\
\begin{enumerate}

View File

@@ -73,7 +73,7 @@ Gegeben: Marginal (\cref{eq:marginal_gaussian_distribution}) und Conditional (\c
\section{Gaussian Propagation}%
\label{sec:Gaussian Propagation}
Mit den Marginal und Conditional aus \cref{eq:marginal_gaussian_distribution} und \cref{eq:conditional_gaussian_distribution} ist es möglich den Conditional $p(\bm y)$ zu ermitteln:\\
({\color{red}Herleitung Vorlesung 07 Folie 31})
(Herleitung: \cref{sec:Herleitung: Gaussian Propagation})
\begin{itemize}
\item Mean: \tabto{2.2cm}$\bm\mu_{\bm y} = \bm F\bm\mu_{\bm x}$
\item Covariance:\tabto{2.2cm} $\nomeq{covariance}_{\bm y} = \sigma_{\bm y}^2\nomeq{identity_matrix} + \bm F\nomeq{covariance}_{\bm x}\bm F^T$

View File

@@ -75,7 +75,7 @@ und ist die am häufigsten genutzte Kernel Methode
\begin{equation} \label{eq:gaussian_kernel}
\nomeq{kernel_function}(\bm x,\bm y) = \exp\left(-\frac{\|\bm x - \bm y\|^2}{2\nomeq{variance}}\right)
\end{equation}
{\color{red}Beweis für die positive Definitheit in Vorlesung 04 Seite 14 f.}
(Beweis für die positive Definitheit in \cref{sec:Beweis fuer die positive Definitheit des Gaussian Kernels})
\section{Kernel Trick}%
\label{sec:Kernel Trick}