forked from TH_General/Template_Summary
kleine Fehler ausgebessert. Ersten Eintrag im Anhang angelegt.
This commit is contained in:
@@ -19,7 +19,7 @@ Hierbei haben die einzelnen Teile folgende Eigenschaften:
|
||||
\item Posterior: Wahrscheinlichkeit für die Richtigkeit von \nomf{parameter_vector} auf Basis der gegebenen Daten
|
||||
\item Likelihood: Wahrscheinlichkeitswerte der Daten auf Basis eines gegebenen \nomf{parameter_vector}
|
||||
\item Prior: Vermutete Richtigkeit von \nomf{parameter_vector}
|
||||
\item Evidence: lediglich ein Normalisierungsfaktor, der für den Modellvergleich benötigt wird (\cref{Model Comparison})
|
||||
\item Evidence: lediglich ein Normalisierungsfaktor, der für den Modellvergleich benötigt wird (\cref{cha:Model Selection})
|
||||
\end{itemize}
|
||||
Die Vorhersage für einen neuen Datenpunkt $\bm x^*$ erfolgt auf Basis folgender Formel:
|
||||
\begin{equation} \label{eq:bayesian_learning:predictive_distribution}
|
||||
|
||||
@@ -244,7 +244,7 @@ Die Loss Function für die Logistic Regression kann dank der Eigenschaften der \
|
||||
\begin{align} \label{eq:gradient_for_logistic_regression}
|
||||
\dfrac{\partial\text{loss}_i}{\partial\bm{w}}
|
||||
&= \dfrac{\partial}{\partial\bm{w}}\left(c_i\log\nomeq{sigmoid}(\bm{w}^T\bm{\phi}(\bm{x}_i)) + (1 - c_i) \log(1-\nomeq{sigmoid}(\bm{w}^T\bm{\phi}(\bm{x}_i)))\right)\\
|
||||
&= \dots\text{\color{red}siehe Vorlesung 02 Folie 65}\\
|
||||
&= \dots\text{\cref{sec:Herleitung: Gradient for Logistic Regression}}\\
|
||||
&= (c_i - \nomeq{sigmoid}(\bm{w}^T\bm{\phi}(\bm{x}_i)))\phi(\bm{x}_i)
|
||||
\end{align}
|
||||
|
||||
|
||||
Reference in New Issue
Block a user