kleine Fehler ausgebessert. Ersten Eintrag im Anhang angelegt.

This commit is contained in:
2022-02-17 23:37:58 +01:00
parent 09830ac8fb
commit fa7d5d72ac
5 changed files with 16 additions and 10 deletions

View File

@@ -19,7 +19,7 @@ Hierbei haben die einzelnen Teile folgende Eigenschaften:
\item Posterior: Wahrscheinlichkeit für die Richtigkeit von \nomf{parameter_vector} auf Basis der gegebenen Daten
\item Likelihood: Wahrscheinlichkeitswerte der Daten auf Basis eines gegebenen \nomf{parameter_vector}
\item Prior: Vermutete Richtigkeit von \nomf{parameter_vector}
\item Evidence: lediglich ein Normalisierungsfaktor, der für den Modellvergleich benötigt wird (\cref{Model Comparison})
\item Evidence: lediglich ein Normalisierungsfaktor, der für den Modellvergleich benötigt wird (\cref{cha:Model Selection})
\end{itemize}
Die Vorhersage für einen neuen Datenpunkt $\bm x^*$ erfolgt auf Basis folgender Formel:
\begin{equation} \label{eq:bayesian_learning:predictive_distribution}

View File

@@ -244,7 +244,7 @@ Die Loss Function für die Logistic Regression kann dank der Eigenschaften der \
\begin{align} \label{eq:gradient_for_logistic_regression}
\dfrac{\partial\text{loss}_i}{\partial\bm{w}}
&= \dfrac{\partial}{\partial\bm{w}}\left(c_i\log\nomeq{sigmoid}(\bm{w}^T\bm{\phi}(\bm{x}_i)) + (1 - c_i) \log(1-\nomeq{sigmoid}(\bm{w}^T\bm{\phi}(\bm{x}_i)))\right)\\
&= \dots\text{\color{red}siehe Vorlesung 02 Folie 65}\\
&= \dots\text{\cref{sec:Herleitung: Gradient for Logistic Regression}}\\
&= (c_i - \nomeq{sigmoid}(\bm{w}^T\bm{\phi}(\bm{x}_i)))\phi(\bm{x}_i)
\end{align}