Fixed warnings related to the use of glossaries in section titles.

This commit is contained in:
2022-02-14 09:49:51 +01:00
parent 824838fc9f
commit 5816431351
9 changed files with 21 additions and 21 deletions

View File

@@ -167,7 +167,7 @@ Die Verteilung wird durch den \nomf{mean-vector} und die \nomf{covariance} volls
\item die Summe von zwei gaußschen Normalverteilungen ist wieder eine gaußsche Normalverteilung
\end{itemize}
\section{\glsxtrfull{MLE}}%
\section{\texorpdfstring{\glsxtrfull{MLE}}{\glsfmtfull{MLE}}}%
\label{sec:MLE}
Für einen gegebenen Trainingsdatensatz $D=\{(x_i,y_i)\}_{i=1\dots N}$ von unabhängig und identisch verteilten Zufallsvariablen (\gls{iid})
auf Basis einer Wahrscheinlichkeitsdichtefunktion $p_{\text{data}}$ soll ein $\bm{\theta}$ gefunden werden,
@@ -183,7 +183,7 @@ In Bezug auf den Gesamten Datensatz bedeutet dies:
\text{lik}(\bm{\theta};D) = \prod_i p_{\bm{\theta}}(x_i,y_i)
\end{equation}
Und die Log-likelihood ist definiert durch:
\begin{equation} \label{eq:fittness_theta_whole_dataset}
\begin{equation} \label{eq:loglik_theta_whole_dataset}
\log\text{lik}(\bm{\theta};D) = \sum_i \log p_{\bm{\theta}}(x_i,y_i)
\end{equation}
Dieser wird zumeist für die Optimierung vewendet, da
@@ -211,7 +211,7 @@ In diesem Zusammenhang berechnet sich die \gls{MLE} durch:
\nomeq{mean} &= \dfrac{\sum_i x_i}{N}
\end{align}
\subsection{\glsxtrshort{MLE}: conditional log-likelihood}%
\subsection{\texorpdfstring{\glsxtrshort{MLE}}{\glsfmtshort{MLE}}: conditional log-likelihood}%
\label{sub:MLE: conditional log-likelihood}
\begin{equation} \label{eq:MLE:conditional}
\log\text{lik}(\bm{\theta};D) = \sum_i \log p_{\bm{\theta}}(y_i|x_i)