forked from TH_General/Template_Summary
alle nameref überdacht.
This commit is contained in:
@@ -156,7 +156,7 @@ Welche Loss Function $l$ verwendet werden sollte hängt dabei vom Anwendungsgebi
|
||||
|
||||
\section{Feature Learning}%
|
||||
\label{sec:Feature Learning}
|
||||
Die letzte Schicht eines Neural Networks macht im Prinzip nur eine \nameref{cha:Linear Regression},
|
||||
Die letzte Schicht eines Neural Networks macht im Prinzip nur eine \dref{cha:Linear Regression},
|
||||
welche durch die vorhergegangenen Schichten vorbereitet wird.
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
|
||||
@@ -7,7 +7,7 @@ und die Größe der Batches an die Anzahl der \gls{GPU} Rechenkerne angepasst is
|
||||
\begin{equation} \label{eq:neural_networks:mini-batches}
|
||||
\bm{\theta}_{t+1} = \bm{\theta}_t - \dfrac{\eta}{b}\sum_i \nabla_{\bm{\theta}} l(\bm{x}_i;\bm{\theta}_t)
|
||||
\end{equation}
|
||||
Um den Gradienten für die einzelnen Gewichte zu errechnen wird die \nameref{sec:Backpropagation} verwendet.
|
||||
Um den Gradienten für die einzelnen Gewichte zu errechnen wird die \dref{sec:Backpropagation} verwendet.
|
||||
|
||||
\section{Backpropagation}%
|
||||
\label{sec:Backpropagation}
|
||||
|
||||
@@ -37,7 +37,7 @@ Der Zustand ergibt sich aus der Rekurrenz Gleichung (recurrence formula).
|
||||
\section{\texorpdfstring{\glsxtrfull{BPTT}}{\glsfmtfull{BPTT}}}%
|
||||
\label{sec:BPTT}
|
||||
Die Gewichte in einem \gls{RNN} können mithilfe von \gls{BPTT} angepasst werden.
|
||||
Hierbei wird der Gradient wie bei der normalen \nameref{sec:Backpropagation} errechnet,
|
||||
Hierbei wird der Gradient wie bei der normalen \dref{sec:Backpropagation} errechnet,
|
||||
wobei zusätzlich noch die Differentiation in Zeitrichtung durchgeführt werden muss.
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
|
||||
@@ -49,7 +49,7 @@ welches auf diese Weise trainiert wurde getestet werden kann.
|
||||
|
||||
\paragraph{Drop Connect}%
|
||||
\label{par:Drop Connect}
|
||||
Eine Abwandlung von \nameref{par:Dropout},
|
||||
Eine Abwandlung von \dref{par:Dropout},
|
||||
bei der alle Neuronen erhalten bleiben und lediglich Kanten zwischen den Neuronen weggelassen werden.
|
||||
\begin{figure}[H]
|
||||
\centering
|
||||
|
||||
Reference in New Issue
Block a user