forked from TH_General/Template_Summary
201 lines
9.1 KiB
TeX
201 lines
9.1 KiB
TeX
%
|
|
% all references for the glossary as well as the abbreviation list and nomenclature
|
|
%%
|
|
% add glossary for nomenclature
|
|
\newglossary{nomenclature}{nom}{ncl}{Nomenklatur}
|
|
|
|
\shorthandon{"}
|
|
% {{{ Main glossary%
|
|
|
|
\newglossaryentry{manifold}{
|
|
name=Mannigfaltigkeit,
|
|
description={
|
|
\say{Unter einer Mannigfaltigkeit versteht man in der Mathematik einen topologischen Raum,
|
|
der lokal dem euklidischen Raum $\mathbb{R}^n$ gleicht.
|
|
Global muss die Mannigfaltigkeit jedoch nicht einem euklidischen Raum gleichen (nicht zu ihm homöomorph sein).
|
|
}(\url{https://de.wikipedia.org/wiki/Mannigfaltigkeit})
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{overfitting}{
|
|
name=Overfitting,
|
|
description={
|
|
Eine Approximation ist overfitted,
|
|
wenn die Trainingsdaten sehr gut und Testdaten sehr schlecht approximiert werden.
|
|
}
|
|
}
|
|
\newglossaryentry{underfitting}{
|
|
name=Underfitting,
|
|
description={
|
|
Eine Approximation ist underfitted, wenn die Approximation so simple ist, dass weder Trainings"~ noch Testdaten gut approximiert werden.
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{full_rank_matrix}{
|
|
name = Full Rank Matrix,
|
|
description = {
|
|
\say{Ist der Rang einer quadratischen Matrix gleich ihrer Zeilen- und Spaltenzahl, hat sie vollen Rang und ist regulär (invertierbar).
|
|
Diese Eigenschaft lässt sich auch anhand ihrer Determinante feststellen.
|
|
Eine quadratische Matrix hat genau dann vollen Rang, wenn ihre Determinante von null verschieden ist bzw. keiner ihrer Eigenwerte null ist.
|
|
} (\url{https://de.wikipedia.org/wiki/Rang_(Mathematik)})
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{marginal}{
|
|
name = Randverteilung (marginal distribution),
|
|
description = {
|
|
die einzelnen Wahrscheinlichkeitsverteilungen,
|
|
aus denen sich eine mehrdimensionale Wahrscheinlichkeitsverteilung zusammensetzt.
|
|
z.B. sind $p(x)$ und $p(y)$ Randverteilungen von $p(x,y)$
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{conditional}{
|
|
name = bedingte Verteilung (conditional distribution),
|
|
description={
|
|
Eine Wahrscheinlichkeitsverteilung,
|
|
bei der einer oder mehrere Bedingungen festgelegt sind.
|
|
z.B. ist $p(x|y)$ eine bedingte Verteilung von $X$ gegeben $Y=y$
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{identically_independently_distributed}{
|
|
name=identically independently distributed,
|
|
description={
|
|
\say{Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung,
|
|
nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an,
|
|
beeinflussen sich dabei aber nicht.} (\url{https://de.wikipedia.org/wiki/Unabh\%C3\%A4ngig_und_identisch_verteilte_Zufallsvariablen})
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{closed_form_solution}{
|
|
name=Closed Form Solution,
|
|
description={
|
|
\say{In mathematics,
|
|
a closed-form expression is a mathematical expression
|
|
that uses a finite number of standard operations.
|
|
It may contain constants, variables, certain well-known operations (e.g. $+$ $-$ $\cdot$ $\div$),
|
|
and functions (e.g. n-th root, exponent, logarithm, trigonometric functions, and inverse hyperbolic functions),
|
|
but usually no limit, differentiation, or integration.
|
|
The set of operations and functions may vary with author and context.}
|
|
(\url{https://en.wikipedia.org/wiki/Closed-form_expression})\\
|
|
\say{An equation is said to be a closed-form solution if it solves a given problem in terms of functions and mathematical operations from a given generally-accepted set.
|
|
For example, an infinite sum would generally not be considered closed-form.
|
|
However, the choice of what to call closed-form and what not is rather arbitrary since a new "closed-form" function could simply be defined in terms of the infinite sum. }
|
|
(\url{https://mathworld.wolfram.com/Closed-FormSolution.html})
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{latent_variable_model}{
|
|
name= Latent Variable Model,
|
|
description={
|
|
\say{Ein latentes Variablenmodell beschreibt den Zusammenhang zwischen beobachtbaren (oder manifesten) Variablen und dahinter liegenden latenten Variablen.
|
|
Ein Beispiel für eine latente Variable ist die Intelligenz.
|
|
Sie kann nicht direkt gemessen werden,
|
|
aber aus einer Vielzahl von Testergebnissen (den beobachtbaren Variablen)
|
|
können eine oder mehrere hinter den Testergebnissen liegende latente Variablen (Intelligenz) extrahiert werden.}
|
|
(\url{https://de.wikipedia.org/wiki/Latentes_Variablenmodell})
|
|
}
|
|
}
|
|
% }}} %
|
|
|
|
% {{{ acronyms%
|
|
\setabbreviationstyle[acronym]{long-short}
|
|
|
|
\newacronym{VAE}{VAE}{Variational Auto-Encoder}
|
|
\newacronym{KL}{KL}{Kullback-Leibler}
|
|
\newacronym{EM}{EM}{Expectation Maximization}
|
|
\newacronym{PCA}{PCA}{Principal Component Analysis}
|
|
\newacronym{GRU}{GRU}{Gated Recurrent Units}
|
|
\newacronym{LSTM}{LSTM}{Long-term Short-term Memory}
|
|
\newacronym{BPTT}{BPTT}{Backpropagation through time}
|
|
\newacronym{CNN}{CNN}{Convolutional Neural Network}
|
|
\newacronym{RNN}{RNN}{Recurrent Neural Network}
|
|
\newacronym{SSE}{SSE}{Summed Squared Error}
|
|
\newacronym{SSD}{SSD}{Sum of Squared Distances}
|
|
\newacronym{MSE}{MSE}{Mean Squared Error}
|
|
\newacronym{FRM}{FRM}{\gls{full_rank_matrix}}
|
|
\newacronym{MLE}{MLE}{Maximum Likelihood Estimation}
|
|
\newacronym{iid}{iid}{\gls{identically_independently_distributed}}
|
|
\newacronym{SDG}{SDG}{Stochastic Gradient Descent}
|
|
\newacronym{LLO}{LLO}{Leave-One-Out}
|
|
\newacronym{knn}{k"=NN}{k"=Nearest Neighbors}
|
|
\newacronym{RSS}{RSS}{Residual Sum of Squares}
|
|
\newacronym{CART}{CART}{Classification an Regression Trees}
|
|
\newacronym{DNN}{DNN}{Deep Neural Network}
|
|
\newacronym{RBF}{RBF}{Radial Basis Function Kernel}
|
|
\newacronym{SVM}{SVM}{Support Vector Machine}
|
|
\newacronym{ARD}{ARD}{Automatic Relevance Determination}
|
|
\newacronym{MLP}{MLP}{Multi-Layer Perceptron}
|
|
\newacronym{ReLU}{ReLU}{Rectified Linear Unit}
|
|
\newacronym{ELU}{ELU}{Exponential Linear Units}
|
|
\newacronym{GPU}{GPU}{Graphic Processing Unit}
|
|
\newacronym{RMS}{RMS}{Root Mean Square}
|
|
\newacronym{GMM}{GMM}{Gaussian Mixture Model}
|
|
|
|
% }}} %
|
|
|
|
% {{{ Nomenclature%
|
|
|
|
% {{{ Nomencalture Commands %
|
|
%add new key
|
|
%\glsaddstoragekey{unit}{}{\glsentryunit}
|
|
\glsnoexpandfields
|
|
|
|
%\newcommand{\newnom}[5]{
|
|
\newcommand{\newnom}[4]{
|
|
\newglossaryentry{#1}{
|
|
name={#2},
|
|
symbol={#3},
|
|
description={#4},
|
|
%unit={#5},
|
|
type=nomenclature,
|
|
sort={#1}
|
|
}
|
|
}
|
|
%use nomenclature entry (name + symbol) nomF=>First letter upper case
|
|
\newcommand{\nomf}[1]{\glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
|
|
\newcommand{\nomF}[1]{\Glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
|
|
%use nomenclature entry (name) nomS=>First letter upper case
|
|
\newcommand{\noms}[1]{\glsentryname{#1}\xspace}
|
|
\newcommand{\nomS}[1]{\Glsentryname{#1}\xspace}
|
|
%use nomenclature entry (symbol only)
|
|
\newcommand{\nomsym}[1]{\texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{#1}\xspace}
|
|
%use nomenclature entry (use in equation)
|
|
\newcommand{\nomeq}[1]{\glslink{#1}{\glsentrysymbol{#1}}}
|
|
% }}} Nomencalture Commands %
|
|
|
|
\newnom{kl_divergence}{\glsxtrshort{KL}-Divergenz}{\text{\glsxtrshort{KL}}}{\nameref{sec:KL-Divergenz}(\cref{sec:KL-Divergenz})}
|
|
\newnom{summed_squared_error}{\glsxtrshort{SSE}}{\text{\glsxtrshort{SSE}}}{\glsxtrlong{SSE}}
|
|
\newnom{sum_of_squared_distances}{\glsxtrshort{SSD}}{\text{\glsxtrshort{SSD}}}{\glsxtrlong{SSD}}
|
|
\newnom{mean_squared_error}{\glsxtrshort{MSE}}{\text{\glsxtrshort{MSE}}}{\glsxtrlong{MSE}}
|
|
\newnom{residual_sum_squares}{\glsxtrshort{RSS}}{\text{\glsxtrshort{RSS}}}{\glsxtrlong{RSS}}
|
|
\newnom{gaussian_noise}{Gausches Rauschen}{\epsilon}{zufällige (normalverteilte) Abweichung}
|
|
\newnom{vector_valued_function}{vektorwertige Funktion}{\bm\phi(\bm{x})}{vektorwertige Funktion der des Eingangsvektor $\bm{x}$}
|
|
\newnom{regularization_factor}{Regularisierungsfaktor}{\lambda}{}
|
|
\newnom{identity_matrix}{Identitätsmatrix}{\bm{I}}{$\begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix}$}
|
|
\newnom{probability_mass_function}{Pro\-ba\-bi\-li\-ty Mass Func\-tion}{p(x)}{Wahrscheinlichkeitsdichte"~\slash\,Wahrscheinlichkeitsmassefunktion}
|
|
\newnom{mean}{arithmetisches Mittel}{\mu}{}
|
|
\newnom{mean-vector}{Mittelwerts"~Vektor}{\bm{\mu}}{}
|
|
\newnom{covariance}{Kovarianz"~Matrix}{\bm{\Sigma}}{}
|
|
\newnom{variance}{Varianz}{\sigma^2}{$\mathbb{E}_p[(X-\nomeq{mean})$]}
|
|
\newnom{sigmoid}{Sigmoid Function}{\sigma}{}
|
|
\newnom{learning_rate}{Learning Rate}{\eta}{}
|
|
\newnom{kernel_matrix}{Kernel Matrix}{\bm{K}}{}
|
|
\newnom{kernel_function}{Kernel Function}{k}{}
|
|
\newnom{kernel_vector}{Kernel Vector}{\bm{k}}{}
|
|
\newnom{margin}{Margin}{\rho}{}
|
|
\newnom{slack-variable}{Slack"~Variable}{\xi_i}{}
|
|
\newnom{parameter_vector}{Parameter Vector}{\bm{\theta}}{}
|
|
\newnom{gaussian_distribution}{Gaußsche Normalverteilung}{\mathcal{N}}{}
|
|
\newnom{gaussian_process}{Gaußscher Prozess}{\mathcal{GP}}{}
|
|
\newnom{hyper_parameters}{Hyper"~Parameter}{\bm{\beta}}{}
|
|
\newnom{activation_function}{Aktivierungsfunktion}{\phi}{}
|
|
\newnom{dirac_delta}{Dirac Delta Function}{\delta}{$\delta_{ij} = \begin{cases} 1, &\text{ if }i = j\\ 0, &\text{ sonst } \end{cases}$}
|
|
% }}} %
|
|
|
|
\shorthandoff{"}
|
|
|
|
\makeglossaries
|
|
|