Template_Summary/Glossary.tex

201 lines
9.1 KiB
TeX

%
% all references for the glossary as well as the abbreviation list and nomenclature
%%
% add glossary for nomenclature
\newglossary{nomenclature}{nom}{ncl}{Nomenklatur}
\shorthandon{"}
% {{{ Main glossary%
\newglossaryentry{manifold}{
name=Mannigfaltigkeit,
description={
\say{Unter einer Mannigfaltigkeit versteht man in der Mathematik einen topologischen Raum,
der lokal dem euklidischen Raum $\mathbb{R}^n$ gleicht.
Global muss die Mannigfaltigkeit jedoch nicht einem euklidischen Raum gleichen (nicht zu ihm homöomorph sein).
}(\url{https://de.wikipedia.org/wiki/Mannigfaltigkeit})
}
}
\newglossaryentry{overfitting}{
name=Overfitting,
description={
Eine Approximation ist overfitted,
wenn die Trainingsdaten sehr gut und Testdaten sehr schlecht approximiert werden.
}
}
\newglossaryentry{underfitting}{
name=Underfitting,
description={
Eine Approximation ist underfitted, wenn die Approximation so simple ist, dass weder Trainings"~ noch Testdaten gut approximiert werden.
}
}
\newglossaryentry{full_rank_matrix}{
name = Full Rank Matrix,
description = {
\say{Ist der Rang einer quadratischen Matrix gleich ihrer Zeilen- und Spaltenzahl, hat sie vollen Rang und ist regulär (invertierbar).
Diese Eigenschaft lässt sich auch anhand ihrer Determinante feststellen.
Eine quadratische Matrix hat genau dann vollen Rang, wenn ihre Determinante von null verschieden ist bzw. keiner ihrer Eigenwerte null ist.
} (\url{https://de.wikipedia.org/wiki/Rang_(Mathematik)})
}
}
\newglossaryentry{marginal}{
name = Randverteilung (marginal distribution),
description = {
die einzelnen Wahrscheinlichkeitsverteilungen,
aus denen sich eine mehrdimensionale Wahrscheinlichkeitsverteilung zusammensetzt.
z.B. sind $p(x)$ und $p(y)$ Randverteilungen von $p(x,y)$
}
}
\newglossaryentry{conditional}{
name = bedingte Verteilung (conditional distribution),
description={
Eine Wahrscheinlichkeitsverteilung,
bei der einer oder mehrere Bedingungen festgelegt sind.
z.B. ist $p(x|y)$ eine bedingte Verteilung von $X$ gegeben $Y=y$
}
}
\newglossaryentry{identically_independently_distributed}{
name=identically independently distributed,
description={
\say{Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung,
nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an,
beeinflussen sich dabei aber nicht.} (\url{https://de.wikipedia.org/wiki/Unabh\%C3\%A4ngig_und_identisch_verteilte_Zufallsvariablen})
}
}
\newglossaryentry{closed_form_solution}{
name=Closed Form Solution,
description={
\say{In mathematics,
a closed-form expression is a mathematical expression
that uses a finite number of standard operations.
It may contain constants, variables, certain well-known operations (e.g. $+$ $-$ $\cdot$ $\div$),
and functions (e.g. n-th root, exponent, logarithm, trigonometric functions, and inverse hyperbolic functions),
but usually no limit, differentiation, or integration.
The set of operations and functions may vary with author and context.}
(\url{https://en.wikipedia.org/wiki/Closed-form_expression})\\
\say{An equation is said to be a closed-form solution if it solves a given problem in terms of functions and mathematical operations from a given generally-accepted set.
For example, an infinite sum would generally not be considered closed-form.
However, the choice of what to call closed-form and what not is rather arbitrary since a new "closed-form" function could simply be defined in terms of the infinite sum. }
(\url{https://mathworld.wolfram.com/Closed-FormSolution.html})
}
}
\newglossaryentry{latent_variable_model}{
name= Latent Variable Model,
description={
\say{Ein latentes Variablenmodell beschreibt den Zusammenhang zwischen beobachtbaren (oder manifesten) Variablen und dahinter liegenden latenten Variablen.
Ein Beispiel für eine latente Variable ist die Intelligenz.
Sie kann nicht direkt gemessen werden,
aber aus einer Vielzahl von Testergebnissen (den beobachtbaren Variablen)
können eine oder mehrere hinter den Testergebnissen liegende latente Variablen (Intelligenz) extrahiert werden.}
(\url{https://de.wikipedia.org/wiki/Latentes_Variablenmodell})
}
}
% }}} %
% {{{ acronyms%
\setabbreviationstyle[acronym]{long-short}
\newacronym{VAE}{VAE}{Variational Auto-Encoder}
\newacronym{KL}{KL}{Kullback-Leibler}
\newacronym{EM}{EM}{Expectation Maximization}
\newacronym{PCA}{PCA}{Principal Component Analysis}
\newacronym{GRU}{GRU}{Gated Recurrent Units}
\newacronym{LSTM}{LSTM}{Long-term Short-term Memory}
\newacronym{BPTT}{BPTT}{Backpropagation through time}
\newacronym{CNN}{CNN}{Convolutional Neural Network}
\newacronym{RNN}{RNN}{Recurrent Neural Network}
\newacronym{SSE}{SSE}{Summed Squared Error}
\newacronym{SSD}{SSD}{Sum of Squared Distances}
\newacronym{MSE}{MSE}{Mean Squared Error}
\newacronym{FRM}{FRM}{\gls{full_rank_matrix}}
\newacronym{MLE}{MLE}{Maximum Likelihood Estimation}
\newacronym{iid}{iid}{\gls{identically_independently_distributed}}
\newacronym{SDG}{SDG}{Stochastic Gradient Descent}
\newacronym{LLO}{LLO}{Leave-One-Out}
\newacronym{knn}{k"=NN}{k"=Nearest Neighbors}
\newacronym{RSS}{RSS}{Residual Sum of Squares}
\newacronym{CART}{CART}{Classification an Regression Trees}
\newacronym{DNN}{DNN}{Deep Neural Network}
\newacronym{RBF}{RBF}{Radial Basis Function Kernel}
\newacronym{SVM}{SVM}{Support Vector Machine}
\newacronym{ARD}{ARD}{Automatic Relevance Determination}
\newacronym{MLP}{MLP}{Multi-Layer Perceptron}
\newacronym{ReLU}{ReLU}{Rectified Linear Unit}
\newacronym{ELU}{ELU}{Exponential Linear Units}
\newacronym{GPU}{GPU}{Graphic Processing Unit}
\newacronym{RMS}{RMS}{Root Mean Square}
\newacronym{GMM}{GMM}{Gaussian Mixture Model}
% }}} %
% {{{ Nomenclature%
% {{{ Nomencalture Commands %
%add new key
%\glsaddstoragekey{unit}{}{\glsentryunit}
\glsnoexpandfields
%\newcommand{\newnom}[5]{
\newcommand{\newnom}[4]{
\newglossaryentry{#1}{
name={#2},
symbol={#3},
description={#4},
%unit={#5},
type=nomenclature,
sort={#1}
}
}
%use nomenclature entry (name + symbol) nomF=>First letter upper case
\newcommand{\nomf}[1]{\glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
\newcommand{\nomF}[1]{\Glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
%use nomenclature entry (name) nomS=>First letter upper case
\newcommand{\noms}[1]{\glsentryname{#1}\xspace}
\newcommand{\nomS}[1]{\Glsentryname{#1}\xspace}
%use nomenclature entry (symbol only)
\newcommand{\nomsym}[1]{\texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{#1}\xspace}
%use nomenclature entry (use in equation)
\newcommand{\nomeq}[1]{\glslink{#1}{\glsentrysymbol{#1}}}
% }}} Nomencalture Commands %
\newnom{kl_divergence}{\glsxtrshort{KL}-Divergenz}{\text{\glsxtrshort{KL}}}{\nameref{sec:KL-Divergenz}(\cref{sec:KL-Divergenz})}
\newnom{summed_squared_error}{\glsxtrshort{SSE}}{\text{\glsxtrshort{SSE}}}{\glsxtrlong{SSE}}
\newnom{sum_of_squared_distances}{\glsxtrshort{SSD}}{\text{\glsxtrshort{SSD}}}{\glsxtrlong{SSD}}
\newnom{mean_squared_error}{\glsxtrshort{MSE}}{\text{\glsxtrshort{MSE}}}{\glsxtrlong{MSE}}
\newnom{residual_sum_squares}{\glsxtrshort{RSS}}{\text{\glsxtrshort{RSS}}}{\glsxtrlong{RSS}}
\newnom{gaussian_noise}{Gausches Rauschen}{\epsilon}{zufällige (normalverteilte) Abweichung}
\newnom{vector_valued_function}{vektorwertige Funktion}{\bm\phi(\bm{x})}{vektorwertige Funktion der des Eingangsvektor $\bm{x}$}
\newnom{regularization_factor}{Regularisierungsfaktor}{\lambda}{}
\newnom{identity_matrix}{Identitätsmatrix}{\bm{I}}{$\begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix}$}
\newnom{probability_mass_function}{Pro\-ba\-bi\-li\-ty Mass Func\-tion}{p(x)}{Wahrscheinlichkeitsdichte"~\slash\,Wahrscheinlichkeitsmassefunktion}
\newnom{mean}{arithmetisches Mittel}{\mu}{}
\newnom{mean-vector}{Mittelwerts"~Vektor}{\bm{\mu}}{}
\newnom{covariance}{Kovarianz"~Matrix}{\bm{\Sigma}}{}
\newnom{variance}{Varianz}{\sigma^2}{$\mathbb{E}_p[(X-\nomeq{mean})$]}
\newnom{sigmoid}{Sigmoid Function}{\sigma}{}
\newnom{learning_rate}{Learning Rate}{\eta}{}
\newnom{kernel_matrix}{Kernel Matrix}{\bm{K}}{}
\newnom{kernel_function}{Kernel Function}{k}{}
\newnom{kernel_vector}{Kernel Vector}{\bm{k}}{}
\newnom{margin}{Margin}{\rho}{}
\newnom{slack-variable}{Slack"~Variable}{\xi_i}{}
\newnom{parameter_vector}{Parameter Vector}{\bm{\theta}}{}
\newnom{gaussian_distribution}{Gaußsche Normalverteilung}{\mathcal{N}}{}
\newnom{gaussian_process}{Gaußscher Prozess}{\mathcal{GP}}{}
\newnom{hyper_parameters}{Hyper"~Parameter}{\bm{\beta}}{}
\newnom{activation_function}{Aktivierungsfunktion}{\phi}{}
\newnom{dirac_delta}{Dirac Delta Function}{\delta}{$\delta_{ij} = \begin{cases} 1, &\text{ if }i = j\\ 0, &\text{ sonst } \end{cases}$}
% }}} %
\shorthandoff{"}
\makeglossaries