Template_Summary/Glossary.tex

147 lines
6.0 KiB
TeX

%
% all references for the glossary as well as the abbreviation list and nomenclature
%%
% add glossary for nomenclature
\newglossary{nomenclature}{nom}{ncl}{Nomenklatur}
\shorthandon{"}
%--------------------
%main glossary
%--------------------
\newglossaryentry{overfitting}{
name=Overfitting,
description={
Eine Approximation ist overfitted,
wenn die Trainingsdaten sehr gut und Testdaten sehr schlecht approximiert werden.
}
}
\newglossaryentry{underfitting}{
name=Underfitting,
description={
Eine Approximation ist underfitted,
wenn die Approximation so simple ist,
dass weder Trainings"~ noch Testdaten gut approximiert werden.
}
}
\newglossaryentry{full_rank_matrix}{
name = Full Rank Matrix,
description = {
\say{Ist der Rang einer quadratischen Matrix gleich ihrer Zeilen- und Spaltenzahl, hat sie vollen Rang und ist regulär (invertierbar).
Diese Eigenschaft lässt sich auch anhand ihrer Determinante feststellen.
Eine quadratische Matrix hat genau dann vollen Rang, wenn ihre Determinante von null verschieden ist bzw. keiner ihrer Eigenwerte null ist.
} (\url{https://de.wikipedia.org/wiki/Rang_(Mathematik)})
}
}
\newglossaryentry{marginal}{
name = Randverteilung (marginal distribution),
description = {
die einzelnen Wahrscheinlichkeitsverteilungen,
aus denen sich eine mehrdimensionale Wahrscheinlichkeitsverteilung zusammensetzt.
z.B. sind $p(x)$ und $p(y)$ Randverteilungen von $p(x,y)$
}
}
\newglossaryentry{conditional}{
name = bedingte Verteilung (conditional distribution),
description={
Eine Wahrscheinlichkeitsverteilung,
bei der einer oder mehrere Bedingungen festgelegt sind.
z.B. ist $p(x|y)$ eine bedingte Verteilung von $X$ gegeben $Y=y$
}
}
\newglossaryentry{identically_independently_distributed}{
name=identically independently distributed,
description={
\say{Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung,
nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an,
beeinflussen sich dabei aber nicht.} (\url{https://de.wikipedia.org/wiki/Unabh\%C3\%A4ngig_und_identisch_verteilte_Zufallsvariablen})
}
}
%--------------------
%acronyms
%--------------------
\setabbreviationstyle[acronym]{long-short}
\newacronym{SSE}{SSE}{Summed Squared Error}
\newacronym{MSE}{MSE}{Mean Squared Error}
\newacronym{FRM}{FRM}{\gls{full_rank_matrix}}
\newacronym{MLE}{MLE}{Maximum Likelihood Estimation}
\newacronym{iid}{iid}{\gls{identically_independently_distributed}}
\newacronym{SDG}{SDG}{Stochastic Gradient Descent}
\newacronym{LLO}{LLO}{Leave-One-Out}
\newacronym{knn}{k"=NN}{k"=Nearest Neighbors}
\newacronym{RSS}{RSS}{Residual Sum of Squares}
\newacronym{CART}{CART}{Classification an Regression Trees}
\newacronym{DNN}{DNN}{Deep Neural Network}
\newacronym{RBF}{RBF}{Radial Basis Function Kernel}
\newacronym{SVM}{SVM}{Support Vector Machine}
\newacronym{ARD}{ARD}{Automatic Relevance Determination}
\newacronym{MLP}{MLP}{Multi-Layer Perceptron}
\newacronym{ReLU}{ReLU}{Rectified Linear Unit}
\newacronym{ELU}{ELU}{Exponential Linear Units}
\newacronym{GPU}{GPU}{Graphic Processing Unit}
\newacronym{RMS}{RMS}{Root Mean Square}
%--------------------
%nomenclature
%--------------------
%add new key
%\glsaddstoragekey{unit}{}{\glsentryunit}
\glsnoexpandfields
%\newcommand{\newnom}[5]{
\newcommand{\newnom}[4]{
\newglossaryentry{#1}{
name={#2},
symbol={#3},
description={#4},
%unit={#5},
type=nomenclature,
sort={#1}
}
}
%use nomenclature entry (name + symbol) nomF=>First letter upper case
\newcommand{\nomf}[1]{\glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
\newcommand{\nomF}[1]{\Glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
%use nomenclature entry (name) nomS=>First letter upper case
\newcommand{\noms}[1]{\glsentryname{#1}\xspace}
\newcommand{\nomS}[1]{\Glsentryname{#1}\xspace}
%use nomenclature entry (symbol only)
\newcommand{\nomsym}[1]{\texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{#1}\xspace}
%use nomenclature entry (use in equation)
\newcommand{\nomeq}[1]{\glslink{#1}{\glsentrysymbol{#1}}}
\newnom{summed_squared_error}{\gls{SSE}}{\text{\glsxtrshort{SSE}}}{\glsxtrfull{SSE}}
\newnom{mean_squared_error}{\gls{MSE}}{\text{\glsxtrshort{MSE}}}{\glsxtrfull{MSE}}
\newnom{residual_sum_squares}{\gls{RSS}}{\text{\glsxtrshort{RSS}}}{\glsxtrfull{RSS}}
\newnom{gaussian_noise}{Gausches Rauschen}{\epsilon}{zufällige (normalverteilte) Abweichung}
\newnom{vector_valued_function}{vektorwertige Funktion}{\bm\phi(\bm{x})}{vektorwertige Funktion der des Eingangsvektor $\bm{x}$}
\newnom{regularization_factor}{Regularisierungsfaktor}{\lambda}{}
\newnom{identity_matrix}{Identitätsmatrix}{\bm{I}}{$\begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix}$}
\newnom{probability_mass_function}{Probability Mass Function}{p(x)}{Wahrscheinlichkeitsdichte-\slash\,Wahrscheinlichkeitsmassefunktion}
\newnom{mean}{arithmetisches Mittel}{\mu}{}
\newnom{mean-vector}{Mittelwerts-Vektor}{\bm{\mu}}{}
\newnom{covariance}{Kovarianz-Matrix}{\bm{\Sigma}}{}
\newnom{variance}{Varianz}{\sigma^2}{$\mathbb{E}_p[(X-\nomeq{mean})$]}
\newnom{sigmoid}{Sigmoid Function}{\sigma}{}
\newnom{learning_rate}{Learning Rate}{\eta}{}
\newnom{kernel_matrix}{Kernel Matrix}{\bm{K}}{}
\newnom{kernel_function}{Kernel Function}{k}{}
\newnom{kernel_vector}{Kernel Vector}{\bm{k}}{}
\newnom{margin}{Margin}{\rho}{}
\newnom{slack-variable}{Slack-Variable}{\xi_i}{}
\newnom{parameter_vector}{Parameter Vector}{\bm{\theta}}{}
\newnom{gaussian_distribution}{Gaußsche Normalverteilung}{\mathcal{N}}{}
\newnom{gaussian_process}{Gaußscher Prozess}{\mathcal{GP}}{}
\newnom{hyper_parameters}{Hyper-Parameter}{\bm{\beta}}{}
\newnom{activation_function}{Aktivierungsfunktion}{\phi}{}
\shorthandoff{"}
\makeglossaries