forked from TH_General/Template_Summary
145 lines
6.0 KiB
TeX
145 lines
6.0 KiB
TeX
%
|
|
% all references for the glossary as well as the abbreviation list and nomenclature
|
|
%%
|
|
% add glossary for nomenclature
|
|
\newglossary{nomenclature}{nom}{ncl}{Nomenklatur}
|
|
|
|
\shorthandon{"}
|
|
%--------------------
|
|
%main glossary
|
|
%--------------------
|
|
\newglossaryentry{overfitting}{
|
|
name=Overfitting,
|
|
description={
|
|
Eine Approximation ist overfitted,
|
|
wenn die Trainingsdaten sehr gut und Testdaten sehr schlecht approximiert werden.
|
|
}
|
|
}
|
|
\newglossaryentry{underfitting}{
|
|
name=Underfitting,
|
|
description={
|
|
Eine Approximation ist underfitted, wenn die Approximation so simple ist, dass weder Trainings"~ noch Testdaten gut approximiert werden.
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{full_rank_matrix}{
|
|
name = Full Rank Matrix,
|
|
description = {
|
|
\say{Ist der Rang einer quadratischen Matrix gleich ihrer Zeilen- und Spaltenzahl, hat sie vollen Rang und ist regulär (invertierbar).
|
|
Diese Eigenschaft lässt sich auch anhand ihrer Determinante feststellen.
|
|
Eine quadratische Matrix hat genau dann vollen Rang, wenn ihre Determinante von null verschieden ist bzw. keiner ihrer Eigenwerte null ist.
|
|
} (\url{https://de.wikipedia.org/wiki/Rang_(Mathematik)})
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{marginal}{
|
|
name = Randverteilung (marginal distribution),
|
|
description = {
|
|
die einzelnen Wahrscheinlichkeitsverteilungen,
|
|
aus denen sich eine mehrdimensionale Wahrscheinlichkeitsverteilung zusammensetzt.
|
|
z.B. sind $p(x)$ und $p(y)$ Randverteilungen von $p(x,y)$
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{conditional}{
|
|
name = bedingte Verteilung (conditional distribution),
|
|
description={
|
|
Eine Wahrscheinlichkeitsverteilung,
|
|
bei der einer oder mehrere Bedingungen festgelegt sind.
|
|
z.B. ist $p(x|y)$ eine bedingte Verteilung von $X$ gegeben $Y=y$
|
|
}
|
|
}
|
|
|
|
\newglossaryentry{identically_independently_distributed}{
|
|
name=identically independently distributed,
|
|
description={
|
|
\say{Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung,
|
|
nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an,
|
|
beeinflussen sich dabei aber nicht.} (\url{https://de.wikipedia.org/wiki/Unabh\%C3\%A4ngig_und_identisch_verteilte_Zufallsvariablen})
|
|
}
|
|
}
|
|
|
|
%--------------------
|
|
%acronyms
|
|
%--------------------
|
|
\setabbreviationstyle[acronym]{long-short}
|
|
|
|
\newacronym{SSE}{SSE}{Summed Squared Error}
|
|
\newacronym{MSE}{MSE}{Mean Squared Error}
|
|
\newacronym{FRM}{FRM}{\gls{full_rank_matrix}}
|
|
\newacronym{MLE}{MLE}{Maximum Likelihood Estimation}
|
|
\newacronym{iid}{iid}{\gls{identically_independently_distributed}}
|
|
\newacronym{SDG}{SDG}{Stochastic Gradient Descent}
|
|
\newacronym{LLO}{LLO}{Leave-One-Out}
|
|
\newacronym{knn}{k"=NN}{k"=Nearest Neighbors}
|
|
\newacronym{RSS}{RSS}{Residual Sum of Squares}
|
|
\newacronym{CART}{CART}{Classification an Regression Trees}
|
|
\newacronym{DNN}{DNN}{Deep Neural Network}
|
|
\newacronym{RBF}{RBF}{Radial Basis Function Kernel}
|
|
\newacronym{SVM}{SVM}{Support Vector Machine}
|
|
\newacronym{ARD}{ARD}{Automatic Relevance Determination}
|
|
\newacronym{MLP}{MLP}{Multi-Layer Perceptron}
|
|
\newacronym{ReLU}{ReLU}{Rectified Linear Unit}
|
|
\newacronym{ELU}{ELU}{Exponential Linear Units}
|
|
\newacronym{GPU}{GPU}{Graphic Processing Unit}
|
|
\newacronym{RMS}{RMS}{Root Mean Square}
|
|
|
|
%--------------------
|
|
%nomenclature
|
|
%--------------------
|
|
|
|
%add new key
|
|
%\glsaddstoragekey{unit}{}{\glsentryunit}
|
|
\glsnoexpandfields
|
|
|
|
%\newcommand{\newnom}[5]{
|
|
\newcommand{\newnom}[4]{
|
|
\newglossaryentry{#1}{
|
|
name={#2},
|
|
symbol={#3},
|
|
description={#4},
|
|
%unit={#5},
|
|
type=nomenclature,
|
|
sort={#1}
|
|
}
|
|
}
|
|
%use nomenclature entry (name + symbol) nomF=>First letter upper case
|
|
\newcommand{\nomf}[1]{\glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
|
|
\newcommand{\nomF}[1]{\Glsentryname{#1} \texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{}\xspace}
|
|
%use nomenclature entry (name) nomS=>First letter upper case
|
|
\newcommand{\noms}[1]{\glsentryname{#1}\xspace}
|
|
\newcommand{\nomS}[1]{\Glsentryname{#1}\xspace}
|
|
%use nomenclature entry (symbol only)
|
|
\newcommand{\nomsym}[1]{\texorpdfstring{\glslink{#1}{\ensuremath{\glsentrysymbol{#1}}}}{#1}\xspace}
|
|
%use nomenclature entry (use in equation)
|
|
\newcommand{\nomeq}[1]{\glslink{#1}{\glsentrysymbol{#1}}}
|
|
|
|
\newnom{summed_squared_error}{\gls{SSE}}{\text{\glsxtrshort{SSE}}}{\glsxtrfull{SSE}}
|
|
\newnom{mean_squared_error}{\gls{MSE}}{\text{\glsxtrshort{MSE}}}{\glsxtrfull{MSE}}
|
|
\newnom{residual_sum_squares}{\gls{RSS}}{\text{\glsxtrshort{RSS}}}{\glsxtrfull{RSS}}
|
|
\newnom{gaussian_noise}{Gausches Rauschen}{\epsilon}{zufällige (normalverteilte) Abweichung}
|
|
\newnom{vector_valued_function}{vektorwertige Funktion}{\bm\phi(\bm{x})}{vektorwertige Funktion der des Eingangsvektor $\bm{x}$}
|
|
\newnom{regularization_factor}{Regularisierungsfaktor}{\lambda}{}
|
|
\newnom{identity_matrix}{Identitätsmatrix}{\bm{I}}{$\begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix}$}
|
|
\newnom{probability_mass_function}{Pro\-ba\-bi\-li\-ty Mass Func\-tion}{p(x)}{Wahrscheinlichkeitsdichte"~\slash\,Wahrscheinlichkeitsmassefunktion}
|
|
\newnom{mean}{arithmetisches Mittel}{\mu}{}
|
|
\newnom{mean-vector}{Mittelwerts"~Vektor}{\bm{\mu}}{}
|
|
\newnom{covariance}{Kovarianz"~Matrix}{\bm{\Sigma}}{}
|
|
\newnom{variance}{Varianz}{\sigma^2}{$\mathbb{E}_p[(X-\nomeq{mean})$]}
|
|
\newnom{sigmoid}{Sigmoid Function}{\sigma}{}
|
|
\newnom{learning_rate}{Learning Rate}{\eta}{}
|
|
\newnom{kernel_matrix}{Kernel Matrix}{\bm{K}}{}
|
|
\newnom{kernel_function}{Kernel Function}{k}{}
|
|
\newnom{kernel_vector}{Kernel Vector}{\bm{k}}{}
|
|
\newnom{margin}{Margin}{\rho}{}
|
|
\newnom{slack-variable}{Slack"~Variable}{\xi_i}{}
|
|
\newnom{parameter_vector}{Parameter Vector}{\bm{\theta}}{}
|
|
\newnom{gaussian_distribution}{Gaußsche Normalverteilung}{\mathcal{N}}{}
|
|
\newnom{gaussian_process}{Gaußscher Prozess}{\mathcal{GP}}{}
|
|
\newnom{hyper_parameters}{Hyper"~Parameter}{\bm{\beta}}{}
|
|
\newnom{activation_function}{Aktivierungsfunktion}{\phi}{}
|
|
\shorthandoff{"}
|
|
|
|
\makeglossaries
|
|
|