Klassifizierungsmaße hinzugefügt

This commit is contained in:
paul-loedige 2021-02-10 18:28:55 +01:00
parent 037f3c6a9d
commit 0da095a5aa
3 changed files with 23 additions and 5 deletions

View File

@ -16,4 +16,6 @@
\acro{FPC}{(Bocklisch's) Fuzzy Pattern Classifier}
\acro{MFPC}{Modified-Fuzzy-Pattern-Classifier}
\acro{FPGA}{Field Programmable Gate Array}
\acro{PPV}{Positive Prediction Value}
\acro{TPR}{True Positive Rate}
\end{acronym}

View File

@ -2,9 +2,9 @@
Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fach Maschinelles Lernen.
## TO-DO
- [ ] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
- [ ] Nachteile von Accuracy
- [ ] Fokus auf Accuracy, F1, Precision und Recall
- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
- [x] Nachteile von Accuracy
- [x] Fokus auf Accuracy, F1, Precision und Recall
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
- [ ] Verlustfunktionen aus KI
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)

View File

@ -83,6 +83,22 @@
Diese lassen sich allerdings auch kombinieren.
Alle internen Bewertungskriterien haben gemein, dass sie keine Informationen ausserhalb der Datenbasis in dei Bewertung einschließen.\\
Externe Bewertungskriterien vergleichen meist extern bekannte Beziehungen mit den vom Clustering Algorithmus ermittelten.
Ein Beispiel für ein externes Bewertungskriterium ist der \say{Rand indicator}:
$$ RI = \frac{TP+TN}{TP+FP+FN+TN} $$
Beispiele für externe Bewertungskriterien sind (weitere unter \href{https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers}{https://en.wikipedia.org/wiki/Evaluation\_of\_binary\_classifiers}):\\
($TP:$ True Positive; $TN:$ True Negative; $FN:$ False Negative; $FP:$ False Positive)
\paragraph{Accuracy}
$$ACC=\frac{TP+TN}{P+NP}=\frac{TP+TN}{TP+TN+FP+FN}$$
Die Accuracy hat den Nachteil, dass sie nur den gesamten relativen Fehler angibt.
Dies ist vor allem dann problematisch, wenn eine bestimmte Klasse nur wenig Daten im Datensatz hat.\\
\textbf{Beispiel:} Eine Wettervorhersage, die nie Regen vorhersagt hat eine hohe Accuracy, da es nur mit einer geringen Wahrscheinlichkeit regnet.
\paragraph{Precision}
$$P=\frac{TP}{TP+FP}$$
Wird auch als \ac{PPV} bezeichnet
\paragraph{Recall}
$$R=\frac{TP}{TP+FN}$$
Wird auch als \ac{TPR} bezeichnet
\paragraph{F1-Maß}
$$F_1=2\cdot\frac{P\cdot R}{P+R}=\frac{2TP}{2TP+FP+FN}$$