generated from TH_General/Template_Summary
Klassifizierungsmaße hinzugefügt
This commit is contained in:
parent
037f3c6a9d
commit
0da095a5aa
@ -16,4 +16,6 @@
|
|||||||
\acro{FPC}{(Bocklisch's) Fuzzy Pattern Classifier}
|
\acro{FPC}{(Bocklisch's) Fuzzy Pattern Classifier}
|
||||||
\acro{MFPC}{Modified-Fuzzy-Pattern-Classifier}
|
\acro{MFPC}{Modified-Fuzzy-Pattern-Classifier}
|
||||||
\acro{FPGA}{Field Programmable Gate Array}
|
\acro{FPGA}{Field Programmable Gate Array}
|
||||||
|
\acro{PPV}{Positive Prediction Value}
|
||||||
|
\acro{TPR}{True Positive Rate}
|
||||||
\end{acronym}
|
\end{acronym}
|
@ -2,9 +2,9 @@
|
|||||||
Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fach Maschinelles Lernen.
|
Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fach Maschinelles Lernen.
|
||||||
|
|
||||||
## TO-DO
|
## TO-DO
|
||||||
- [ ] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
|
- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
|
||||||
- [ ] Nachteile von Accuracy
|
- [x] Nachteile von Accuracy
|
||||||
- [ ] Fokus auf Accuracy, F1, Precision und Recall
|
- [x] Fokus auf Accuracy, F1, Precision und Recall
|
||||||
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
|
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
|
||||||
- [ ] Verlustfunktionen aus KI
|
- [ ] Verlustfunktionen aus KI
|
||||||
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
|
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
|
||||||
|
@ -83,6 +83,22 @@
|
|||||||
Diese lassen sich allerdings auch kombinieren.
|
Diese lassen sich allerdings auch kombinieren.
|
||||||
Alle internen Bewertungskriterien haben gemein, dass sie keine Informationen ausserhalb der Datenbasis in dei Bewertung einschließen.\\
|
Alle internen Bewertungskriterien haben gemein, dass sie keine Informationen ausserhalb der Datenbasis in dei Bewertung einschließen.\\
|
||||||
Externe Bewertungskriterien vergleichen meist extern bekannte Beziehungen mit den vom Clustering Algorithmus ermittelten.
|
Externe Bewertungskriterien vergleichen meist extern bekannte Beziehungen mit den vom Clustering Algorithmus ermittelten.
|
||||||
Ein Beispiel für ein externes Bewertungskriterium ist der \say{Rand indicator}:
|
Beispiele für externe Bewertungskriterien sind (weitere unter \href{https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers}{https://en.wikipedia.org/wiki/Evaluation\_of\_binary\_classifiers}):\\
|
||||||
$$ RI = \frac{TP+TN}{TP+FP+FN+TN} $$
|
($TP:$ True Positive; $TN:$ True Negative; $FN:$ False Negative; $FP:$ False Positive)
|
||||||
|
|
||||||
|
\paragraph{Accuracy}
|
||||||
|
$$ACC=\frac{TP+TN}{P+NP}=\frac{TP+TN}{TP+TN+FP+FN}$$
|
||||||
|
Die Accuracy hat den Nachteil, dass sie nur den gesamten relativen Fehler angibt.
|
||||||
|
Dies ist vor allem dann problematisch, wenn eine bestimmte Klasse nur wenig Daten im Datensatz hat.\\
|
||||||
|
\textbf{Beispiel:} Eine Wettervorhersage, die nie Regen vorhersagt hat eine hohe Accuracy, da es nur mit einer geringen Wahrscheinlichkeit regnet.
|
||||||
|
|
||||||
|
\paragraph{Precision}
|
||||||
|
$$P=\frac{TP}{TP+FP}$$
|
||||||
|
Wird auch als \ac{PPV} bezeichnet
|
||||||
|
|
||||||
|
\paragraph{Recall}
|
||||||
|
$$R=\frac{TP}{TP+FN}$$
|
||||||
|
Wird auch als \ac{TPR} bezeichnet
|
||||||
|
|
||||||
|
\paragraph{F1-Maß}
|
||||||
|
$$F_1=2\cdot\frac{P\cdot R}{P+R}=\frac{2TP}{2TP+FP+FN}$$
|
||||||
|
Loading…
x
Reference in New Issue
Block a user