From 0da095a5aa7c56be5a6b7df39c3c67f30dad9dfc Mon Sep 17 00:00:00 2001 From: paul-loedige Date: Wed, 10 Feb 2021 18:28:55 +0100 Subject: [PATCH] =?UTF-8?q?Klassifizierungsma=C3=9Fe=20hinzugef=C3=BCgt?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- Acronyms.tex | 2 ++ Readme.md | 6 +++--- chapters/Unsupervised Learning/Clustering.tex | 20 +++++++++++++++++-- 3 files changed, 23 insertions(+), 5 deletions(-) diff --git a/Acronyms.tex b/Acronyms.tex index af9ac55..9843c16 100644 --- a/Acronyms.tex +++ b/Acronyms.tex @@ -16,4 +16,6 @@ \acro{FPC}{(Bocklisch's) Fuzzy Pattern Classifier} \acro{MFPC}{Modified-Fuzzy-Pattern-Classifier} \acro{FPGA}{Field Programmable Gate Array} + \acro{PPV}{Positive Prediction Value} + \acro{TPR}{True Positive Rate} \end{acronym} \ No newline at end of file diff --git a/Readme.md b/Readme.md index 9de9ff3..9d1a26b 100644 --- a/Readme.md +++ b/Readme.md @@ -2,9 +2,9 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fach Maschinelles Lernen. ## TO-DO -- [ ] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers) - - [ ] Nachteile von Accuracy - - [ ] Fokus auf Accuracy, F1, Precision und Recall +- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers) + - [x] Nachteile von Accuracy + - [x] Fokus auf Accuracy, F1, Precision und Recall - [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1) - [ ] Verlustfunktionen aus KI - [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2) diff --git a/chapters/Unsupervised Learning/Clustering.tex b/chapters/Unsupervised Learning/Clustering.tex index cc69cf0..07f5120 100644 --- a/chapters/Unsupervised Learning/Clustering.tex +++ b/chapters/Unsupervised Learning/Clustering.tex @@ -83,6 +83,22 @@ Diese lassen sich allerdings auch kombinieren. Alle internen Bewertungskriterien haben gemein, dass sie keine Informationen ausserhalb der Datenbasis in dei Bewertung einschließen.\\ Externe Bewertungskriterien vergleichen meist extern bekannte Beziehungen mit den vom Clustering Algorithmus ermittelten. - Ein Beispiel für ein externes Bewertungskriterium ist der \say{Rand indicator}: - $$ RI = \frac{TP+TN}{TP+FP+FN+TN} $$ + Beispiele für externe Bewertungskriterien sind (weitere unter \href{https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers}{https://en.wikipedia.org/wiki/Evaluation\_of\_binary\_classifiers}):\\ + ($TP:$ True Positive; $TN:$ True Negative; $FN:$ False Negative; $FP:$ False Positive) + + \paragraph{Accuracy} + $$ACC=\frac{TP+TN}{P+NP}=\frac{TP+TN}{TP+TN+FP+FN}$$ + Die Accuracy hat den Nachteil, dass sie nur den gesamten relativen Fehler angibt. + Dies ist vor allem dann problematisch, wenn eine bestimmte Klasse nur wenig Daten im Datensatz hat.\\ + \textbf{Beispiel:} Eine Wettervorhersage, die nie Regen vorhersagt hat eine hohe Accuracy, da es nur mit einer geringen Wahrscheinlichkeit regnet. + \paragraph{Precision} + $$P=\frac{TP}{TP+FP}$$ + Wird auch als \ac{PPV} bezeichnet + + \paragraph{Recall} + $$R=\frac{TP}{TP+FN}$$ + Wird auch als \ac{TPR} bezeichnet + + \paragraph{F1-Maß} + $$F_1=2\cdot\frac{P\cdot R}{P+R}=\frac{2TP}{2TP+FP+FN}$$