From 037f3c6a9deba80b2eb042d9c359a9aa33bd8b7e Mon Sep 17 00:00:00 2001 From: paul-loedige Date: Wed, 10 Feb 2021 17:31:56 +0100 Subject: [PATCH] =?UTF-8?q?todo=20erg=C3=A4nzt?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- Readme.md | 12 ++++++++++++ 1 file changed, 12 insertions(+) diff --git a/Readme.md b/Readme.md index fb6fe66..9de9ff3 100644 --- a/Readme.md +++ b/Readme.md @@ -3,6 +3,8 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa ## TO-DO - [ ] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers) + - [ ] Nachteile von Accuracy + - [ ] Fokus auf Accuracy, F1, Precision und Recall - [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1) - [ ] Verlustfunktionen aus KI - [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2) @@ -12,6 +14,16 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa - [ ] Beispiele aus ML_2020_11_23 (43:00) miteinbeziehen - [ ] Perzeptron ist ein Überbegriff (kann aus mehreren Neuronen bestehen)(Besteht aus Input-Gedöns-Output) - [ ] Regularisierung + - ist dafür da Overfitting zu vermeiden + - Tikhonov Regularisierung (L2-Norm ($L_2(w)=\sqrt{\sum|w|^2}$)) (ridge regression) + $$V(y',y) + \lambda L_2^2(w) = V(y',y) + \lambda\sum|w|^2$$ + - Early stopping + - Lasso Regularisierung (L1-Norm($L_1(w)=\sum|w|$)) + $$V(y',y) + \lambda L_1(w) = V(y',y) + \lambda \sum|w|$$ + - Pull-out-Technik + +- [ ] Dropout + - reduziert Neuronen in einer Schicht - [ ] Anomaliedetektion (ML_2020_12_21) - [ ] Dichteschätzung (ML_2020_12_21) ## Hinweise