diff --git a/Readme.md b/Readme.md index fb6fe66..9de9ff3 100644 --- a/Readme.md +++ b/Readme.md @@ -3,6 +3,8 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa ## TO-DO - [ ] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers) + - [ ] Nachteile von Accuracy + - [ ] Fokus auf Accuracy, F1, Precision und Recall - [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1) - [ ] Verlustfunktionen aus KI - [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2) @@ -12,6 +14,16 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa - [ ] Beispiele aus ML_2020_11_23 (43:00) miteinbeziehen - [ ] Perzeptron ist ein Überbegriff (kann aus mehreren Neuronen bestehen)(Besteht aus Input-Gedöns-Output) - [ ] Regularisierung + - ist dafür da Overfitting zu vermeiden + - Tikhonov Regularisierung (L2-Norm ($L_2(w)=\sqrt{\sum|w|^2}$)) (ridge regression) + $$V(y',y) + \lambda L_2^2(w) = V(y',y) + \lambda\sum|w|^2$$ + - Early stopping + - Lasso Regularisierung (L1-Norm($L_1(w)=\sum|w|$)) + $$V(y',y) + \lambda L_1(w) = V(y',y) + \lambda \sum|w|$$ + - Pull-out-Technik + +- [ ] Dropout + - reduziert Neuronen in einer Schicht - [ ] Anomaliedetektion (ML_2020_12_21) - [ ] Dichteschätzung (ML_2020_12_21) ## Hinweise