generated from TH_General/Template_Summary
1.5 KiB
1.5 KiB
Zusammenfassung Maschinelles Lernen
Dieses Repo beinhaltet die \LaTeX
Informationen für die Zusammenfassung im Fach Maschinelles Lernen.
TO-DO
-
Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
- Nachteile von Accuracy
- Fokus auf Accuracy, F1, Precision und Recall
-
w_0
bei Perzeptron erklären (siehe Feedback Übung 3.1) -
Verlustfunktionen aus KI
-
Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
- Gradientenverfahren aus KI
- inkl. mehrere Schichten (Übung 3.3)
-
Begründung für Anzahl von Neuronen in der verdeckten Schicht (ML_2020_11_23)
- Beispiele aus ML_2020_11_23 (43:00) miteinbeziehen
-
Perzeptron ist ein Überbegriff (kann aus mehreren Neuronen bestehen)(Besteht aus Input-Gedöns-Output)
-
Regularisierung
- ist dafür da Overfitting zu vermeiden
- Tikhonov Regularisierung (L2-Norm (
L_2(w)=\sqrt{\sum|w|^2}
)) (ridge regression)V(y',y) + \lambda L_2^2(w) = V(y',y) + \lambda\sum|w|^2
- Early stopping
- Lasso Regularisierung (L1-Norm(
L_1(w)=\sum|w|
))V(y',y) + \lambda L_1(w) = V(y',y) + \lambda \sum|w|
- Pull-out-Technik
-
Dropout
- reduziert Neuronen in einer Schicht
-
Anomaliedetektion (ML_2020_12_21)
-
Dichteschätzung (ML_2020_12_21)
Hinweise
Requires you to enable --shell escape