generated from TH_General/Template_Summary
todo ergänzt
This commit is contained in:
parent
fdba77e726
commit
037f3c6a9d
12
Readme.md
12
Readme.md
@ -3,6 +3,8 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa
|
||||
|
||||
## TO-DO
|
||||
- [ ] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
|
||||
- [ ] Nachteile von Accuracy
|
||||
- [ ] Fokus auf Accuracy, F1, Precision und Recall
|
||||
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
|
||||
- [ ] Verlustfunktionen aus KI
|
||||
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
|
||||
@ -12,6 +14,16 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa
|
||||
- [ ] Beispiele aus ML_2020_11_23 (43:00) miteinbeziehen
|
||||
- [ ] Perzeptron ist ein Überbegriff (kann aus mehreren Neuronen bestehen)(Besteht aus Input-Gedöns-Output)
|
||||
- [ ] Regularisierung
|
||||
- ist dafür da Overfitting zu vermeiden
|
||||
- Tikhonov Regularisierung (L2-Norm ($L_2(w)=\sqrt{\sum|w|^2}$)) (ridge regression)
|
||||
$$V(y',y) + \lambda L_2^2(w) = V(y',y) + \lambda\sum|w|^2$$
|
||||
- Early stopping
|
||||
- Lasso Regularisierung (L1-Norm($L_1(w)=\sum|w|$))
|
||||
$$V(y',y) + \lambda L_1(w) = V(y',y) + \lambda \sum|w|$$
|
||||
- Pull-out-Technik
|
||||
|
||||
- [ ] Dropout
|
||||
- reduziert Neuronen in einer Schicht
|
||||
- [ ] Anomaliedetektion (ML_2020_12_21)
|
||||
- [ ] Dichteschätzung (ML_2020_12_21)
|
||||
## Hinweise
|
||||
|
Loading…
x
Reference in New Issue
Block a user