ML_Zusammenfassung/Readme.md

30 lines
1.5 KiB
Markdown

# Zusammenfassung Maschinelles Lernen
Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fach Maschinelles Lernen.
## TO-DO
- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
- [x] Nachteile von Accuracy
- [x] Fokus auf Accuracy, F1, Precision und Recall
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
- [ ] Verlustfunktionen aus KI
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
- [ ] Gradientenverfahren aus KI
- [ ] inkl. mehrere Schichten (Übung 3.3)
- [ ] Begründung für Anzahl von Neuronen in der verdeckten Schicht (ML_2020_11_23)
- [ ] Beispiele aus ML_2020_11_23 (43:00) miteinbeziehen
- [ ] Perzeptron ist ein Überbegriff (kann aus mehreren Neuronen bestehen)(Besteht aus Input-Gedöns-Output)
- [ ] Regularisierung
- ist dafür da Overfitting zu vermeiden
- Tikhonov Regularisierung (L2-Norm ($L_2(w)=\sqrt{\sum|w|^2}$)) (ridge regression)
$$V(y',y) + \lambda L_2^2(w) = V(y',y) + \lambda\sum|w|^2$$
- Early stopping
- Lasso Regularisierung (L1-Norm($L_1(w)=\sum|w|$))
$$V(y',y) + \lambda L_1(w) = V(y',y) + \lambda \sum|w|$$
- Pull-out-Technik
- [ ] Dropout
- reduziert Neuronen in einer Schicht
- [ ] Anomaliedetektion (ML_2020_12_21)
- [ ] Dichteschätzung (ML_2020_12_21)
## Hinweise
Requires you to enable [--shell escape](https://tex.stackexchange.com/questions/516604/how-to-enable-shell-escape-or-write18-visual-studio-code-latex-workshop)