Zusammenfassung Maschinelles Lernen

Dieses Repo beinhaltet die \LaTeX Informationen für die Zusammenfassung im Fach Maschinelles Lernen.

TO-DO

  • Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)

    • Nachteile von Accuracy
    • Fokus auf Accuracy, F1, Precision und Recall
  • w_0 bei Perzeptron erklären (siehe Feedback Übung 3.1)

  • Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)

    • Gradientenverfahren aus KI
    • inkl. mehrere Schichten (Übung 3.3)
  • Begründung für Anzahl von Neuronen in der verdeckten Schicht (ML_2020_11_23)

    • Beispiele aus ML_2020_11_23 (43:00) miteinbeziehen
  • Perzeptron ist ein Überbegriff (kann aus mehreren Neuronen bestehen)(Besteht aus Input-Gedöns-Output)

  • Regularisierung

    • ist dafür da Overfitting zu vermeiden
    • Tikhonov Regularisierung (L2-Norm (L_2(w)=\sqrt{\sum|w|^2})) (ridge regression) V(y',y) + \lambda L_2^2(w) = V(y',y) + \lambda\sum|w|^2
    • Early stopping
    • Lasso Regularisierung (L1-Norm(L_1(w)=\sum|w|)) V(y',y) + \lambda L_1(w) = V(y',y) + \lambda \sum|w|
  • Dropout

    • reduziert Neuronen in einer Schicht
  • Anomaliedetektion (ML_2020_12_21)

  • Dichteschätzung (ML_2020_12_21)

Hinweise

Requires you to enable --shell escape

Description
No description provided
Readme 8.9 MiB
V1 Latest
2021-01-30 16:48:28 +01:00
Languages
TeX 100%