w_0 erklärt

This commit is contained in:
paul-loedige 2021-02-10 18:35:45 +01:00
parent 0da095a5aa
commit 7260e91d26
2 changed files with 5 additions and 1 deletions

View File

@ -5,7 +5,7 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa
- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers) - [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
- [x] Nachteile von Accuracy - [x] Nachteile von Accuracy
- [x] Fokus auf Accuracy, F1, Precision und Recall - [x] Fokus auf Accuracy, F1, Precision und Recall
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1) - [x] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
- [ ] Verlustfunktionen aus KI - [ ] Verlustfunktionen aus KI
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2) - [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
- [ ] Gradientenverfahren aus KI - [ ] Gradientenverfahren aus KI

View File

@ -51,6 +51,10 @@
Ein Perzeptron beschreibt eine lineare Maschine, die eine Datenmenge durch eine Hyper-Ebene (die Diskriminante) in zwei Cluster unterteilt. Ein Perzeptron beschreibt eine lineare Maschine, die eine Datenmenge durch eine Hyper-Ebene (die Diskriminante) in zwei Cluster unterteilt.
Die Funktion für die Diskriminante ist hierbei $y(\bm{m})=\text{sng}(g(\bm{m})) = \text{sgn}(\bm{w}^T\bm{m}+w_0)$. Die Funktion für die Diskriminante ist hierbei $y(\bm{m})=\text{sng}(g(\bm{m})) = \text{sgn}(\bm{w}^T\bm{m}+w_0)$.
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig. Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
Das Gewicht $w_0$ wird auch als \say{Bias} bezeichnet wird.
Dieses Gewicht ist wichtig, um die Geradengleichung der Diskriminanten aufstellen zu können ($w_0$ verschiebt die Gerade in y Richtung).
Ohne das Bias könnte man die Gerade nur drehen und nicht verschieben.
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus} \subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png} \includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}