w_0 erklärt

This commit is contained in:
2021-02-10 18:35:45 +01:00
parent 0da095a5aa
commit 7260e91d26
2 changed files with 5 additions and 1 deletions

View File

@@ -51,6 +51,10 @@
Ein Perzeptron beschreibt eine lineare Maschine, die eine Datenmenge durch eine Hyper-Ebene (die Diskriminante) in zwei Cluster unterteilt.
Die Funktion für die Diskriminante ist hierbei $y(\bm{m})=\text{sng}(g(\bm{m})) = \text{sgn}(\bm{w}^T\bm{m}+w_0)$.
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
Das Gewicht $w_0$ wird auch als \say{Bias} bezeichnet wird.
Dieses Gewicht ist wichtig, um die Geradengleichung der Diskriminanten aufstellen zu können ($w_0$ verschiebt die Gerade in y Richtung).
Ohne das Bias könnte man die Gerade nur drehen und nicht verschieben.
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}