generated from TH_General/Template_Summary
w_0 erklärt
This commit is contained in:
@@ -51,6 +51,10 @@
|
||||
Ein Perzeptron beschreibt eine lineare Maschine, die eine Datenmenge durch eine Hyper-Ebene (die Diskriminante) in zwei Cluster unterteilt.
|
||||
Die Funktion für die Diskriminante ist hierbei $y(\bm{m})=\text{sng}(g(\bm{m})) = \text{sgn}(\bm{w}^T\bm{m}+w_0)$.
|
||||
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
|
||||
Das Gewicht $w_0$ wird auch als \say{Bias} bezeichnet wird.
|
||||
Dieses Gewicht ist wichtig, um die Geradengleichung der Diskriminanten aufstellen zu können ($w_0$ verschiebt die Gerade in y Richtung).
|
||||
Ohne das Bias könnte man die Gerade nur drehen und nicht verschieben.
|
||||
|
||||
|
||||
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
|
||||
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
|
||||
|
||||
Reference in New Issue
Block a user