generated from TH_General/Template_Summary
w_0 erklärt
This commit is contained in:
parent
0da095a5aa
commit
7260e91d26
@ -5,7 +5,7 @@ Dieses Repo beinhaltet die $\LaTeX$ Informationen für die Zusammenfassung im Fa
|
|||||||
- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
|
- [x] Qualitätsmaße (https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers)
|
||||||
- [x] Nachteile von Accuracy
|
- [x] Nachteile von Accuracy
|
||||||
- [x] Fokus auf Accuracy, F1, Precision und Recall
|
- [x] Fokus auf Accuracy, F1, Precision und Recall
|
||||||
- [ ] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
|
- [x] $w_0$ bei Perzeptron erklären (siehe Feedback Übung 3.1)
|
||||||
- [ ] Verlustfunktionen aus KI
|
- [ ] Verlustfunktionen aus KI
|
||||||
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
|
- [ ] Backpropagation Rechenbeispiel (Übung ML_2020_11_16, KI Zusammenfassung, Feedback Übung 3.2)
|
||||||
- [ ] Gradientenverfahren aus KI
|
- [ ] Gradientenverfahren aus KI
|
||||||
|
@ -51,6 +51,10 @@
|
|||||||
Ein Perzeptron beschreibt eine lineare Maschine, die eine Datenmenge durch eine Hyper-Ebene (die Diskriminante) in zwei Cluster unterteilt.
|
Ein Perzeptron beschreibt eine lineare Maschine, die eine Datenmenge durch eine Hyper-Ebene (die Diskriminante) in zwei Cluster unterteilt.
|
||||||
Die Funktion für die Diskriminante ist hierbei $y(\bm{m})=\text{sng}(g(\bm{m})) = \text{sgn}(\bm{w}^T\bm{m}+w_0)$.
|
Die Funktion für die Diskriminante ist hierbei $y(\bm{m})=\text{sng}(g(\bm{m})) = \text{sgn}(\bm{w}^T\bm{m}+w_0)$.
|
||||||
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
|
Da sich $\bm{w}$ durch $\bm{w} = \sum^n_{i=1}\alpha_i\cdot y_i \cdot \bm{m}_i$ (mit $n = $Anzahl der Datenpunkte und $\alpha_i = $ Anzahl, wie oft $\bm{m}_i$ ausgewählt wurde) definiert ist die Dimension von $\bm{m}$ unwichtig.
|
||||||
|
Das Gewicht $w_0$ wird auch als \say{Bias} bezeichnet wird.
|
||||||
|
Dieses Gewicht ist wichtig, um die Geradengleichung der Diskriminanten aufstellen zu können ($w_0$ verschiebt die Gerade in y Richtung).
|
||||||
|
Ohne das Bias könnte man die Gerade nur drehen und nicht verschieben.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
|
\subsection{Beispiel: nicht-symmetrischer Lernalgorithmus}
|
||||||
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
|
\includegraphics[width=\textwidth]{Perzeptron_Lernalgorithmus.png}
|
||||||
|
Loading…
x
Reference in New Issue
Block a user