Ähnlichkeitsbasiertes Lernen hinzugefügt

This commit is contained in:
paul-loedige 2021-02-05 15:49:14 +01:00
parent f6acce2cc4
commit 1e9538ca65
3 changed files with 47 additions and 0 deletions

View File

@ -0,0 +1,2 @@
\chapter{Fehlerbasiertes Lernen}
\label{error-based learning}

View File

@ -0,0 +1,44 @@
\chapter{Ähnlichkeitsbasiertes Lernen}
\label{similarity-based learning}
Beim \say{ähnlichkeitsbasiertem Lernen} geht man von der Annahme aus, dass sich zwei ähnliche Objekte vermutlich in die gleiche Klasse einordnen lassen.
Um dieses Lernverfahren zu verwenden wird ein Maß für die Ähnlichkeit benötigt.
\section{Ähnlichkeitsmaß}
\label{aehnlichkeitsmass}
\paragraph{Euklidischer Abstand}
\large
$$dist_e(a,b))\sqrt{\sum^n_{i=1}\left(a[i]-b[i]\right)^2}$$
\normalsize
\paragraph{Manhattan-Metrik}
\large
$$dist_m(a,b)=\sum^n_{i=1}|a[i]-b[i]|$$
\normalsize
\section{K-Nächste-Nachbarn}
\label{k-nearest-neighbour}
Beim \say{K-Nächste-Nachbarn}-Verfahren wird dem System eine Reihe von gelabelten Trainingsdaten übergeben.
Für die Klassifizierung erfolgt durch
\begin{enumerate}
\item Berechnung des Ähnlichkeitsmaßes (\ref{aehnlichkeitsmass})/ der Distanz zu allen bekannten Punkten
\item Klassifizierung der Daten durch ein Mehrheitsvotum der $k$ nächsten Nachbarn
\end{enumerate}
\subsection{gewichtete K-Nächste-Nachbarn}
\label{weight k-nearest-neighbour}
Eine Abwandlung des K-Nächste-Nachbarverfahren, bei dem nicht einfach nach Mehrheit entschieden wird.
Stattessen werden die \say{Stimmen} der $k$ nächsten Nachbarn nach ihrem Abstand zum neuen Punkt gewichtet.
$$class(q)=\arg\max_{l\in level(y)}\sum^k_{i=1}\frac{1}{dist(q,d_i)^2}\cdot\delta(y_i,l)$$
$$\delta(y,l)=\begin{cases}
1 &\text{wenn }y=l\\
0 &\text{sonst}
\end{cases}$$
\subsection{Normalisierung}
\label{k-nearest-neighbour}
Da unterschiedliche Wertebereiche der verschiedenen Features einen großen Einfluss auf den K-Nächsten Nachbarn haben müssen sie normalisiert werden.
Hierbei ist es üblich alle Merkmale auf das Intervall $[0,1]$ zu normalisieren.
z.B. durch
\large
$$a'_i=\frac{a_i-\min(a_i)}{\max(a_i)-\min(a_i)}$$
\normalsize

View File

@ -4,4 +4,5 @@
\input{chapters/Maschinelles Lernen/Einführung.tex} \input{chapters/Maschinelles Lernen/Einführung.tex}
\input{chapters/Maschinelles Lernen/Informationsbasiertes Lernen.tex} \input{chapters/Maschinelles Lernen/Informationsbasiertes Lernen.tex}
\input{chapters/Maschinelles Lernen/Lernbarkeit.tex} \input{chapters/Maschinelles Lernen/Lernbarkeit.tex}
\input{chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex}
\input{chapters/Maschinelles Lernen/Reinforcement Learning.tex} \input{chapters/Maschinelles Lernen/Reinforcement Learning.tex}