KI_Zusammenfassung/chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex

68 lines
3.1 KiB
TeX

\chapter{Ähnlichkeitsbasiertes Lernen}
\label{similarity-based learning}
Beim \say{ähnlichkeitsbasiertem Lernen} geht man von der Annahme aus, dass sich zwei ähnliche Objekte vermutlich in die gleiche Klasse einordnen lassen.
Um dieses Lernverfahren zu verwenden wird ein Maß für die Ähnlichkeit benötigt.
\section{Ähnlichkeitsmaß}
\label{aehnlichkeitsmass}
\begin{wrapfigure}{h}{.4\textwidth}
\vspace{-30mm}
\includegraphics[width = .4\textwidth]{manhattan_euclidean_1.pdf}\\
\includegraphics[width = .4\textwidth]{cosine1.pdf}
\vspace{-20mm}
\end{wrapfigure}
\paragraph{Euklidischer Abstand}
\large
$$dist_e(a,b))\sqrt{\sum^n_{i=1}\left(a[i]-b[i]\right)^2}$$
\normalsize
\paragraph{Manhattan-Metrik}
\large
$$dist_m(a,b)=\sum^n_{i=1}|a[i]-b[i]|$$
\normalsize
\paragraph{Kosinus-Ähnlichkeit}
\large
$$dist_c(a,b)=\cos(\theta)$$
$$=\frac{a\cdot b}{||a||\cdot||b||} = \frac{\sum^n_{i=1}a_i\cdot b_i}{\sqrt{\sum^n_{i=1}a_i^2}\cdot\sqrt{\sum^n_{i=1}b_i^2}}$$
\normalsize
\paragraph{Mahalanobis-Abstand}
berücksichtigt die Richtung, in die die Daten verteilt sind.\\
($\sum^{-1}$ ist die inverse der Kovarianzmatrix)
\large
$$dist_{\text{Mahalanobis}}(a,b) = \sqrt{[a_1-b_1,\dots,a_n-b_n]\sum^{-1}\begin{bmatrix}
a_1-b_1\\
\vdots\\
a_n-b_n
\end{bmatrix}}$$
\normalsize
\section{K-Nächste-Nachbarn}
\label{k-nearest-neighbour}
Beim \say{K-Nächste-Nachbarn}-Verfahren wird dem System eine Reihe von gelabelten Trainingsdaten übergeben.
Für die Klassifizierung erfolgt durch
\begin{enumerate}
\item Berechnung des Ähnlichkeitsmaßes (\ref{aehnlichkeitsmass})/ der Distanz zu allen bekannten Punkten
\item Klassifizierung der Daten durch ein Mehrheitsvotum der $k$ nächsten Nachbarn
\end{enumerate}
\subsection{gewichtete K-Nächste-Nachbarn}
\label{weight k-nearest-neighbour}
Eine Abwandlung des K-Nächste-Nachbarverfahren, bei dem nicht einfach nach Mehrheit entschieden wird.
Stattessen werden die \say{Stimmen} der $k$ nächsten Nachbarn nach ihrem Abstand zum neuen Punkt gewichtet.
$$class(q)=\arg\max_{l\in level(y)}\sum^k_{i=1}\frac{1}{dist(q,d_i)^2}\cdot\delta(y_i,l)$$
$$\delta(y,l)=\begin{cases}
1 &\text{wenn }y=l\\
0 &\text{sonst}
\end{cases}$$
\subsection{Normalisierung}
\label{k-nearest-neighbour: normalisierung}
Da unterschiedliche Wertebereiche der verschiedenen Features einen großen Einfluss auf den K-Nächsten Nachbarn haben müssen sie normalisiert werden.
Hierbei ist es üblich alle Merkmale auf das Intervall $[0,1]$ zu normalisieren.
z.B. durch
\large
$$a'_i=\frac{a_i-\min(a_i)}{\max(a_i)-\min(a_i)}$$
\normalsize