From 1e9538ca65931e2412b4770bdb366e7db277ca26 Mon Sep 17 00:00:00 2001 From: paul-loedige Date: Fri, 5 Feb 2021 15:49:14 +0100 Subject: [PATCH] =?UTF-8?q?=C3=84hnlichkeitsbasiertes=20Lernen=20hinzugef?= =?UTF-8?q?=C3=BCgt?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../Fehlerbasiertes Lernen.tex | 2 + .../Ähnlichkeitsbasiertes Lernen.tex | 44 +++++++++++++++++++ parts/Maschinelles Lernen.tex | 1 + 3 files changed, 47 insertions(+) create mode 100644 chapters/Maschinelles Lernen/Fehlerbasiertes Lernen.tex create mode 100644 chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex diff --git a/chapters/Maschinelles Lernen/Fehlerbasiertes Lernen.tex b/chapters/Maschinelles Lernen/Fehlerbasiertes Lernen.tex new file mode 100644 index 0000000..3489452 --- /dev/null +++ b/chapters/Maschinelles Lernen/Fehlerbasiertes Lernen.tex @@ -0,0 +1,2 @@ +\chapter{Fehlerbasiertes Lernen} +\label{error-based learning} \ No newline at end of file diff --git a/chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex b/chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex new file mode 100644 index 0000000..be0ec09 --- /dev/null +++ b/chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex @@ -0,0 +1,44 @@ +\chapter{Ähnlichkeitsbasiertes Lernen} +\label{similarity-based learning} + Beim \say{ähnlichkeitsbasiertem Lernen} geht man von der Annahme aus, dass sich zwei ähnliche Objekte vermutlich in die gleiche Klasse einordnen lassen. + Um dieses Lernverfahren zu verwenden wird ein Maß für die Ähnlichkeit benötigt. + + \section{Ähnlichkeitsmaß} + \label{aehnlichkeitsmass} + \paragraph{Euklidischer Abstand} + \large + $$dist_e(a,b))\sqrt{\sum^n_{i=1}\left(a[i]-b[i]\right)^2}$$ + \normalsize + + \paragraph{Manhattan-Metrik} + \large + $$dist_m(a,b)=\sum^n_{i=1}|a[i]-b[i]|$$ + \normalsize + + \section{K-Nächste-Nachbarn} + \label{k-nearest-neighbour} + Beim \say{K-Nächste-Nachbarn}-Verfahren wird dem System eine Reihe von gelabelten Trainingsdaten übergeben. + Für die Klassifizierung erfolgt durch + \begin{enumerate} + \item Berechnung des Ähnlichkeitsmaßes (\ref{aehnlichkeitsmass})/ der Distanz zu allen bekannten Punkten + \item Klassifizierung der Daten durch ein Mehrheitsvotum der $k$ nächsten Nachbarn + \end{enumerate} + + \subsection{gewichtete K-Nächste-Nachbarn} + \label{weight k-nearest-neighbour} + Eine Abwandlung des K-Nächste-Nachbarverfahren, bei dem nicht einfach nach Mehrheit entschieden wird. + Stattessen werden die \say{Stimmen} der $k$ nächsten Nachbarn nach ihrem Abstand zum neuen Punkt gewichtet. + $$class(q)=\arg\max_{l\in level(y)}\sum^k_{i=1}\frac{1}{dist(q,d_i)^2}\cdot\delta(y_i,l)$$ + $$\delta(y,l)=\begin{cases} + 1 &\text{wenn }y=l\\ + 0 &\text{sonst} + \end{cases}$$ + + \subsection{Normalisierung} + \label{k-nearest-neighbour} + Da unterschiedliche Wertebereiche der verschiedenen Features einen großen Einfluss auf den K-Nächsten Nachbarn haben müssen sie normalisiert werden. + Hierbei ist es üblich alle Merkmale auf das Intervall $[0,1]$ zu normalisieren. + z.B. durch + \large + $$a'_i=\frac{a_i-\min(a_i)}{\max(a_i)-\min(a_i)}$$ + \normalsize \ No newline at end of file diff --git a/parts/Maschinelles Lernen.tex b/parts/Maschinelles Lernen.tex index 6a3f268..1f9c023 100644 --- a/parts/Maschinelles Lernen.tex +++ b/parts/Maschinelles Lernen.tex @@ -4,4 +4,5 @@ \input{chapters/Maschinelles Lernen/Einführung.tex} \input{chapters/Maschinelles Lernen/Informationsbasiertes Lernen.tex} \input{chapters/Maschinelles Lernen/Lernbarkeit.tex} +\input{chapters/Maschinelles Lernen/Ähnlichkeitsbasiertes Lernen.tex} \input{chapters/Maschinelles Lernen/Reinforcement Learning.tex} \ No newline at end of file