erste Vorlesung Deep Learning hinzugefügt. Akronyme überarbeitet.
@ -9,4 +9,8 @@
|
||||
\acro{RBF} {Radial Basis Function}
|
||||
\acro{DBSCAN} {Density-Based Spatial Clustering of Applications with Noise}
|
||||
\acro{VSM}{Vector Space Model}
|
||||
\acro{KI}{Künstliche Intelligenz}
|
||||
\acro{ML}{Maschinelles Lernen}
|
||||
\acro{CNN}{Convolutional Neural Network}
|
||||
\acro{RNN}{Recurrent Neural Network}
|
||||
\end{acronym}
|
@ -4,5 +4,6 @@
|
||||
\input{parts/Basics.tex}
|
||||
\input{parts/Supervised Learning.tex}
|
||||
\input{parts/Unsupervised Learning.tex}
|
||||
\input{parts/Semi-supervised Learning.tex}
|
||||
|
||||
\input{parts/Mathematische Grundlagen.tex}
|
53
chapters/Semi-supervised Learning/Deep Learning.tex
Normal file
@ -0,0 +1,53 @@
|
||||
\chapter{Deep Learning}
|
||||
\label{chapter: deep learning}
|
||||
Das \say{Deep Learning} ist ein Teilbereich des \ac{ML}.
|
||||
Dieses ist wiederum ein Teilbereich der \ac{KI}.
|
||||
Obwohl es faktisch ein Teilbereich ist haben sich \ac{KI} und \ac{ML} zu separaten Forschungsfeldern entwickelt.\\
|
||||
\includegraphics[width = \textwidth]{ai_and_ml.png}\\
|
||||
Allgemein beschrieben wird bei dem Deep Learning ein Modell aus mehreren Schichten aufgebaut.
|
||||
Diese Schichten sind grundsätzlich hierarchisch aufgebaut und verarbeiten jeweils die Ausgabe des vorhergegangenen Schicht.
|
||||
Hierfür werden sowohl Methoden aus dem Supervised Learning {\ref{supervised learning}}, als auch Methoden aus dem Unsupervised Learning {\ref{unsupervised learning}} verwendet.
|
||||
Da die Modelle meist an das Menschliche Gehirn angelehnt sind werden hierfür Neurale Netzwerke verwendet.
|
||||
Im Allgemeinen kommen 2 Arten von Neuralen Netzwerken zum Einsatz:
|
||||
\begin{itemize}
|
||||
\item \textbf{Faltunsnetzwerke (\ac{CNN}):}\\
|
||||
für statische Daten (Bilder, Sprachaufnahmen, \dots)
|
||||
\item \textbf{Zyklische Netzwerke (\ac{RNN}):}\\
|
||||
für sequentielle Daten (Videostream, Fließtext, \dots)
|
||||
\end{itemize}
|
||||
|
||||
\section{Allgemeines Lernprinzip}
|
||||
\label{deep learning: principle}
|
||||
\includegraphics[width=\textwidth]{deep-learing_learning-principle.png}
|
||||
|
||||
\section{Exkurs: Bilderkennung}
|
||||
\label{bilderkennung}
|
||||
\subsection{Neuro-biologisches Konzept}
|
||||
\label{neuro-biological concept}
|
||||
\includegraphics[width=.8\textwidth]{neuro-biological_concept.png}
|
||||
|
||||
\subsection{Bild Klassifizierung}
|
||||
\label{image classification}
|
||||
Der Inhalt eines Bildes soll klassifiziert werden.\\
|
||||
\includegraphics[width=.8\textwidth]{image-classification.png}\\
|
||||
Hierbei gibt es viele Probleme:
|
||||
\begin{itemize}
|
||||
\item \textbf{Semantic Gap:}\\
|
||||
Der Computer sieht das Bild als eine Datenmenge von unabhängigen Pixeln.\\
|
||||
\includegraphics[width=.6\textwidth]{semantical gap.png}
|
||||
\item \textbf{Viewpoint Variation:}\\
|
||||
Eine kleine Veränderung in der Kameraposition kann dazu führen, dass sich alle Pixel verändern.\\
|
||||
\includegraphics[width=\textwidth]{viewpoint variation.png}
|
||||
\item \textbf{Beleuchtung:}\\
|
||||
Eine Veränderung der Beleuchtung kann zu sehr unterschiedlichen Pixeldaten führen.\\
|
||||
\includegraphics[width=.8\textwidth]{illumination.png}
|
||||
\item \textbf{Deformation:}\\
|
||||
Die Objekte im Bild können unterschiedlich verzerrt sein.\\
|
||||
\includegraphics[width=.8\textwidth]{deformation.png}
|
||||
\item \textbf{Occlusion:}\\
|
||||
Die zu klassifizierenden Objekte können teilweise verdeckt sein.\\
|
||||
\includegraphics[width = .8\textwidth]{occlusion.png}
|
||||
\item \textbf{Background Clutter:}\\
|
||||
Das Bild kann einen Hintergrund mit starker Ähnlichkeit zu dem Objekt haben.\\
|
||||
\includegraphics[width = .8\textwidth]{background clutter.png}
|
||||
\end{itemize}
|
@ -64,7 +64,7 @@
|
||||
\includegraphics[width=.8\textwidth]{Perzeptron_Lernalgorithmus_symmetrisch.png}
|
||||
|
||||
\section{\ac{VC-Dimension}}\label{vc-dimension}
|
||||
Die \acl{VC-Dimension} gibt ein Maß für die \say{learning power} einer Klassifizierung.
|
||||
Die \ac{VC-Dimension} gibt ein Maß für die \say{learning power} einer Klassifizierung.
|
||||
|
||||
\subsection{Shattering}
|
||||
\say{Here we will only consider functions that correspond to the two-class pattern recognition case, so that $g(\bm{m}, y) \in \{-1, 1\}\forall x, y$.
|
||||
@ -149,8 +149,8 @@
|
||||
Das Strukturelle Risiko wird durch das empirische Risiko $R_{emp}(\bm{w})$ (\ref{empirical risk}) und den Kapazitätsterm $\varepsilon(N,\kappa,h)$ (\ref{capacity term}) definiert.\\
|
||||
\includegraphics[width=.6\textwidth]{structural_risk.png}
|
||||
|
||||
\subsubsection{\acl{SRM}}
|
||||
\ac{SRM} kann entweder dadurch erreicht werden,
|
||||
\subsubsection{\ac{SRM}}
|
||||
Eine Reduzierung kann entweder dadurch erreicht werden,
|
||||
dass das empirische Risiko (\ref{empirical risk}) bei gleichbleibenden $\varepsilon$ (\ref{capacity term}) reduziert wird,
|
||||
oder durch eine Reduzierung von $\varepsilon$ bei gleichbleibenden empirischen Risiko.
|
||||
Letzteres ist der Ansatz den die \ac{SVM}s (\ref{svm}) verfolgen.
|
@ -1,4 +1,4 @@
|
||||
\chapter{\acl{SVM}}\label{svm}
|
||||
\chapter{\ac{SVM}}\label{svm}
|
||||
\ac{SVM}s können als lineare (\ref{linear machines}) oder nicht-lineare Maschinen aufgebaut werden.\\
|
||||
\begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|}
|
||||
\hline
|
||||
@ -16,7 +16,7 @@
|
||||
\hline
|
||||
\end{tabular}
|
||||
|
||||
\section{lineare \acl{SVM}}
|
||||
\section{lineare \ac{SVM}}
|
||||
\begin{wrapfigure}{h}{.6\textwidth}
|
||||
\vspace{-10mm}
|
||||
\includegraphics[width=.6\textwidth]{svm_base.png}
|
||||
@ -74,7 +74,7 @@
|
||||
\subsubsection{Sparsity}
|
||||
\ac{SVM}s sind \say{sparse learning machines}, da Sie meist nur von wenigen Support Vektoren abhängen.
|
||||
|
||||
\section{nicht-lineare \acl{SVM}}\label{non linear svm}
|
||||
\section{nicht-lineare \ac{SVM}}\label{non linear svm}
|
||||
\ac{SVM}s können auch dafür benutzt werden, nicht-linear-trennbare Cluster zu teilen.
|
||||
Hierfür müssen einige mathematischen Tricks angewandt werden.
|
||||
|
||||
@ -118,8 +118,7 @@
|
||||
\subsection{Polynomialer Kernel}
|
||||
\includegraphics[width=.8\textwidth]{kernel_trick_polynomial_kernel.png}
|
||||
|
||||
\subsubsection{Beispiel: Gausian \acl{RBF} Kernel}
|
||||
Der \say{Gausian \ac{RBF}} Kernel ist definiert durch:
|
||||
\subsubsection{Beispiel: Gausian \ac{RBF} Kernel}
|
||||
$$K(\bm{m}_i,\bm{m}_j) = \exp\left(-\frac{||\bm{m}_1-\bm{m}_2||^2}{2\sigma^2}\right)$$
|
||||
\includegraphics[width=\textwidth]{kernel_trick_example.png}
|
||||
|
||||
|
@ -6,7 +6,7 @@
|
||||
Meist werden hierbei Hybrid Methoden aus dem Bereich des Text-based Clustering (\ref{text-based clustering}) und der Link Analysis (\ref{section:link analysis}).
|
||||
Dieser Ansatz wird allgemein als \say{Web-Mining} bezeichnet.
|
||||
|
||||
\section{\acl{VSM}}
|
||||
\section{\ac{VSM}}
|
||||
\label{vsm}
|
||||
Bei der Modellierung mithilfe eines \ac{VSM} werden die Charakteristika und Attribute eines Dokumentes ausgewählt und nach ihrer Relevanz gewichtet.
|
||||
|
||||
|
BIN
images/ai_and_ml.png
Normal file
After Width: | Height: | Size: 149 KiB |
BIN
images/background clutter.png
Normal file
After Width: | Height: | Size: 299 KiB |
BIN
images/deep-learing_learning-principle.png
Normal file
After Width: | Height: | Size: 75 KiB |
BIN
images/deformation.png
Normal file
After Width: | Height: | Size: 360 KiB |
BIN
images/illumination.png
Normal file
After Width: | Height: | Size: 232 KiB |
BIN
images/image-classification.png
Normal file
After Width: | Height: | Size: 111 KiB |
BIN
images/neuro-biological_concept.png
Normal file
After Width: | Height: | Size: 163 KiB |
BIN
images/occlusion.png
Normal file
After Width: | Height: | Size: 300 KiB |
BIN
images/semantical gap.png
Normal file
After Width: | Height: | Size: 220 KiB |
BIN
images/viewpoint variation.png
Normal file
After Width: | Height: | Size: 122 KiB |
3
parts/Semi-supervised Learning.tex
Normal file
@ -0,0 +1,3 @@
|
||||
\part{Semi-supervised Learning}
|
||||
|
||||
\input{chapters/Semi-supervised Learning/Deep Learning.tex}
|