diff --git a/ML_Zusammenfassung.tex b/ML_Zusammenfassung.tex index bc1c2fa..fc4af67 100644 --- a/ML_Zusammenfassung.tex +++ b/ML_Zusammenfassung.tex @@ -1,4 +1,4 @@ -\documentclass[ngerman,regno,a4paper,12pt,oneside,hidelinks]{scrbook} +\documentclass[ngerman,regno,a4paper,11pt,oneside,hidelinks]{scrbook} %page format \usepackage[ a4paper, @@ -27,7 +27,11 @@ % {{{ Main Content% \pagenumbering{arabic} + \part{Einleitung} + \input{chapters/Einleitung.tex} + \part{Classical Supervised Learning} + \label{part:Classical Supervised Learning} \input{chapters/Classical_Supervised_Learning/Linear_Regression.tex} \input{chapters/Classical_Supervised_Learning/Ridge_Regression.tex} \input{chapters/Classical_Supervised_Learning/Linear_Classification.tex} @@ -37,20 +41,24 @@ \clearpage \part{Classical Unsupervised Learning} + \label{part:Classical Unsupervised Learning} \input{chapters/Classical_Unsupervised_Learning/Dimensionality_Reduction_and_Clustering.tex} \input{chapters/Classical_Unsupervised_Learning/Density_Estimation_and_Mixture_Models.tex} \clearpage \part{Kernel Methods} + \label{part:Kernel Methods} \input{chapters/Kernel_Methods/Kernel-Regression.tex} \input{chapters/Kernel_Methods/Support_Vector_Machines.tex} \clearpage \part{Bayesian Learning} + \label{part:Bayesian Learning} \input{chapters/Bayesian_Learning/Bayesian_Linear_Regression_and_Gaussian_Processes.tex} \clearpage \part{Neural Networks} + \label{part:Neural Networks} \input{chapters/Neural_Networks/Neural_Networks_and_Backpropagation.tex} \input{chapters/Neural_Networks/CNNs_and_LSTMs.tex} \input{chapters/Neural_Networks/Variational_Auto-Encoders.tex} diff --git a/chapters/Einleitung.tex b/chapters/Einleitung.tex new file mode 100644 index 0000000..d103f76 --- /dev/null +++ b/chapters/Einleitung.tex @@ -0,0 +1,74 @@ +\chapter{Einleitung}% +\label{cha:Einleitung} + +\section{Was ist Lernen?}% +\label{sec:Was ist Lernen?} +Unter \say{Lernen} versteht man im allgemeinen die Erstellung oder Anpassung eines repräsentativen Abbild der Wirklichkeit. +Hierbei wird mithilfe äußerer Eindrücke versucht, +das Abbild so weit an die Wirklichkeit anzunähern, +dass sich sinnvolle Vorhersagen machen lassen. + +\subsection{Was ist Maschinelles Lernen?}% +\label{sub:Was ist Maschinelles Lernen?} +Man spricht vom Maschinellen Lernen, +bei Algorithmen, +die durch ihre Anwendung auf einen Satz von Trainingsdaten dazu in der Lage sind, +Parameter zu lernen, +die eine Vorhersage von bestimmten Eigenschaften unbekannter Eingangsdaten ermöglicht. +Dies ist besonders nützlich bei: +\begin{itemize} + \item kein Expertenwissen vorhanden ist + \item nicht bekannt ist, wie der Mensch die Daten verarbeitet (z.B. Gesichts-, Handschrifterkennung)\\(Black-box expert knowledge) + \item sich schnell wandelnden Vorkommnissen (z.B. Bonitätsbewertung)\\ (Fast changing phenomena) + \item Personalisierung (z.B. Filmempfehlungen)\\ (Customization/personalization) +\end{itemize} + +Hierbei teilt sich der Algorithmus im Allgemeinen in 3 Teile auf: +\begin{enumerate} + \item Representation: Abbildung der realen Welt + \item Evaluation: Bewertung des aktuellen Abbildes auf Basis eingehender Daten + \item Optimization: Optimierung des Abbildes +\end{enumerate} + +\section{Entwicklung der Künstlichen Intelligenz}% +\label{sec:Entwicklung der Künstlichen Intelligenz} +Künstliche Intelligenz entwickelt sich aktuell enorm schnell. +Dies liegt vor allem an den folgenden Einflüssen: +\begin{itemize} + \item zunehmende Menge an Trainingsdaten + \begin{itemize} + \item \say{when you go from 10,000 training examples to 10 billion training examples, it all starts to workd. Data trumps everything.} + \end{itemize} + \item mehr Rechenleistung (Moore's Law) + \item neue Algorithmen +\end{itemize} + +\section{Arten von Maschinellem Lernen}% +\label{sec:Arten von Maschinellem Lernen} +\begin{itemize} + \item Supervised Learning (siehe \autoref{part:Classical Supervised Learning}): Trainingsdaten mit vorgegebenen Ergebnissen + \begin{itemize} + \item Regression: Erlernen einer kontinuierlichen Funktion + \item Classification: Erlernen von Klassenzuordnungen anhand der Elementeigenschaften + \end{itemize} + \item Unsupervised Learning (siehe \autoref{part:Classical Unsupervised Learning}): Trainingsdaten \textbf{ohne} vorgegebenen Ergebnissen + \begin{itemize} + \item Clustering: Gruppieren von Elementen mit ähnlichen Eigenschaften + \item Dimensionality Reduction: Reduktion der Featuredimension der Eingangsdaten + \end{itemize} + \item Reinforcement Learning (nicht relevant für dieses Fach): keine vorgegebenen Ergebnisse, aber Bewertung der Ausgabewerte des Algorithmus' +\end{itemize} + +\section{Anwendungsbeispiele}% +\label{sec:Anwendungsbeispiele} +\begin{itemize} + \item Handschrifterkennung: Klassifizierungsproblem + \item Gesichtserkennung: Klassifizierungsproblem + \item Börsenkursvorhersage: Regressionsproblem + \item Spam-Filter: Klassifikationsproblem (Spam oder kein Spam) + \item Sprachübersetzung + \item personalisierte Produktempfehlungen + \item und viele mehr +\end{itemize} + +