forked from TH_General/Template_Summary
Einleitung hinzugefügt.
This commit is contained in:
parent
be49a06844
commit
668b7b4db7
@ -1,4 +1,4 @@
|
|||||||
\documentclass[ngerman,regno,a4paper,12pt,oneside,hidelinks]{scrbook}
|
\documentclass[ngerman,regno,a4paper,11pt,oneside,hidelinks]{scrbook}
|
||||||
%page format
|
%page format
|
||||||
\usepackage[
|
\usepackage[
|
||||||
a4paper,
|
a4paper,
|
||||||
@ -27,7 +27,11 @@
|
|||||||
|
|
||||||
% {{{ Main Content%
|
% {{{ Main Content%
|
||||||
\pagenumbering{arabic}
|
\pagenumbering{arabic}
|
||||||
|
\part{Einleitung}
|
||||||
|
\input{chapters/Einleitung.tex}
|
||||||
|
|
||||||
\part{Classical Supervised Learning}
|
\part{Classical Supervised Learning}
|
||||||
|
\label{part:Classical Supervised Learning}
|
||||||
\input{chapters/Classical_Supervised_Learning/Linear_Regression.tex}
|
\input{chapters/Classical_Supervised_Learning/Linear_Regression.tex}
|
||||||
\input{chapters/Classical_Supervised_Learning/Ridge_Regression.tex}
|
\input{chapters/Classical_Supervised_Learning/Ridge_Regression.tex}
|
||||||
\input{chapters/Classical_Supervised_Learning/Linear_Classification.tex}
|
\input{chapters/Classical_Supervised_Learning/Linear_Classification.tex}
|
||||||
@ -37,20 +41,24 @@
|
|||||||
\clearpage
|
\clearpage
|
||||||
|
|
||||||
\part{Classical Unsupervised Learning}
|
\part{Classical Unsupervised Learning}
|
||||||
|
\label{part:Classical Unsupervised Learning}
|
||||||
\input{chapters/Classical_Unsupervised_Learning/Dimensionality_Reduction_and_Clustering.tex}
|
\input{chapters/Classical_Unsupervised_Learning/Dimensionality_Reduction_and_Clustering.tex}
|
||||||
\input{chapters/Classical_Unsupervised_Learning/Density_Estimation_and_Mixture_Models.tex}
|
\input{chapters/Classical_Unsupervised_Learning/Density_Estimation_and_Mixture_Models.tex}
|
||||||
\clearpage
|
\clearpage
|
||||||
|
|
||||||
\part{Kernel Methods}
|
\part{Kernel Methods}
|
||||||
|
\label{part:Kernel Methods}
|
||||||
\input{chapters/Kernel_Methods/Kernel-Regression.tex}
|
\input{chapters/Kernel_Methods/Kernel-Regression.tex}
|
||||||
\input{chapters/Kernel_Methods/Support_Vector_Machines.tex}
|
\input{chapters/Kernel_Methods/Support_Vector_Machines.tex}
|
||||||
\clearpage
|
\clearpage
|
||||||
|
|
||||||
\part{Bayesian Learning}
|
\part{Bayesian Learning}
|
||||||
|
\label{part:Bayesian Learning}
|
||||||
\input{chapters/Bayesian_Learning/Bayesian_Linear_Regression_and_Gaussian_Processes.tex}
|
\input{chapters/Bayesian_Learning/Bayesian_Linear_Regression_and_Gaussian_Processes.tex}
|
||||||
\clearpage
|
\clearpage
|
||||||
|
|
||||||
\part{Neural Networks}
|
\part{Neural Networks}
|
||||||
|
\label{part:Neural Networks}
|
||||||
\input{chapters/Neural_Networks/Neural_Networks_and_Backpropagation.tex}
|
\input{chapters/Neural_Networks/Neural_Networks_and_Backpropagation.tex}
|
||||||
\input{chapters/Neural_Networks/CNNs_and_LSTMs.tex}
|
\input{chapters/Neural_Networks/CNNs_and_LSTMs.tex}
|
||||||
\input{chapters/Neural_Networks/Variational_Auto-Encoders.tex}
|
\input{chapters/Neural_Networks/Variational_Auto-Encoders.tex}
|
||||||
|
74
chapters/Einleitung.tex
Normal file
74
chapters/Einleitung.tex
Normal file
@ -0,0 +1,74 @@
|
|||||||
|
\chapter{Einleitung}%
|
||||||
|
\label{cha:Einleitung}
|
||||||
|
|
||||||
|
\section{Was ist Lernen?}%
|
||||||
|
\label{sec:Was ist Lernen?}
|
||||||
|
Unter \say{Lernen} versteht man im allgemeinen die Erstellung oder Anpassung eines repräsentativen Abbild der Wirklichkeit.
|
||||||
|
Hierbei wird mithilfe äußerer Eindrücke versucht,
|
||||||
|
das Abbild so weit an die Wirklichkeit anzunähern,
|
||||||
|
dass sich sinnvolle Vorhersagen machen lassen.
|
||||||
|
|
||||||
|
\subsection{Was ist Maschinelles Lernen?}%
|
||||||
|
\label{sub:Was ist Maschinelles Lernen?}
|
||||||
|
Man spricht vom Maschinellen Lernen,
|
||||||
|
bei Algorithmen,
|
||||||
|
die durch ihre Anwendung auf einen Satz von Trainingsdaten dazu in der Lage sind,
|
||||||
|
Parameter zu lernen,
|
||||||
|
die eine Vorhersage von bestimmten Eigenschaften unbekannter Eingangsdaten ermöglicht.
|
||||||
|
Dies ist besonders nützlich bei:
|
||||||
|
\begin{itemize}
|
||||||
|
\item kein Expertenwissen vorhanden ist
|
||||||
|
\item nicht bekannt ist, wie der Mensch die Daten verarbeitet (z.B. Gesichts-, Handschrifterkennung)\\(Black-box expert knowledge)
|
||||||
|
\item sich schnell wandelnden Vorkommnissen (z.B. Bonitätsbewertung)\\ (Fast changing phenomena)
|
||||||
|
\item Personalisierung (z.B. Filmempfehlungen)\\ (Customization/personalization)
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
Hierbei teilt sich der Algorithmus im Allgemeinen in 3 Teile auf:
|
||||||
|
\begin{enumerate}
|
||||||
|
\item Representation: Abbildung der realen Welt
|
||||||
|
\item Evaluation: Bewertung des aktuellen Abbildes auf Basis eingehender Daten
|
||||||
|
\item Optimization: Optimierung des Abbildes
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\section{Entwicklung der Künstlichen Intelligenz}%
|
||||||
|
\label{sec:Entwicklung der Künstlichen Intelligenz}
|
||||||
|
Künstliche Intelligenz entwickelt sich aktuell enorm schnell.
|
||||||
|
Dies liegt vor allem an den folgenden Einflüssen:
|
||||||
|
\begin{itemize}
|
||||||
|
\item zunehmende Menge an Trainingsdaten
|
||||||
|
\begin{itemize}
|
||||||
|
\item \say{when you go from 10,000 training examples to 10 billion training examples, it all starts to workd. Data trumps everything.}
|
||||||
|
\end{itemize}
|
||||||
|
\item mehr Rechenleistung (Moore's Law)
|
||||||
|
\item neue Algorithmen
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
\section{Arten von Maschinellem Lernen}%
|
||||||
|
\label{sec:Arten von Maschinellem Lernen}
|
||||||
|
\begin{itemize}
|
||||||
|
\item Supervised Learning (siehe \autoref{part:Classical Supervised Learning}): Trainingsdaten mit vorgegebenen Ergebnissen
|
||||||
|
\begin{itemize}
|
||||||
|
\item Regression: Erlernen einer kontinuierlichen Funktion
|
||||||
|
\item Classification: Erlernen von Klassenzuordnungen anhand der Elementeigenschaften
|
||||||
|
\end{itemize}
|
||||||
|
\item Unsupervised Learning (siehe \autoref{part:Classical Unsupervised Learning}): Trainingsdaten \textbf{ohne} vorgegebenen Ergebnissen
|
||||||
|
\begin{itemize}
|
||||||
|
\item Clustering: Gruppieren von Elementen mit ähnlichen Eigenschaften
|
||||||
|
\item Dimensionality Reduction: Reduktion der Featuredimension der Eingangsdaten
|
||||||
|
\end{itemize}
|
||||||
|
\item Reinforcement Learning (nicht relevant für dieses Fach): keine vorgegebenen Ergebnisse, aber Bewertung der Ausgabewerte des Algorithmus'
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
\section{Anwendungsbeispiele}%
|
||||||
|
\label{sec:Anwendungsbeispiele}
|
||||||
|
\begin{itemize}
|
||||||
|
\item Handschrifterkennung: Klassifizierungsproblem
|
||||||
|
\item Gesichtserkennung: Klassifizierungsproblem
|
||||||
|
\item Börsenkursvorhersage: Regressionsproblem
|
||||||
|
\item Spam-Filter: Klassifikationsproblem (Spam oder kein Spam)
|
||||||
|
\item Sprachübersetzung
|
||||||
|
\item personalisierte Produktempfehlungen
|
||||||
|
\item und viele mehr
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
|
Loading…
x
Reference in New Issue
Block a user