forked from TH_General/Template_Summary
Einleitung hinzugefügt.
This commit is contained in:
parent
be49a06844
commit
668b7b4db7
@ -1,4 +1,4 @@
|
||||
\documentclass[ngerman,regno,a4paper,12pt,oneside,hidelinks]{scrbook}
|
||||
\documentclass[ngerman,regno,a4paper,11pt,oneside,hidelinks]{scrbook}
|
||||
%page format
|
||||
\usepackage[
|
||||
a4paper,
|
||||
@ -27,7 +27,11 @@
|
||||
|
||||
% {{{ Main Content%
|
||||
\pagenumbering{arabic}
|
||||
\part{Einleitung}
|
||||
\input{chapters/Einleitung.tex}
|
||||
|
||||
\part{Classical Supervised Learning}
|
||||
\label{part:Classical Supervised Learning}
|
||||
\input{chapters/Classical_Supervised_Learning/Linear_Regression.tex}
|
||||
\input{chapters/Classical_Supervised_Learning/Ridge_Regression.tex}
|
||||
\input{chapters/Classical_Supervised_Learning/Linear_Classification.tex}
|
||||
@ -37,20 +41,24 @@
|
||||
\clearpage
|
||||
|
||||
\part{Classical Unsupervised Learning}
|
||||
\label{part:Classical Unsupervised Learning}
|
||||
\input{chapters/Classical_Unsupervised_Learning/Dimensionality_Reduction_and_Clustering.tex}
|
||||
\input{chapters/Classical_Unsupervised_Learning/Density_Estimation_and_Mixture_Models.tex}
|
||||
\clearpage
|
||||
|
||||
\part{Kernel Methods}
|
||||
\label{part:Kernel Methods}
|
||||
\input{chapters/Kernel_Methods/Kernel-Regression.tex}
|
||||
\input{chapters/Kernel_Methods/Support_Vector_Machines.tex}
|
||||
\clearpage
|
||||
|
||||
\part{Bayesian Learning}
|
||||
\label{part:Bayesian Learning}
|
||||
\input{chapters/Bayesian_Learning/Bayesian_Linear_Regression_and_Gaussian_Processes.tex}
|
||||
\clearpage
|
||||
|
||||
\part{Neural Networks}
|
||||
\label{part:Neural Networks}
|
||||
\input{chapters/Neural_Networks/Neural_Networks_and_Backpropagation.tex}
|
||||
\input{chapters/Neural_Networks/CNNs_and_LSTMs.tex}
|
||||
\input{chapters/Neural_Networks/Variational_Auto-Encoders.tex}
|
||||
|
74
chapters/Einleitung.tex
Normal file
74
chapters/Einleitung.tex
Normal file
@ -0,0 +1,74 @@
|
||||
\chapter{Einleitung}%
|
||||
\label{cha:Einleitung}
|
||||
|
||||
\section{Was ist Lernen?}%
|
||||
\label{sec:Was ist Lernen?}
|
||||
Unter \say{Lernen} versteht man im allgemeinen die Erstellung oder Anpassung eines repräsentativen Abbild der Wirklichkeit.
|
||||
Hierbei wird mithilfe äußerer Eindrücke versucht,
|
||||
das Abbild so weit an die Wirklichkeit anzunähern,
|
||||
dass sich sinnvolle Vorhersagen machen lassen.
|
||||
|
||||
\subsection{Was ist Maschinelles Lernen?}%
|
||||
\label{sub:Was ist Maschinelles Lernen?}
|
||||
Man spricht vom Maschinellen Lernen,
|
||||
bei Algorithmen,
|
||||
die durch ihre Anwendung auf einen Satz von Trainingsdaten dazu in der Lage sind,
|
||||
Parameter zu lernen,
|
||||
die eine Vorhersage von bestimmten Eigenschaften unbekannter Eingangsdaten ermöglicht.
|
||||
Dies ist besonders nützlich bei:
|
||||
\begin{itemize}
|
||||
\item kein Expertenwissen vorhanden ist
|
||||
\item nicht bekannt ist, wie der Mensch die Daten verarbeitet (z.B. Gesichts-, Handschrifterkennung)\\(Black-box expert knowledge)
|
||||
\item sich schnell wandelnden Vorkommnissen (z.B. Bonitätsbewertung)\\ (Fast changing phenomena)
|
||||
\item Personalisierung (z.B. Filmempfehlungen)\\ (Customization/personalization)
|
||||
\end{itemize}
|
||||
|
||||
Hierbei teilt sich der Algorithmus im Allgemeinen in 3 Teile auf:
|
||||
\begin{enumerate}
|
||||
\item Representation: Abbildung der realen Welt
|
||||
\item Evaluation: Bewertung des aktuellen Abbildes auf Basis eingehender Daten
|
||||
\item Optimization: Optimierung des Abbildes
|
||||
\end{enumerate}
|
||||
|
||||
\section{Entwicklung der Künstlichen Intelligenz}%
|
||||
\label{sec:Entwicklung der Künstlichen Intelligenz}
|
||||
Künstliche Intelligenz entwickelt sich aktuell enorm schnell.
|
||||
Dies liegt vor allem an den folgenden Einflüssen:
|
||||
\begin{itemize}
|
||||
\item zunehmende Menge an Trainingsdaten
|
||||
\begin{itemize}
|
||||
\item \say{when you go from 10,000 training examples to 10 billion training examples, it all starts to workd. Data trumps everything.}
|
||||
\end{itemize}
|
||||
\item mehr Rechenleistung (Moore's Law)
|
||||
\item neue Algorithmen
|
||||
\end{itemize}
|
||||
|
||||
\section{Arten von Maschinellem Lernen}%
|
||||
\label{sec:Arten von Maschinellem Lernen}
|
||||
\begin{itemize}
|
||||
\item Supervised Learning (siehe \autoref{part:Classical Supervised Learning}): Trainingsdaten mit vorgegebenen Ergebnissen
|
||||
\begin{itemize}
|
||||
\item Regression: Erlernen einer kontinuierlichen Funktion
|
||||
\item Classification: Erlernen von Klassenzuordnungen anhand der Elementeigenschaften
|
||||
\end{itemize}
|
||||
\item Unsupervised Learning (siehe \autoref{part:Classical Unsupervised Learning}): Trainingsdaten \textbf{ohne} vorgegebenen Ergebnissen
|
||||
\begin{itemize}
|
||||
\item Clustering: Gruppieren von Elementen mit ähnlichen Eigenschaften
|
||||
\item Dimensionality Reduction: Reduktion der Featuredimension der Eingangsdaten
|
||||
\end{itemize}
|
||||
\item Reinforcement Learning (nicht relevant für dieses Fach): keine vorgegebenen Ergebnisse, aber Bewertung der Ausgabewerte des Algorithmus'
|
||||
\end{itemize}
|
||||
|
||||
\section{Anwendungsbeispiele}%
|
||||
\label{sec:Anwendungsbeispiele}
|
||||
\begin{itemize}
|
||||
\item Handschrifterkennung: Klassifizierungsproblem
|
||||
\item Gesichtserkennung: Klassifizierungsproblem
|
||||
\item Börsenkursvorhersage: Regressionsproblem
|
||||
\item Spam-Filter: Klassifikationsproblem (Spam oder kein Spam)
|
||||
\item Sprachübersetzung
|
||||
\item personalisierte Produktempfehlungen
|
||||
\item und viele mehr
|
||||
\end{itemize}
|
||||
|
||||
|
Loading…
x
Reference in New Issue
Block a user