Einleitung hinzugefügt.

This commit is contained in:
paul-loedige 2022-02-07 20:09:21 +01:00
parent be49a06844
commit 668b7b4db7
2 changed files with 83 additions and 1 deletions

View File

@ -1,4 +1,4 @@
\documentclass[ngerman,regno,a4paper,12pt,oneside,hidelinks]{scrbook}
\documentclass[ngerman,regno,a4paper,11pt,oneside,hidelinks]{scrbook}
%page format
\usepackage[
a4paper,
@ -27,7 +27,11 @@
% {{{ Main Content%
\pagenumbering{arabic}
\part{Einleitung}
\input{chapters/Einleitung.tex}
\part{Classical Supervised Learning}
\label{part:Classical Supervised Learning}
\input{chapters/Classical_Supervised_Learning/Linear_Regression.tex}
\input{chapters/Classical_Supervised_Learning/Ridge_Regression.tex}
\input{chapters/Classical_Supervised_Learning/Linear_Classification.tex}
@ -37,20 +41,24 @@
\clearpage
\part{Classical Unsupervised Learning}
\label{part:Classical Unsupervised Learning}
\input{chapters/Classical_Unsupervised_Learning/Dimensionality_Reduction_and_Clustering.tex}
\input{chapters/Classical_Unsupervised_Learning/Density_Estimation_and_Mixture_Models.tex}
\clearpage
\part{Kernel Methods}
\label{part:Kernel Methods}
\input{chapters/Kernel_Methods/Kernel-Regression.tex}
\input{chapters/Kernel_Methods/Support_Vector_Machines.tex}
\clearpage
\part{Bayesian Learning}
\label{part:Bayesian Learning}
\input{chapters/Bayesian_Learning/Bayesian_Linear_Regression_and_Gaussian_Processes.tex}
\clearpage
\part{Neural Networks}
\label{part:Neural Networks}
\input{chapters/Neural_Networks/Neural_Networks_and_Backpropagation.tex}
\input{chapters/Neural_Networks/CNNs_and_LSTMs.tex}
\input{chapters/Neural_Networks/Variational_Auto-Encoders.tex}

74
chapters/Einleitung.tex Normal file
View File

@ -0,0 +1,74 @@
\chapter{Einleitung}%
\label{cha:Einleitung}
\section{Was ist Lernen?}%
\label{sec:Was ist Lernen?}
Unter \say{Lernen} versteht man im allgemeinen die Erstellung oder Anpassung eines repräsentativen Abbild der Wirklichkeit.
Hierbei wird mithilfe äußerer Eindrücke versucht,
das Abbild so weit an die Wirklichkeit anzunähern,
dass sich sinnvolle Vorhersagen machen lassen.
\subsection{Was ist Maschinelles Lernen?}%
\label{sub:Was ist Maschinelles Lernen?}
Man spricht vom Maschinellen Lernen,
bei Algorithmen,
die durch ihre Anwendung auf einen Satz von Trainingsdaten dazu in der Lage sind,
Parameter zu lernen,
die eine Vorhersage von bestimmten Eigenschaften unbekannter Eingangsdaten ermöglicht.
Dies ist besonders nützlich bei:
\begin{itemize}
\item kein Expertenwissen vorhanden ist
\item nicht bekannt ist, wie der Mensch die Daten verarbeitet (z.B. Gesichts-, Handschrifterkennung)\\(Black-box expert knowledge)
\item sich schnell wandelnden Vorkommnissen (z.B. Bonitätsbewertung)\\ (Fast changing phenomena)
\item Personalisierung (z.B. Filmempfehlungen)\\ (Customization/personalization)
\end{itemize}
Hierbei teilt sich der Algorithmus im Allgemeinen in 3 Teile auf:
\begin{enumerate}
\item Representation: Abbildung der realen Welt
\item Evaluation: Bewertung des aktuellen Abbildes auf Basis eingehender Daten
\item Optimization: Optimierung des Abbildes
\end{enumerate}
\section{Entwicklung der Künstlichen Intelligenz}%
\label{sec:Entwicklung der Künstlichen Intelligenz}
Künstliche Intelligenz entwickelt sich aktuell enorm schnell.
Dies liegt vor allem an den folgenden Einflüssen:
\begin{itemize}
\item zunehmende Menge an Trainingsdaten
\begin{itemize}
\item \say{when you go from 10,000 training examples to 10 billion training examples, it all starts to workd. Data trumps everything.}
\end{itemize}
\item mehr Rechenleistung (Moore's Law)
\item neue Algorithmen
\end{itemize}
\section{Arten von Maschinellem Lernen}%
\label{sec:Arten von Maschinellem Lernen}
\begin{itemize}
\item Supervised Learning (siehe \autoref{part:Classical Supervised Learning}): Trainingsdaten mit vorgegebenen Ergebnissen
\begin{itemize}
\item Regression: Erlernen einer kontinuierlichen Funktion
\item Classification: Erlernen von Klassenzuordnungen anhand der Elementeigenschaften
\end{itemize}
\item Unsupervised Learning (siehe \autoref{part:Classical Unsupervised Learning}): Trainingsdaten \textbf{ohne} vorgegebenen Ergebnissen
\begin{itemize}
\item Clustering: Gruppieren von Elementen mit ähnlichen Eigenschaften
\item Dimensionality Reduction: Reduktion der Featuredimension der Eingangsdaten
\end{itemize}
\item Reinforcement Learning (nicht relevant für dieses Fach): keine vorgegebenen Ergebnisse, aber Bewertung der Ausgabewerte des Algorithmus'
\end{itemize}
\section{Anwendungsbeispiele}%
\label{sec:Anwendungsbeispiele}
\begin{itemize}
\item Handschrifterkennung: Klassifizierungsproblem
\item Gesichtserkennung: Klassifizierungsproblem
\item Börsenkursvorhersage: Regressionsproblem
\item Spam-Filter: Klassifikationsproblem (Spam oder kein Spam)
\item Sprachübersetzung
\item personalisierte Produktempfehlungen
\item und viele mehr
\end{itemize}