\chapter{Lokale Suche} \label{local search} \includegraphics[width = .9\textwidth]{lokale suche.png} \section{Hill Climbing} \label{hill climbing} Der Hill Climbing Algorithmus ist eine \say{gierige} lokale Suche. Es wird an einem beliebigen Punkt gestartet und zu dem jeweils höherwertigen Nachbarn gegangen. Wenn kein höherwertiger Nachbar existiert wird der Algorithmus beendet. \begin{algorithm} \caption{Hill Climbing Algorithm}\label{hill climbing algorithm} \begin{algorithmic}[1] \Function{Hill-CLIMBING}{problem}{ \textbf{returns} a local maximum state} \State current$\gets$problem.INITIAL \While{true} \State neighbor$\gets$ein höchstwertigster Nachfolger von current \If{Value(neighbor) $\le$ VALUE(current)} \Return current \EndIf \State current$\gets$neighbor \EndWhile \EndFunction \end{algorithmic} \end{algorithm} \begin{tabular}{|p{.4625\textwidth}|p{.4625\textwidth}|} \hline \textbf{Vorteile} & \textbf{Nachteile}\\ \hline \vspace{-5mm} \begin{itemize} \item schnell und effizient zu einer besseren Lösung \end{itemize} \vspace{-5mm} & \vspace{-5mm} \begin{itemize} \item Schaut nicht weiter als zu den direkten Nachbarn, bleibt daher in lokalen Maxima, Plateaus, u.ä. stecken \item \textbf{nicht vollständig} \item \textbf{nicht optimal} \end{itemize} \vspace{-5mm}\\ \hline \end{tabular} \subsection{Erweiterungen} \label{hill climbing: erweiterungen} \paragraph{Stochastic Hill Climbing} es wird zufällig zu einem der möglichen, hochwertigen Nachbarn weitergegangen \paragraph{Hill Climbing mit Seitwärtszügen} beschränkte Anzahl von Seitwärtszügen um Plateaus zu verlassen. \paragraph{Random-Restart Hill Climbing} Standard-Verfahren wird mehrmals an zufälligen Startzuständen gestartet. \subsection{Beispiel: 8-Damen-Problem} \textbf{Problem:} siehe \ref{example: 8-damen-problem}\\ \label{hill climbing: 8-damen-problem} \includegraphics[width = \textwidth]{hill-climbing_8-damen.png} \section{Simulated Annealing} \label{simulated annealing} \begin{wrapfigure}{H}{.4\textwidth} \includegraphics[width = .4\textwidth]{simulated_annealing.png} \end{wrapfigure} \say{Sanfter Übergang von Random Walk zum Hill Climbing}\\ Die Wahrscheinlichkeit $P(\Delta E, T)=e^{-\Delta E / T}$ der Akzeptanz von Verschlechterungen hängt ab von: \begin{itemize} \item der Temperatur $T$ \item der Änderung $\Delta E = \text{zufälliger Nachfolger}-\text{aktueller Zustand}$ in der Zielfunktion \end{itemize} Falls die Temperatur langsam genug sinkt geht die Wahrscheinlichkeit das globale Optimum zu finden gegen 1. \section{Local Beam Search} \label{local beam search} Greedy Search Verfahren (\ref{hill climbing}), bei dem $k$ optimale Werte gespeichert und gleichzeitig durchlaufen werden.\\ \includegraphics[width = \textwidth]{beam search.png} \section{Genetische Algorithmen} \label{genetische algorithmen} \includegraphics[width = \textwidth]{genetische algorithmen.png}