restructured Agenten
This commit is contained in:
parent
d763d77062
commit
776dfe56a2
51
chapters/Agenten/Agentenprogramme.tex
Normal file
51
chapters/Agenten/Agentenprogramme.tex
Normal file
@ -0,0 +1,51 @@
|
|||||||
|
\chapter{Agentenprogramme}
|
||||||
|
\label{agentenprogramme}
|
||||||
|
\section{Reflex-Agent}
|
||||||
|
\label{reflex-agent}
|
||||||
|
\includegraphics[width=\textwidth]{reflex-agent.png}
|
||||||
|
|
||||||
|
\section{Modellbasierter Reflex-Agent}
|
||||||
|
\label{model-based reflex-agent}
|
||||||
|
\includegraphics[width=\textwidth]{model-based_reflex-agent.png}
|
||||||
|
|
||||||
|
\section{Zielbasierter Agent}
|
||||||
|
\label{goal-based agent}
|
||||||
|
\includegraphics[width=\textwidth]{goal-based_agent.png}
|
||||||
|
|
||||||
|
\section{Nutzenorientierter Agent}
|
||||||
|
\label{utility-oriented agent}
|
||||||
|
\includegraphics[width=\textwidth]{utility-oriented_agent.png}
|
||||||
|
|
||||||
|
\section{Lernender Agent}
|
||||||
|
\label{learning agent}
|
||||||
|
\includegraphics[width=\textwidth]{learning_agent.png}
|
||||||
|
|
||||||
|
\section{Softwarearchitekturen für Agentenprogramme}
|
||||||
|
\label{software architecture for agent programs}
|
||||||
|
{\large\color{red}Nur Subsumption Architecture gezeigt. Weitere Architekturen in Vorlesung 02!}
|
||||||
|
|
||||||
|
\subsection{Subsumption Architecture}
|
||||||
|
\label{subsumption architecture}
|
||||||
|
Rodney Brooks' \say{subsumption architecture} ist besonders gut für den Aufbau von Reflex-Agenten (\ref{reflex-agent}) geeignet,
|
||||||
|
da die Architektur direkt aus der Wahrnehmung eine Aktion erzeugt.
|
||||||
|
Bei dieser Architektur sind die einzelnen Verhaltensziele als priorisierte Schichten aufgebaut.
|
||||||
|
\begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|}
|
||||||
|
\hline
|
||||||
|
\textbf{Vorteile} & \textbf{Nachteile}\\
|
||||||
|
\hline
|
||||||
|
\begin{itemize}
|
||||||
|
\item Einfach (Schichten sind abgeschlossene Verhalten)
|
||||||
|
\item deterministisch (daher echtzeitfähig)
|
||||||
|
\item Parallelität in der Ausführung
|
||||||
|
\end{itemize} &
|
||||||
|
\begin{itemize}
|
||||||
|
\item Verhalten fest implementiert und von Umgebung abhängig
|
||||||
|
\item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar
|
||||||
|
\item keine Langzeitentscheidungen
|
||||||
|
\end{itemize}\\
|
||||||
|
\hline
|
||||||
|
\end{tabular}
|
||||||
|
|
||||||
|
\subsubsection{Beispiel: Karte erkunden}
|
||||||
|
\label{beispiel: karte erkunden}
|
||||||
|
\includegraphics[width = \textwidth]{beispiel_subsumption_architecture.png}
|
@ -44,113 +44,3 @@
|
|||||||
Mit anderen Worten: $\asymp$ teilt $S$ in gegenseitig ununterscheidbare Mengen von States.
|
Mit anderen Worten: $\asymp$ teilt $S$ in gegenseitig ununterscheidbare Mengen von States.
|
||||||
$|\asymp|$ gibt folglich die Effektivität der Sensorik an.
|
$|\asymp|$ gibt folglich die Effektivität der Sensorik an.
|
||||||
Wenn $|\asymp|=|S|$ ist, kann der Agent alle States unterscheiden und ist daher allwissend.
|
Wenn $|\asymp|=|S|$ ist, kann der Agent alle States unterscheiden und ist daher allwissend.
|
||||||
|
|
||||||
\section{Leistungsbewertung}
|
|
||||||
\label{agenten: leistungsbewertung}
|
|
||||||
Die Leistungsbewertung ist individuell für jeden Agenten.
|
|
||||||
Hierbei werden Kriterien für den Erfolg des Verhaltens eines Agenten definiert.
|
|
||||||
Es ist wichtig, dass die Kriterien möglichst gut definiert sind, denn es gilt:\\
|
|
||||||
\say{What you measure is what you get!}\\
|
|
||||||
Oder mit den Worten von Norbert Wiener:\\
|
|
||||||
\say{We had better be quite sure that the purpose put into the machine is the purpose which we really desire}
|
|
||||||
|
|
||||||
\subsection{Beispiele}
|
|
||||||
\label{leistungsbewertung: beispiele}
|
|
||||||
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_1.png}\\
|
|
||||||
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_2.png}\\
|
|
||||||
|
|
||||||
\section{Nutzentheorie}
|
|
||||||
\label{nutzentheorie}
|
|
||||||
Bei der Nutzentheorie geht es darum durch die Vorgabe einer Nutzenfunktion $U$ den Agenten darin anzuweisen \textbf{WAS} er zu tun hat, \textbf{ohne} ihm zu sagen, \textbf{WIE} er es tun soll.
|
|
||||||
Je besser die aufgestellte Nutzenfunktion $U$ ist, desto näher kommt der Agent an die bestmögliche Leistung heran.
|
|
||||||
Die Nutzenfunktion $U$ ist definiert durch:
|
|
||||||
$$ U:E\rightarrow \mathbb{R}~;E:\text{wahrgenommene Umgebung}$$
|
|
||||||
Jede Aktion $A$, die vom Agenten ausgeführt wird hat die möglichen Ergebniszustände $\text{Ergebnis}_i(A)$.
|
|
||||||
Der erwartete Nutzen $EU$ ist hierbei gegeben durch:
|
|
||||||
$$EU(A|E) = \sum_i P(\text{Ergebnis}_i(A)|\text{Ausführen}(A),E) U(\text{Ergebnis}_i(A))$$
|
|
||||||
|
|
||||||
|
|
||||||
\section{Umgebungen und Arbeitsumgebungen}
|
|
||||||
\label{umgebung und arbeitsumgebung}
|
|
||||||
Die Definition von \ac{PEAS} ist der erste Schritt in der Entwicklung eines Agenten
|
|
||||||
|
|
||||||
\subsection{\ac{PEAS} Beispiele}
|
|
||||||
\label{peas beispiele}
|
|
||||||
\includegraphics[width=\textwidth]{beispiele_PEAS.png}
|
|
||||||
|
|
||||||
\subsection{Eigenschaften von Umgebungen}
|
|
||||||
\label{umgebungen: eigenschaften}
|
|
||||||
\begin{itemize}
|
|
||||||
\item \textbf{Beobachtbarkeit:}\\
|
|
||||||
Wenn die Sensorik jederzeit die gesamte Umgebung erfasst ist diese \textbf{vollständig beobachtbar}, sonst \textbf{teilweise beobachtbar}.
|
|
||||||
\item \textbf{Determinismus:}\\
|
|
||||||
Wenn der Folgezustand einer Umgebung vollständig durch den Agentenzustand und seine Aktion bestimmt ist, dann ist diese \textbf{deterministisch}, sonst \textbf{stochastisch}.
|
|
||||||
\item \textbf{Episodisch oder Sequentiell:}\\
|
|
||||||
Eine Umgebung ist \textbf{episodisch}, wenn Wahrnehmungs- und Ausführungsfolgen in voneinander unabhängige Episoden unterteilt sind.
|
|
||||||
Falls die Episoden aufeinander aufbauen und daher Kurzzeitaktionen eine Langzeitwirkung haben, ist die Umgebung \textbf{sequentiell}.
|
|
||||||
\item \textbf{Dynamik:}\\
|
|
||||||
Die Umgebung ist \textbf{dynamisch}, falls sie sich auch dann verändert, wenn der Agent keine Aktion ausführt.
|
|
||||||
Sonst ist sie \textbf{statisch}.
|
|
||||||
\item \textbf{Diskret oder stetig:}\\
|
|
||||||
\begin{itemize}
|
|
||||||
\item Umgebungen, Aktionen und Wahrnehmungen sind \textbf{diskret}, wenn ihre Ausprägungen eine diskrete Menge an Zuständen haben; sonst \textbf{stetig}
|
|
||||||
\item Die Zeit ist \textbf{diskret}, wenn sie sich sprunghaft verändert; sonst \textbf{stetig}
|
|
||||||
\end{itemize}
|
|
||||||
\item \textbf{Einzel- oder Multiagent:}\\
|
|
||||||
Ein \textbf{Einzelagent} löst eigenständig ein Problem, wohingegen \textbf{Multiagentenumgebungen} kooperativ oder konkurrierend sein können
|
|
||||||
\end{itemize}
|
|
||||||
|
|
||||||
\subsubsection{Beispiele}
|
|
||||||
\label{umgebungseigenschaften: beispiele}
|
|
||||||
\includegraphics[width=\textwidth]{beispiele_umgebungseigenschaften.png}
|
|
||||||
|
|
||||||
\section{Agentenprogramme}
|
|
||||||
\label{agentenprogramme}
|
|
||||||
\subsection{Reflex-Agent}
|
|
||||||
\label{reflex-agent}
|
|
||||||
\includegraphics[width=\textwidth]{reflex-agent.png}
|
|
||||||
|
|
||||||
\subsection{Modellbasierter Reflex-Agent}
|
|
||||||
\label{model-based reflex-agent}
|
|
||||||
\includegraphics[width=\textwidth]{model-based_reflex-agent.png}
|
|
||||||
|
|
||||||
\subsection{Zielbasierter Agent}
|
|
||||||
\label{goal-based agent}
|
|
||||||
\includegraphics[width=\textwidth]{goal-based_agent.png}
|
|
||||||
|
|
||||||
\subsection{Nutzenorientierter Agent}
|
|
||||||
\label{utility-oriented agent}
|
|
||||||
\includegraphics[width=\textwidth]{utility-oriented_agent.png}
|
|
||||||
|
|
||||||
\subsection{Lernender Agent}
|
|
||||||
\label{learning agent}
|
|
||||||
\includegraphics[width=\textwidth]{learning_agent.png}
|
|
||||||
|
|
||||||
\subsection{Softwarearchitekturen für Agentenprogramme}
|
|
||||||
\label{software architecture for agent programs}
|
|
||||||
{\large\color{red}Nur Subsumption Architecture gezeigt. Weitere Architekturen in Vorlesung 02!}
|
|
||||||
|
|
||||||
\subsubsection{Subsumption Architecture}
|
|
||||||
\label{subsumption architecture}
|
|
||||||
Rodney Brooks' \say{subsumption architecture} ist besonders gut für den Aufbau von Reflex-Agenten (\ref{reflex-agent}) geeignet,
|
|
||||||
da die Architektur direkt aus der Wahrnehmung eine Aktion erzeugt.
|
|
||||||
Bei dieser Architektur sind die einzelnen Verhaltensziele als priorisierte Schichten aufgebaut.
|
|
||||||
\begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|}
|
|
||||||
\hline
|
|
||||||
\textbf{Vorteile} & \textbf{Nachteile}\\
|
|
||||||
\hline
|
|
||||||
\begin{itemize}
|
|
||||||
\item Einfach (Schichten sind abgeschlossene Verhalten)
|
|
||||||
\item deterministisch (daher echtzeitfähig)
|
|
||||||
\item Parallelität in der Ausführung
|
|
||||||
\end{itemize} &
|
|
||||||
\begin{itemize}
|
|
||||||
\item Verhalten fest implementiert und von Umgebung abhängig
|
|
||||||
\item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar
|
|
||||||
\item keine Langzeitentscheidungen
|
|
||||||
\end{itemize}\\
|
|
||||||
\hline
|
|
||||||
\end{tabular}
|
|
||||||
|
|
||||||
\paragraph{Beispiel: Karte erkunden}\mbox{}\\
|
|
||||||
\includegraphics[width = \textwidth]{beispiel_subsumption_architecture.png}
|
|
||||||
|
14
chapters/Agenten/Leistungsbewertung.tex
Normal file
14
chapters/Agenten/Leistungsbewertung.tex
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
\chapter{Leistungsbewertung}
|
||||||
|
\label{agenten: leistungsbewertung}
|
||||||
|
Die Leistungsbewertung ist individuell für jeden Agenten.
|
||||||
|
Hierbei werden Kriterien für den Erfolg des Verhaltens eines Agenten definiert.
|
||||||
|
Es ist wichtig, dass die Kriterien möglichst gut definiert sind, denn es gilt:\\
|
||||||
|
\say{What you measure is what you get!}\\
|
||||||
|
Oder mit den Worten von Norbert Wiener:\\
|
||||||
|
\say{We had better be quite sure that the purpose put into the machine is the purpose which we really desire}
|
||||||
|
|
||||||
|
\section{Beispiele}
|
||||||
|
\label{leistungsbewertung: beispiele}
|
||||||
|
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_1.png}
|
||||||
|
|
||||||
|
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_2.png}
|
9
chapters/Agenten/Nutzentheorie.tex
Normal file
9
chapters/Agenten/Nutzentheorie.tex
Normal file
@ -0,0 +1,9 @@
|
|||||||
|
\chapter{Nutzentheorie}
|
||||||
|
\label{nutzentheorie}
|
||||||
|
Bei der Nutzentheorie geht es darum durch die Vorgabe einer Nutzenfunktion $U$ den Agenten darin anzuweisen \textbf{WAS} er zu tun hat, \textbf{ohne} ihm zu sagen, \textbf{WIE} er es tun soll.
|
||||||
|
Je besser die aufgestellte Nutzenfunktion $U$ ist, desto näher kommt der Agent an die bestmögliche Leistung heran.
|
||||||
|
Die Nutzenfunktion $U$ ist definiert durch:
|
||||||
|
$$ U:E\rightarrow \mathbb{R}~;E:\text{wahrgenommene Umgebung}$$
|
||||||
|
Jede Aktion $A$, die vom Agenten ausgeführt wird hat die möglichen Ergebniszustände $\text{Ergebnis}_i(A)$.
|
||||||
|
Der erwartete Nutzen $EU$ ist hierbei gegeben durch:
|
||||||
|
$$EU(A|E) = \sum_i P(\text{Ergebnis}_i(A)|\text{Ausführen}(A),E) U(\text{Ergebnis}_i(A))$$
|
33
chapters/Agenten/Umgebung.tex
Normal file
33
chapters/Agenten/Umgebung.tex
Normal file
@ -0,0 +1,33 @@
|
|||||||
|
\chapter{Umgebungen und Arbeitsumgebungen}
|
||||||
|
\label{umgebung und arbeitsumgebung}
|
||||||
|
Die Definition von \ac{PEAS} ist der erste Schritt in der Entwicklung eines Agenten
|
||||||
|
|
||||||
|
\section{\ac{PEAS} Beispiele}
|
||||||
|
\label{peas beispiele}
|
||||||
|
\includegraphics[width=\textwidth]{beispiele_PEAS.png}
|
||||||
|
|
||||||
|
\section{Eigenschaften von Umgebungen}
|
||||||
|
\label{umgebungen: eigenschaften}
|
||||||
|
\begin{itemize}
|
||||||
|
\item \textbf{Beobachtbarkeit:}\\
|
||||||
|
Wenn die Sensorik jederzeit die gesamte Umgebung erfasst ist diese \textbf{vollständig beobachtbar}, sonst \textbf{teilweise beobachtbar}.
|
||||||
|
\item \textbf{Determinismus:}\\
|
||||||
|
Wenn der Folgezustand einer Umgebung vollständig durch den Agentenzustand und seine Aktion bestimmt ist, dann ist diese \textbf{deterministisch}, sonst \textbf{stochastisch}.
|
||||||
|
\item \textbf{Episodisch oder Sequentiell:}\\
|
||||||
|
Eine Umgebung ist \textbf{episodisch}, wenn Wahrnehmungs- und Ausführungsfolgen in voneinander unabhängige Episoden unterteilt sind.
|
||||||
|
Falls die Episoden aufeinander aufbauen und daher Kurzzeitaktionen eine Langzeitwirkung haben, ist die Umgebung \textbf{sequentiell}.
|
||||||
|
\item \textbf{Dynamik:}\\
|
||||||
|
Die Umgebung ist \textbf{dynamisch}, falls sie sich auch dann verändert, wenn der Agent keine Aktion ausführt.
|
||||||
|
Sonst ist sie \textbf{statisch}.
|
||||||
|
\item \textbf{Diskret oder stetig:}\\
|
||||||
|
\begin{itemize}
|
||||||
|
\item Umgebungen, Aktionen und Wahrnehmungen sind \textbf{diskret}, wenn ihre Ausprägungen eine diskrete Menge an Zuständen haben; sonst \textbf{stetig}
|
||||||
|
\item Die Zeit ist \textbf{diskret}, wenn sie sich sprunghaft verändert; sonst \textbf{stetig}
|
||||||
|
\end{itemize}
|
||||||
|
\item \textbf{Einzel- oder Multiagent:}\\
|
||||||
|
Ein \textbf{Einzelagent} löst eigenständig ein Problem, wohingegen \textbf{Multiagentenumgebungen} kooperativ oder konkurrierend sein können
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
\subsection{Beispiele}
|
||||||
|
\label{umgebungseigenschaften: beispiele}
|
||||||
|
\includegraphics[width=\textwidth]{beispiele_umgebungseigenschaften.png}
|
@ -2,3 +2,7 @@
|
|||||||
\label{agenten}
|
\label{agenten}
|
||||||
|
|
||||||
\input{chapters/Agenten/Intelligente Agenten.tex}
|
\input{chapters/Agenten/Intelligente Agenten.tex}
|
||||||
|
\input{chapters/Agenten/Leistungsbewertung.tex}
|
||||||
|
\input{chapters/Agenten/Nutzentheorie.tex}
|
||||||
|
\input{chapters/Agenten/Umgebung.tex}
|
||||||
|
\input{chapters/Agenten/Agentenprogramme.tex}
|
Loading…
x
Reference in New Issue
Block a user