restructured Agenten
This commit is contained in:
parent
d763d77062
commit
776dfe56a2
51
chapters/Agenten/Agentenprogramme.tex
Normal file
51
chapters/Agenten/Agentenprogramme.tex
Normal file
@ -0,0 +1,51 @@
|
||||
\chapter{Agentenprogramme}
|
||||
\label{agentenprogramme}
|
||||
\section{Reflex-Agent}
|
||||
\label{reflex-agent}
|
||||
\includegraphics[width=\textwidth]{reflex-agent.png}
|
||||
|
||||
\section{Modellbasierter Reflex-Agent}
|
||||
\label{model-based reflex-agent}
|
||||
\includegraphics[width=\textwidth]{model-based_reflex-agent.png}
|
||||
|
||||
\section{Zielbasierter Agent}
|
||||
\label{goal-based agent}
|
||||
\includegraphics[width=\textwidth]{goal-based_agent.png}
|
||||
|
||||
\section{Nutzenorientierter Agent}
|
||||
\label{utility-oriented agent}
|
||||
\includegraphics[width=\textwidth]{utility-oriented_agent.png}
|
||||
|
||||
\section{Lernender Agent}
|
||||
\label{learning agent}
|
||||
\includegraphics[width=\textwidth]{learning_agent.png}
|
||||
|
||||
\section{Softwarearchitekturen für Agentenprogramme}
|
||||
\label{software architecture for agent programs}
|
||||
{\large\color{red}Nur Subsumption Architecture gezeigt. Weitere Architekturen in Vorlesung 02!}
|
||||
|
||||
\subsection{Subsumption Architecture}
|
||||
\label{subsumption architecture}
|
||||
Rodney Brooks' \say{subsumption architecture} ist besonders gut für den Aufbau von Reflex-Agenten (\ref{reflex-agent}) geeignet,
|
||||
da die Architektur direkt aus der Wahrnehmung eine Aktion erzeugt.
|
||||
Bei dieser Architektur sind die einzelnen Verhaltensziele als priorisierte Schichten aufgebaut.
|
||||
\begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|}
|
||||
\hline
|
||||
\textbf{Vorteile} & \textbf{Nachteile}\\
|
||||
\hline
|
||||
\begin{itemize}
|
||||
\item Einfach (Schichten sind abgeschlossene Verhalten)
|
||||
\item deterministisch (daher echtzeitfähig)
|
||||
\item Parallelität in der Ausführung
|
||||
\end{itemize} &
|
||||
\begin{itemize}
|
||||
\item Verhalten fest implementiert und von Umgebung abhängig
|
||||
\item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar
|
||||
\item keine Langzeitentscheidungen
|
||||
\end{itemize}\\
|
||||
\hline
|
||||
\end{tabular}
|
||||
|
||||
\subsubsection{Beispiel: Karte erkunden}
|
||||
\label{beispiel: karte erkunden}
|
||||
\includegraphics[width = \textwidth]{beispiel_subsumption_architecture.png}
|
@ -44,113 +44,3 @@
|
||||
Mit anderen Worten: $\asymp$ teilt $S$ in gegenseitig ununterscheidbare Mengen von States.
|
||||
$|\asymp|$ gibt folglich die Effektivität der Sensorik an.
|
||||
Wenn $|\asymp|=|S|$ ist, kann der Agent alle States unterscheiden und ist daher allwissend.
|
||||
|
||||
\section{Leistungsbewertung}
|
||||
\label{agenten: leistungsbewertung}
|
||||
Die Leistungsbewertung ist individuell für jeden Agenten.
|
||||
Hierbei werden Kriterien für den Erfolg des Verhaltens eines Agenten definiert.
|
||||
Es ist wichtig, dass die Kriterien möglichst gut definiert sind, denn es gilt:\\
|
||||
\say{What you measure is what you get!}\\
|
||||
Oder mit den Worten von Norbert Wiener:\\
|
||||
\say{We had better be quite sure that the purpose put into the machine is the purpose which we really desire}
|
||||
|
||||
\subsection{Beispiele}
|
||||
\label{leistungsbewertung: beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_1.png}\\
|
||||
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_2.png}\\
|
||||
|
||||
\section{Nutzentheorie}
|
||||
\label{nutzentheorie}
|
||||
Bei der Nutzentheorie geht es darum durch die Vorgabe einer Nutzenfunktion $U$ den Agenten darin anzuweisen \textbf{WAS} er zu tun hat, \textbf{ohne} ihm zu sagen, \textbf{WIE} er es tun soll.
|
||||
Je besser die aufgestellte Nutzenfunktion $U$ ist, desto näher kommt der Agent an die bestmögliche Leistung heran.
|
||||
Die Nutzenfunktion $U$ ist definiert durch:
|
||||
$$ U:E\rightarrow \mathbb{R}~;E:\text{wahrgenommene Umgebung}$$
|
||||
Jede Aktion $A$, die vom Agenten ausgeführt wird hat die möglichen Ergebniszustände $\text{Ergebnis}_i(A)$.
|
||||
Der erwartete Nutzen $EU$ ist hierbei gegeben durch:
|
||||
$$EU(A|E) = \sum_i P(\text{Ergebnis}_i(A)|\text{Ausführen}(A),E) U(\text{Ergebnis}_i(A))$$
|
||||
|
||||
|
||||
\section{Umgebungen und Arbeitsumgebungen}
|
||||
\label{umgebung und arbeitsumgebung}
|
||||
Die Definition von \ac{PEAS} ist der erste Schritt in der Entwicklung eines Agenten
|
||||
|
||||
\subsection{\ac{PEAS} Beispiele}
|
||||
\label{peas beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_PEAS.png}
|
||||
|
||||
\subsection{Eigenschaften von Umgebungen}
|
||||
\label{umgebungen: eigenschaften}
|
||||
\begin{itemize}
|
||||
\item \textbf{Beobachtbarkeit:}\\
|
||||
Wenn die Sensorik jederzeit die gesamte Umgebung erfasst ist diese \textbf{vollständig beobachtbar}, sonst \textbf{teilweise beobachtbar}.
|
||||
\item \textbf{Determinismus:}\\
|
||||
Wenn der Folgezustand einer Umgebung vollständig durch den Agentenzustand und seine Aktion bestimmt ist, dann ist diese \textbf{deterministisch}, sonst \textbf{stochastisch}.
|
||||
\item \textbf{Episodisch oder Sequentiell:}\\
|
||||
Eine Umgebung ist \textbf{episodisch}, wenn Wahrnehmungs- und Ausführungsfolgen in voneinander unabhängige Episoden unterteilt sind.
|
||||
Falls die Episoden aufeinander aufbauen und daher Kurzzeitaktionen eine Langzeitwirkung haben, ist die Umgebung \textbf{sequentiell}.
|
||||
\item \textbf{Dynamik:}\\
|
||||
Die Umgebung ist \textbf{dynamisch}, falls sie sich auch dann verändert, wenn der Agent keine Aktion ausführt.
|
||||
Sonst ist sie \textbf{statisch}.
|
||||
\item \textbf{Diskret oder stetig:}\\
|
||||
\begin{itemize}
|
||||
\item Umgebungen, Aktionen und Wahrnehmungen sind \textbf{diskret}, wenn ihre Ausprägungen eine diskrete Menge an Zuständen haben; sonst \textbf{stetig}
|
||||
\item Die Zeit ist \textbf{diskret}, wenn sie sich sprunghaft verändert; sonst \textbf{stetig}
|
||||
\end{itemize}
|
||||
\item \textbf{Einzel- oder Multiagent:}\\
|
||||
Ein \textbf{Einzelagent} löst eigenständig ein Problem, wohingegen \textbf{Multiagentenumgebungen} kooperativ oder konkurrierend sein können
|
||||
\end{itemize}
|
||||
|
||||
\subsubsection{Beispiele}
|
||||
\label{umgebungseigenschaften: beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_umgebungseigenschaften.png}
|
||||
|
||||
\section{Agentenprogramme}
|
||||
\label{agentenprogramme}
|
||||
\subsection{Reflex-Agent}
|
||||
\label{reflex-agent}
|
||||
\includegraphics[width=\textwidth]{reflex-agent.png}
|
||||
|
||||
\subsection{Modellbasierter Reflex-Agent}
|
||||
\label{model-based reflex-agent}
|
||||
\includegraphics[width=\textwidth]{model-based_reflex-agent.png}
|
||||
|
||||
\subsection{Zielbasierter Agent}
|
||||
\label{goal-based agent}
|
||||
\includegraphics[width=\textwidth]{goal-based_agent.png}
|
||||
|
||||
\subsection{Nutzenorientierter Agent}
|
||||
\label{utility-oriented agent}
|
||||
\includegraphics[width=\textwidth]{utility-oriented_agent.png}
|
||||
|
||||
\subsection{Lernender Agent}
|
||||
\label{learning agent}
|
||||
\includegraphics[width=\textwidth]{learning_agent.png}
|
||||
|
||||
\subsection{Softwarearchitekturen für Agentenprogramme}
|
||||
\label{software architecture for agent programs}
|
||||
{\large\color{red}Nur Subsumption Architecture gezeigt. Weitere Architekturen in Vorlesung 02!}
|
||||
|
||||
\subsubsection{Subsumption Architecture}
|
||||
\label{subsumption architecture}
|
||||
Rodney Brooks' \say{subsumption architecture} ist besonders gut für den Aufbau von Reflex-Agenten (\ref{reflex-agent}) geeignet,
|
||||
da die Architektur direkt aus der Wahrnehmung eine Aktion erzeugt.
|
||||
Bei dieser Architektur sind die einzelnen Verhaltensziele als priorisierte Schichten aufgebaut.
|
||||
\begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|}
|
||||
\hline
|
||||
\textbf{Vorteile} & \textbf{Nachteile}\\
|
||||
\hline
|
||||
\begin{itemize}
|
||||
\item Einfach (Schichten sind abgeschlossene Verhalten)
|
||||
\item deterministisch (daher echtzeitfähig)
|
||||
\item Parallelität in der Ausführung
|
||||
\end{itemize} &
|
||||
\begin{itemize}
|
||||
\item Verhalten fest implementiert und von Umgebung abhängig
|
||||
\item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar
|
||||
\item keine Langzeitentscheidungen
|
||||
\end{itemize}\\
|
||||
\hline
|
||||
\end{tabular}
|
||||
|
||||
\paragraph{Beispiel: Karte erkunden}\mbox{}\\
|
||||
\includegraphics[width = \textwidth]{beispiel_subsumption_architecture.png}
|
||||
|
14
chapters/Agenten/Leistungsbewertung.tex
Normal file
14
chapters/Agenten/Leistungsbewertung.tex
Normal file
@ -0,0 +1,14 @@
|
||||
\chapter{Leistungsbewertung}
|
||||
\label{agenten: leistungsbewertung}
|
||||
Die Leistungsbewertung ist individuell für jeden Agenten.
|
||||
Hierbei werden Kriterien für den Erfolg des Verhaltens eines Agenten definiert.
|
||||
Es ist wichtig, dass die Kriterien möglichst gut definiert sind, denn es gilt:\\
|
||||
\say{What you measure is what you get!}\\
|
||||
Oder mit den Worten von Norbert Wiener:\\
|
||||
\say{We had better be quite sure that the purpose put into the machine is the purpose which we really desire}
|
||||
|
||||
\section{Beispiele}
|
||||
\label{leistungsbewertung: beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_1.png}
|
||||
|
||||
\includegraphics[width=\textwidth]{beispiele_leistungsbewertung_2.png}
|
9
chapters/Agenten/Nutzentheorie.tex
Normal file
9
chapters/Agenten/Nutzentheorie.tex
Normal file
@ -0,0 +1,9 @@
|
||||
\chapter{Nutzentheorie}
|
||||
\label{nutzentheorie}
|
||||
Bei der Nutzentheorie geht es darum durch die Vorgabe einer Nutzenfunktion $U$ den Agenten darin anzuweisen \textbf{WAS} er zu tun hat, \textbf{ohne} ihm zu sagen, \textbf{WIE} er es tun soll.
|
||||
Je besser die aufgestellte Nutzenfunktion $U$ ist, desto näher kommt der Agent an die bestmögliche Leistung heran.
|
||||
Die Nutzenfunktion $U$ ist definiert durch:
|
||||
$$ U:E\rightarrow \mathbb{R}~;E:\text{wahrgenommene Umgebung}$$
|
||||
Jede Aktion $A$, die vom Agenten ausgeführt wird hat die möglichen Ergebniszustände $\text{Ergebnis}_i(A)$.
|
||||
Der erwartete Nutzen $EU$ ist hierbei gegeben durch:
|
||||
$$EU(A|E) = \sum_i P(\text{Ergebnis}_i(A)|\text{Ausführen}(A),E) U(\text{Ergebnis}_i(A))$$
|
33
chapters/Agenten/Umgebung.tex
Normal file
33
chapters/Agenten/Umgebung.tex
Normal file
@ -0,0 +1,33 @@
|
||||
\chapter{Umgebungen und Arbeitsumgebungen}
|
||||
\label{umgebung und arbeitsumgebung}
|
||||
Die Definition von \ac{PEAS} ist der erste Schritt in der Entwicklung eines Agenten
|
||||
|
||||
\section{\ac{PEAS} Beispiele}
|
||||
\label{peas beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_PEAS.png}
|
||||
|
||||
\section{Eigenschaften von Umgebungen}
|
||||
\label{umgebungen: eigenschaften}
|
||||
\begin{itemize}
|
||||
\item \textbf{Beobachtbarkeit:}\\
|
||||
Wenn die Sensorik jederzeit die gesamte Umgebung erfasst ist diese \textbf{vollständig beobachtbar}, sonst \textbf{teilweise beobachtbar}.
|
||||
\item \textbf{Determinismus:}\\
|
||||
Wenn der Folgezustand einer Umgebung vollständig durch den Agentenzustand und seine Aktion bestimmt ist, dann ist diese \textbf{deterministisch}, sonst \textbf{stochastisch}.
|
||||
\item \textbf{Episodisch oder Sequentiell:}\\
|
||||
Eine Umgebung ist \textbf{episodisch}, wenn Wahrnehmungs- und Ausführungsfolgen in voneinander unabhängige Episoden unterteilt sind.
|
||||
Falls die Episoden aufeinander aufbauen und daher Kurzzeitaktionen eine Langzeitwirkung haben, ist die Umgebung \textbf{sequentiell}.
|
||||
\item \textbf{Dynamik:}\\
|
||||
Die Umgebung ist \textbf{dynamisch}, falls sie sich auch dann verändert, wenn der Agent keine Aktion ausführt.
|
||||
Sonst ist sie \textbf{statisch}.
|
||||
\item \textbf{Diskret oder stetig:}\\
|
||||
\begin{itemize}
|
||||
\item Umgebungen, Aktionen und Wahrnehmungen sind \textbf{diskret}, wenn ihre Ausprägungen eine diskrete Menge an Zuständen haben; sonst \textbf{stetig}
|
||||
\item Die Zeit ist \textbf{diskret}, wenn sie sich sprunghaft verändert; sonst \textbf{stetig}
|
||||
\end{itemize}
|
||||
\item \textbf{Einzel- oder Multiagent:}\\
|
||||
Ein \textbf{Einzelagent} löst eigenständig ein Problem, wohingegen \textbf{Multiagentenumgebungen} kooperativ oder konkurrierend sein können
|
||||
\end{itemize}
|
||||
|
||||
\subsection{Beispiele}
|
||||
\label{umgebungseigenschaften: beispiele}
|
||||
\includegraphics[width=\textwidth]{beispiele_umgebungseigenschaften.png}
|
@ -1,4 +1,8 @@
|
||||
\part{Agenten}
|
||||
\label{agenten}
|
||||
|
||||
\input{chapters/Agenten/Intelligente Agenten.tex}
|
||||
\input{chapters/Agenten/Intelligente Agenten.tex}
|
||||
\input{chapters/Agenten/Leistungsbewertung.tex}
|
||||
\input{chapters/Agenten/Nutzentheorie.tex}
|
||||
\input{chapters/Agenten/Umgebung.tex}
|
||||
\input{chapters/Agenten/Agentenprogramme.tex}
|
Loading…
x
Reference in New Issue
Block a user