From 776dfe56a2a415fd858f415c4cd23eb7bafbdf81 Mon Sep 17 00:00:00 2001 From: paul-loedige Date: Tue, 2 Feb 2021 11:32:54 +0100 Subject: [PATCH] restructured Agenten --- chapters/Agenten/Agentenprogramme.tex | 51 ++++++++++ chapters/Agenten/Intelligente Agenten.tex | 110 ---------------------- chapters/Agenten/Leistungsbewertung.tex | 14 +++ chapters/Agenten/Nutzentheorie.tex | 9 ++ chapters/Agenten/Umgebung.tex | 33 +++++++ parts/Agenten.tex | 6 +- 6 files changed, 112 insertions(+), 111 deletions(-) create mode 100644 chapters/Agenten/Agentenprogramme.tex create mode 100644 chapters/Agenten/Leistungsbewertung.tex create mode 100644 chapters/Agenten/Nutzentheorie.tex create mode 100644 chapters/Agenten/Umgebung.tex diff --git a/chapters/Agenten/Agentenprogramme.tex b/chapters/Agenten/Agentenprogramme.tex new file mode 100644 index 0000000..db418a1 --- /dev/null +++ b/chapters/Agenten/Agentenprogramme.tex @@ -0,0 +1,51 @@ +\chapter{Agentenprogramme} +\label{agentenprogramme} + \section{Reflex-Agent} + \label{reflex-agent} + \includegraphics[width=\textwidth]{reflex-agent.png} + + \section{Modellbasierter Reflex-Agent} + \label{model-based reflex-agent} + \includegraphics[width=\textwidth]{model-based_reflex-agent.png} + + \section{Zielbasierter Agent} + \label{goal-based agent} + \includegraphics[width=\textwidth]{goal-based_agent.png} + + \section{Nutzenorientierter Agent} + \label{utility-oriented agent} + \includegraphics[width=\textwidth]{utility-oriented_agent.png} + + \section{Lernender Agent} + \label{learning agent} + \includegraphics[width=\textwidth]{learning_agent.png} + + \section{Softwarearchitekturen für Agentenprogramme} + \label{software architecture for agent programs} + {\large\color{red}Nur Subsumption Architecture gezeigt. Weitere Architekturen in Vorlesung 02!} + + \subsection{Subsumption Architecture} + \label{subsumption architecture} + Rodney Brooks' \say{subsumption architecture} ist besonders gut für den Aufbau von Reflex-Agenten (\ref{reflex-agent}) geeignet, + da die Architektur direkt aus der Wahrnehmung eine Aktion erzeugt. + Bei dieser Architektur sind die einzelnen Verhaltensziele als priorisierte Schichten aufgebaut. + \begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|} + \hline + \textbf{Vorteile} & \textbf{Nachteile}\\ + \hline + \begin{itemize} + \item Einfach (Schichten sind abgeschlossene Verhalten) + \item deterministisch (daher echtzeitfähig) + \item Parallelität in der Ausführung + \end{itemize} & + \begin{itemize} + \item Verhalten fest implementiert und von Umgebung abhängig + \item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar + \item keine Langzeitentscheidungen + \end{itemize}\\ + \hline + \end{tabular} + + \subsubsection{Beispiel: Karte erkunden} + \label{beispiel: karte erkunden} + \includegraphics[width = \textwidth]{beispiel_subsumption_architecture.png} \ No newline at end of file diff --git a/chapters/Agenten/Intelligente Agenten.tex b/chapters/Agenten/Intelligente Agenten.tex index 64f5775..54ee213 100644 --- a/chapters/Agenten/Intelligente Agenten.tex +++ b/chapters/Agenten/Intelligente Agenten.tex @@ -44,113 +44,3 @@ Mit anderen Worten: $\asymp$ teilt $S$ in gegenseitig ununterscheidbare Mengen von States. $|\asymp|$ gibt folglich die Effektivität der Sensorik an. Wenn $|\asymp|=|S|$ ist, kann der Agent alle States unterscheiden und ist daher allwissend. - - \section{Leistungsbewertung} - \label{agenten: leistungsbewertung} - Die Leistungsbewertung ist individuell für jeden Agenten. - Hierbei werden Kriterien für den Erfolg des Verhaltens eines Agenten definiert. - Es ist wichtig, dass die Kriterien möglichst gut definiert sind, denn es gilt:\\ - \say{What you measure is what you get!}\\ - Oder mit den Worten von Norbert Wiener:\\ - \say{We had better be quite sure that the purpose put into the machine is the purpose which we really desire} - - \subsection{Beispiele} - \label{leistungsbewertung: beispiele} - \includegraphics[width=\textwidth]{beispiele_leistungsbewertung_1.png}\\ - \includegraphics[width=\textwidth]{beispiele_leistungsbewertung_2.png}\\ - - \section{Nutzentheorie} - \label{nutzentheorie} - Bei der Nutzentheorie geht es darum durch die Vorgabe einer Nutzenfunktion $U$ den Agenten darin anzuweisen \textbf{WAS} er zu tun hat, \textbf{ohne} ihm zu sagen, \textbf{WIE} er es tun soll. - Je besser die aufgestellte Nutzenfunktion $U$ ist, desto näher kommt der Agent an die bestmögliche Leistung heran. - Die Nutzenfunktion $U$ ist definiert durch: - $$ U:E\rightarrow \mathbb{R}~;E:\text{wahrgenommene Umgebung}$$ - Jede Aktion $A$, die vom Agenten ausgeführt wird hat die möglichen Ergebniszustände $\text{Ergebnis}_i(A)$. - Der erwartete Nutzen $EU$ ist hierbei gegeben durch: - $$EU(A|E) = \sum_i P(\text{Ergebnis}_i(A)|\text{Ausführen}(A),E) U(\text{Ergebnis}_i(A))$$ - - - \section{Umgebungen und Arbeitsumgebungen} - \label{umgebung und arbeitsumgebung} - Die Definition von \ac{PEAS} ist der erste Schritt in der Entwicklung eines Agenten - - \subsection{\ac{PEAS} Beispiele} - \label{peas beispiele} - \includegraphics[width=\textwidth]{beispiele_PEAS.png} - - \subsection{Eigenschaften von Umgebungen} - \label{umgebungen: eigenschaften} - \begin{itemize} - \item \textbf{Beobachtbarkeit:}\\ - Wenn die Sensorik jederzeit die gesamte Umgebung erfasst ist diese \textbf{vollständig beobachtbar}, sonst \textbf{teilweise beobachtbar}. - \item \textbf{Determinismus:}\\ - Wenn der Folgezustand einer Umgebung vollständig durch den Agentenzustand und seine Aktion bestimmt ist, dann ist diese \textbf{deterministisch}, sonst \textbf{stochastisch}. - \item \textbf{Episodisch oder Sequentiell:}\\ - Eine Umgebung ist \textbf{episodisch}, wenn Wahrnehmungs- und Ausführungsfolgen in voneinander unabhängige Episoden unterteilt sind. - Falls die Episoden aufeinander aufbauen und daher Kurzzeitaktionen eine Langzeitwirkung haben, ist die Umgebung \textbf{sequentiell}. - \item \textbf{Dynamik:}\\ - Die Umgebung ist \textbf{dynamisch}, falls sie sich auch dann verändert, wenn der Agent keine Aktion ausführt. - Sonst ist sie \textbf{statisch}. - \item \textbf{Diskret oder stetig:}\\ - \begin{itemize} - \item Umgebungen, Aktionen und Wahrnehmungen sind \textbf{diskret}, wenn ihre Ausprägungen eine diskrete Menge an Zuständen haben; sonst \textbf{stetig} - \item Die Zeit ist \textbf{diskret}, wenn sie sich sprunghaft verändert; sonst \textbf{stetig} - \end{itemize} - \item \textbf{Einzel- oder Multiagent:}\\ - Ein \textbf{Einzelagent} löst eigenständig ein Problem, wohingegen \textbf{Multiagentenumgebungen} kooperativ oder konkurrierend sein können - \end{itemize} - - \subsubsection{Beispiele} - \label{umgebungseigenschaften: beispiele} - \includegraphics[width=\textwidth]{beispiele_umgebungseigenschaften.png} - - \section{Agentenprogramme} - \label{agentenprogramme} - \subsection{Reflex-Agent} - \label{reflex-agent} - \includegraphics[width=\textwidth]{reflex-agent.png} - - \subsection{Modellbasierter Reflex-Agent} - \label{model-based reflex-agent} - \includegraphics[width=\textwidth]{model-based_reflex-agent.png} - - \subsection{Zielbasierter Agent} - \label{goal-based agent} - \includegraphics[width=\textwidth]{goal-based_agent.png} - - \subsection{Nutzenorientierter Agent} - \label{utility-oriented agent} - \includegraphics[width=\textwidth]{utility-oriented_agent.png} - - \subsection{Lernender Agent} - \label{learning agent} - \includegraphics[width=\textwidth]{learning_agent.png} - - \subsection{Softwarearchitekturen für Agentenprogramme} - \label{software architecture for agent programs} - {\large\color{red}Nur Subsumption Architecture gezeigt. Weitere Architekturen in Vorlesung 02!} - - \subsubsection{Subsumption Architecture} - \label{subsumption architecture} - Rodney Brooks' \say{subsumption architecture} ist besonders gut für den Aufbau von Reflex-Agenten (\ref{reflex-agent}) geeignet, - da die Architektur direkt aus der Wahrnehmung eine Aktion erzeugt. - Bei dieser Architektur sind die einzelnen Verhaltensziele als priorisierte Schichten aufgebaut. - \begin{tabular}{|p{.475\textwidth}|p{.475\textwidth}|} - \hline - \textbf{Vorteile} & \textbf{Nachteile}\\ - \hline - \begin{itemize} - \item Einfach (Schichten sind abgeschlossene Verhalten) - \item deterministisch (daher echtzeitfähig) - \item Parallelität in der Ausführung - \end{itemize} & - \begin{itemize} - \item Verhalten fest implementiert und von Umgebung abhängig - \item Gesamtverhalten aufgrund von der dynamischen Aktionsauswahl schwer abschätzbar - \item keine Langzeitentscheidungen - \end{itemize}\\ - \hline - \end{tabular} - - \paragraph{Beispiel: Karte erkunden}\mbox{}\\ - \includegraphics[width = \textwidth]{beispiel_subsumption_architecture.png} diff --git a/chapters/Agenten/Leistungsbewertung.tex b/chapters/Agenten/Leistungsbewertung.tex new file mode 100644 index 0000000..49854f6 --- /dev/null +++ b/chapters/Agenten/Leistungsbewertung.tex @@ -0,0 +1,14 @@ +\chapter{Leistungsbewertung} +\label{agenten: leistungsbewertung} + Die Leistungsbewertung ist individuell für jeden Agenten. + Hierbei werden Kriterien für den Erfolg des Verhaltens eines Agenten definiert. + Es ist wichtig, dass die Kriterien möglichst gut definiert sind, denn es gilt:\\ + \say{What you measure is what you get!}\\ + Oder mit den Worten von Norbert Wiener:\\ + \say{We had better be quite sure that the purpose put into the machine is the purpose which we really desire} + + \section{Beispiele} + \label{leistungsbewertung: beispiele} + \includegraphics[width=\textwidth]{beispiele_leistungsbewertung_1.png} + + \includegraphics[width=\textwidth]{beispiele_leistungsbewertung_2.png} diff --git a/chapters/Agenten/Nutzentheorie.tex b/chapters/Agenten/Nutzentheorie.tex new file mode 100644 index 0000000..4e81ba7 --- /dev/null +++ b/chapters/Agenten/Nutzentheorie.tex @@ -0,0 +1,9 @@ +\chapter{Nutzentheorie} +\label{nutzentheorie} + Bei der Nutzentheorie geht es darum durch die Vorgabe einer Nutzenfunktion $U$ den Agenten darin anzuweisen \textbf{WAS} er zu tun hat, \textbf{ohne} ihm zu sagen, \textbf{WIE} er es tun soll. + Je besser die aufgestellte Nutzenfunktion $U$ ist, desto näher kommt der Agent an die bestmögliche Leistung heran. + Die Nutzenfunktion $U$ ist definiert durch: + $$ U:E\rightarrow \mathbb{R}~;E:\text{wahrgenommene Umgebung}$$ + Jede Aktion $A$, die vom Agenten ausgeführt wird hat die möglichen Ergebniszustände $\text{Ergebnis}_i(A)$. + Der erwartete Nutzen $EU$ ist hierbei gegeben durch: + $$EU(A|E) = \sum_i P(\text{Ergebnis}_i(A)|\text{Ausführen}(A),E) U(\text{Ergebnis}_i(A))$$ \ No newline at end of file diff --git a/chapters/Agenten/Umgebung.tex b/chapters/Agenten/Umgebung.tex new file mode 100644 index 0000000..603cd52 --- /dev/null +++ b/chapters/Agenten/Umgebung.tex @@ -0,0 +1,33 @@ +\chapter{Umgebungen und Arbeitsumgebungen} +\label{umgebung und arbeitsumgebung} + Die Definition von \ac{PEAS} ist der erste Schritt in der Entwicklung eines Agenten + + \section{\ac{PEAS} Beispiele} + \label{peas beispiele} + \includegraphics[width=\textwidth]{beispiele_PEAS.png} + + \section{Eigenschaften von Umgebungen} + \label{umgebungen: eigenschaften} + \begin{itemize} + \item \textbf{Beobachtbarkeit:}\\ + Wenn die Sensorik jederzeit die gesamte Umgebung erfasst ist diese \textbf{vollständig beobachtbar}, sonst \textbf{teilweise beobachtbar}. + \item \textbf{Determinismus:}\\ + Wenn der Folgezustand einer Umgebung vollständig durch den Agentenzustand und seine Aktion bestimmt ist, dann ist diese \textbf{deterministisch}, sonst \textbf{stochastisch}. + \item \textbf{Episodisch oder Sequentiell:}\\ + Eine Umgebung ist \textbf{episodisch}, wenn Wahrnehmungs- und Ausführungsfolgen in voneinander unabhängige Episoden unterteilt sind. + Falls die Episoden aufeinander aufbauen und daher Kurzzeitaktionen eine Langzeitwirkung haben, ist die Umgebung \textbf{sequentiell}. + \item \textbf{Dynamik:}\\ + Die Umgebung ist \textbf{dynamisch}, falls sie sich auch dann verändert, wenn der Agent keine Aktion ausführt. + Sonst ist sie \textbf{statisch}. + \item \textbf{Diskret oder stetig:}\\ + \begin{itemize} + \item Umgebungen, Aktionen und Wahrnehmungen sind \textbf{diskret}, wenn ihre Ausprägungen eine diskrete Menge an Zuständen haben; sonst \textbf{stetig} + \item Die Zeit ist \textbf{diskret}, wenn sie sich sprunghaft verändert; sonst \textbf{stetig} + \end{itemize} + \item \textbf{Einzel- oder Multiagent:}\\ + Ein \textbf{Einzelagent} löst eigenständig ein Problem, wohingegen \textbf{Multiagentenumgebungen} kooperativ oder konkurrierend sein können + \end{itemize} + + \subsection{Beispiele} + \label{umgebungseigenschaften: beispiele} + \includegraphics[width=\textwidth]{beispiele_umgebungseigenschaften.png} diff --git a/parts/Agenten.tex b/parts/Agenten.tex index 20056eb..47de367 100644 --- a/parts/Agenten.tex +++ b/parts/Agenten.tex @@ -1,4 +1,8 @@ \part{Agenten} \label{agenten} - \input{chapters/Agenten/Intelligente Agenten.tex} \ No newline at end of file + \input{chapters/Agenten/Intelligente Agenten.tex} + \input{chapters/Agenten/Leistungsbewertung.tex} + \input{chapters/Agenten/Nutzentheorie.tex} + \input{chapters/Agenten/Umgebung.tex} + \input{chapters/Agenten/Agentenprogramme.tex} \ No newline at end of file