Erklärbarkeit und Zuverlässigkeit hinzugefügt

This commit is contained in:
paul-loedige 2021-02-04 14:53:00 +01:00
parent 105e441c4b
commit 1638547010
9 changed files with 51 additions and 1 deletions

View File

@ -8,3 +8,4 @@
\input{parts/Logik.tex} \input{parts/Logik.tex}
\input{parts/Maschinelles Lernen.tex} \input{parts/Maschinelles Lernen.tex}
\input{parts/Semi-supervised Learning.tex} \input{parts/Semi-supervised Learning.tex}
\input{parts/Problematiken.tex}

View File

@ -0,0 +1,18 @@
\chapter{Erklärbarkeit}
\label{erklaerbarkeit}
Das Ziel der Erklärbarkeit ist es genügend Informationen über ein System zu sammeln, um eine Entscheidung des Systems erklären zu können.
\section{Verfahren}
\label{erklaerbarkeit: verfahren}
\includegraphics[width = \textwidth]{black-box_explanations.png}
\section{Heatmaps}
\label{erklaerbarkeit: heatmaps}
Mithilfe der \say{Layer-Wise Relevance Propagation} ist es möglich herauszufinden,
welche Eigenschaften der Eingabe einen großen bzw. kleinen Einfluss auf die Ausgabe gehabt haben.\\
\includegraphics[width = .8\textwidth]{layer-wise_relevance_propagation.png}\\
Die graphische Darstellung der Relevanz erfolgt häufig in Form einer Heatmap:\\
\includegraphics[width = \textwidth]{validierung_gesichtsklassifikator.png}
Eine solche Heatmap erlaubt es dem Menschen einzuschätzen, ob die Merkmale, die ein Modell für die Ausgabe verwendet sinnvoll sind.
Jedoch auch dies nur eingeschränkt, da die Heatmap keine Information darüber gibt, wie die Datenpunkte die Ausgabe beeinflussen.\\
\includegraphics[width =\textwidth]{heatmap_husky_flute.png}

View File

@ -0,0 +1,26 @@
\chapter{Zuverlässigkeit und Vertrauen}
\label{zuverlaessigkeit und vertrauen}
Da viele \ac{ML}-Modelle (\ref{ml}) als Blackbox-Modelle implementiert sind ist es schwer (bis unmöglich) sie zu verifizieren.
Dies kann entweder daran liegen, dass sie zu kompliziert sind um vom Menschen verstanden zu werden oder daran, dass ihr Inhalt proprietär ist.
Dies macht es wiederum sehr schwer Fehlern nachzugehen.
Manche dieser Fehler können fatale Folgen haben:
\begin{itemize}
\item Produktionsausfall (durch unentdeckten Systemfehler)
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
\item \dots
\end{itemize}
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.
\section{Zertifizierung von \ac{KI}}
\label{zertifizierung ki}
Mithilfe von Zertifizierungen, die von einer unabhängigen stelle ausgestellt werden,
kann eine Übersicht über die Zuverlässigkeit einzelner \acp{KI} erstellt werden.
Dies hat mehrere Vorteile:
\begin{itemize}
\item Eine Zertifizierung macht zuverlässige und sichere Technologien erkennbar
\item Eine Zertifizierung leistet einen Beitrag zur Akzeptanz von \ac{KI} in der Gesellschaft
\end{itemize}
\paragraph{Handlungsfelder einer Zertifizierung}\mbox{}\\
\includegraphics[width = \textwidth]{handlungsfelder_zertifizierungen.png}

Binary file not shown.

After

Width:  |  Height:  |  Size: 237 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 165 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 66 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 73 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 262 KiB

5
parts/Problematiken.tex Normal file
View File

@ -0,0 +1,5 @@
\part{Problematiken}
\label{problematiken}
\input{chapters/Problematiken/Zuverlässigkeit und Vertrauen.tex}
\input{chapters/Problematiken/Erklärbarkeit.tex}