26 lines
1.6 KiB
TeX
26 lines
1.6 KiB
TeX
\chapter{Zuverlässigkeit und Vertrauen}
|
|
\label{zuverlaessigkeit und vertrauen}
|
|
Da viele \ac{ML}-Modelle (\ref{ml}) als Blackbox-Modelle implementiert sind ist es schwer (bis unmöglich) sie zu verifizieren.
|
|
Dies kann entweder daran liegen, dass sie zu kompliziert sind um vom Menschen verstanden zu werden oder daran, dass ihr Inhalt proprietär ist.
|
|
Dies macht es wiederum sehr schwer Fehlern nachzugehen.
|
|
Manche dieser Fehler können fatale Folgen haben:
|
|
\begin{itemize}
|
|
\item Produktionsausfall (durch unentdeckten Systemfehler)
|
|
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
|
|
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
|
|
\end{itemize}
|
|
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.
|
|
|
|
\section{Zertifizierung von \ac{KI}}
|
|
\label{zertifizierung ki}
|
|
Mithilfe von Zertifizierungen, die von einer unabhängigen stelle ausgestellt werden,
|
|
kann eine Übersicht über die Zuverlässigkeit einzelner \acp{KI} erstellt werden.
|
|
Dies hat mehrere Vorteile:
|
|
\begin{itemize}
|
|
\item Eine Zertifizierung macht zuverlässige und sichere Technologien erkennbar
|
|
\item Eine Zertifizierung leistet einen Beitrag zur Akzeptanz von \ac{KI} in der Gesellschaft
|
|
\end{itemize}
|
|
|
|
\paragraph{Handlungsfelder einer Zertifizierung}\mbox{}\\
|
|
\includegraphics[width = \textwidth]{handlungsfelder_zertifizierungen.png}
|