KI_Zusammenfassung/chapters/Problematiken/Zuverlässigkeit und Vertrauen.tex

26 lines
1.6 KiB
TeX

\chapter{Zuverlässigkeit und Vertrauen}
\label{zuverlaessigkeit und vertrauen}
Da viele \ac{ML}-Modelle (\ref{ml}) als Blackbox-Modelle implementiert sind ist es schwer (bis unmöglich) sie zu verifizieren.
Dies kann entweder daran liegen, dass sie zu kompliziert sind um vom Menschen verstanden zu werden oder daran, dass ihr Inhalt proprietär ist.
Dies macht es wiederum sehr schwer Fehlern nachzugehen.
Manche dieser Fehler können fatale Folgen haben:
\begin{itemize}
\item Produktionsausfall (durch unentdeckten Systemfehler)
\item Rechtliche Konsequenzen (z.B. durch diskriminierende Bewertung (meist durch schlechte Wahl der Trainingsdaten (\ref{bias})))
\item Gefahr für Menschen (z.B. Auto erkennt Fußgänger nicht)
\end{itemize}
Folglich muss ein System, dem vertraut werden soll, Informationen über den internen Algorithmus geben.
\section{Zertifizierung von \ac{KI}}
\label{zertifizierung ki}
Mithilfe von Zertifizierungen, die von einer unabhängigen stelle ausgestellt werden,
kann eine Übersicht über die Zuverlässigkeit einzelner \acp{KI} erstellt werden.
Dies hat mehrere Vorteile:
\begin{itemize}
\item Eine Zertifizierung macht zuverlässige und sichere Technologien erkennbar
\item Eine Zertifizierung leistet einen Beitrag zur Akzeptanz von \ac{KI} in der Gesellschaft
\end{itemize}
\paragraph{Handlungsfelder einer Zertifizierung}\mbox{}\\
\includegraphics[width = \textwidth]{handlungsfelder_zertifizierungen.png}