Erklärbare KI

Glossar
SchlüsselwörterErklärbare Artificial Intelligence
TypKI

Erklärbare Künstliche Intelligenz (KI) macht es Anwendern möglich, Lösungswege von Prozessen interpretierbar [nachvollziehbar] zu machen.

Erklärbare KI hat das Ziel, durch Nachvollziehbarkeit vertrauenswürdiger für seine Anwender zu werden. Durch die Erklärung der Ergebnisfindung soll der Prozess transparenter und eine höhere Akzeptanz gegenüber KI-basierten Systemen gefördert werden. Gleichzeitig wird darauf abgezielt die Bewertung von algorithmischen Urteilen zu ermöglichen, um diese zu prüfen und gegebenenfalls Inkorrektheiten beheben zu können.

Die Herausforderung besteht jedoch darin, dies technisch möglich zu machen. Einige Methoden geben unabhängig von der eingesetzten KI-Methode Erklärungen zur Entscheidungsfindung ab. Somit sind diese aber nur sehr ungenau und nach wie vor zum größten Teil intransparent. Je leistungsfähiger und komplexer solche KI-basierten Systeme sind (bspw. Künstliche Neuronale Netze - KNN), desto schwieriger wird es Urteile oder Entschlüsse abzubilden.

Eine gängige Methode ist die layer-wise relevance propagation (LRP). Diese Methode versucht KNNs erklärbar zu machen und wird überwiegend in der Bilderkennung genutzt. Hier ist der Ausgangspunkt der Output, der bis zu einem gewissen Grad zurückverfolgt wird und anschließend mit einem Wärmebild dem Nutzer zeigt, welche Bildbereiche besonders für die Klassifikation verantwortlich sind.

Weiterführende Informationen