Feld

Explainable AI (XAI)

Explainable AI (XAI) oder 'Erklärbare KI' ist ein Forschungsfeld, das als Reaktion auf die Undurchsichtigkeit ('Black Box'-Natur) moderner Deep-Learning-Algorithmen entstanden ist. Während ein einfacher Entscheidungsbaum leicht lesbar ist, ist ein neuronales Netz mit Milliarden Parametern für Menschen unverständlich. Wenn eine KI einen Kreditantrag ablehnt oder eine medizinische Diagnose stellt, muss sie dies aber begründen können, um Vertrauen zu schaffen, Fehler zu finden und gesetzliche Vorgaben (z.B. 'Recht auf Erklärung' in der DSGVO) zu erfüllen.

XAI entwickelt Methoden wie 'Feature Importance' (Welche Eingabe war ausschlaggebend?), 'Attention Maps' (Wohin hat die KI im Bild geschaut?) oder 'Counterfactuals' (Was müsste sich ändern, damit der Kredit genehmigt wird?), um die Entscheidungsfindung transparent zu machen.

Trust Transparency