K√ľnstliche Intelligenz KI

eXplainable AI

Warum es wichtig ist, dass wir die Ergebnisse von KI-Systeme verstehen.

Explainable AI

Explainable AI oder XAI (eXplainable Artificial Intelligence) ist Teil der dritten KI-Generation und beschreibt das systematische Erklären und Validieren des maschinellen Lernens unter Einbeziehung des Anwenders.

Intensive Forschung der letzten Jahrzehnte brachte eine Vielzahl neuer und scheinbar intelligenter Algorithmen im Bereich des maschinellen Lernens hervor. Die darauf aufbauenden k√ľnstlich intelligenten Systeme sind vielseitig und gewinnbringend einsetzbar ‚Äď von automatisierten Diagnoseverfahren bis hin zur Sprach- und Texterkennung. Der hohe m√∂gliche Nutzen wird jedoch √ľberschattet von der Undurchsichtigkeit der Technologie. Es resultieren hochkomplexe Modelle, deren Ausgabe lediglich beobachtet, aber selten verstanden werden kann. Das innere Funktionieren bleibt dem Nutzer also verborgen; der Anwender erh√§lt eine Black-Box. Diese Undurchsichtigkeit f√ľhrt dazu, dass intelligente Systeme vor ihrem produktiven Einsatz nicht hinreichend validiert werden k√∂nnen. Der Nutzer muss schlie√ülich hoffen, dass das Modell die richtigen Zusammenh√§nge erlernt und nicht falsche bzw. unerw√ľnschte Eigenschaften des Inputs in Betracht zieht.

"Komplexe KI-Modelle produzieren Ergebnisse, die oft schwer nachvollziehbar sind. Menschen akzeptieren dies zu Recht nicht. Kein Arzt w√ľrde einen Patienten operieren, blo√ü weil ein Kollege dies unbegr√ľndet als beste Therapie angibt. Zumindest w√ľrde der Arzt verstehen wollen, welcher Gedankengang der Prognose zugrunde liegt und auf welchen Symptomen die Empfehlung basiert. So ist es die Aufgabe von KI-Experten, Systeme zu entwickeln, die das eigene Agieren nach au√üen hin transparent machen und so die Black-Box √∂ffnen. Hier haben KI-Systeme aber auch einen Transparenz-Vorteil gegen√ľber menschlichen Entscheidern: Sie sagen einem ehrlich, wie sicher sie sich sind."

Frank Köhne

Bisher werden zumeist manuelle Tests eingesetzt, um trotzdem das Vertrauen in einen korrekten Betrieb zu gewinnen. Diese sind jedoch lediglich in der Lage, Soll- und Ist-Werte zu vergleichen, und bieten damit nur eine oberfl√§chliche Betrachtung mit sehr limitiertem Mehrwert. Die Auswirkungen der fehlenden Validierung sind mitunter folgenschwer und erlauben fehlerhaften intelligenten Systemen, im Produktivbetrieb hohen Schaden zu bereiten. Modellen ist es so unter anderem m√∂glich, zu ‚Äěschummeln‚Äú. Sie k√∂nnen stark vereinfachte Annahmen treffen, die lediglich auf die Trainings-, aber nicht auf Realdaten zutreffen. Beispielhaft kann hier das Erkennen von Schiffen durch die blo√üe Anwesenheit vieler blauer Pixel, dem umgebenden Wasser, genannt werden. Andere Modelle versto√üen gegen komplexere Anforderungen, wie zum Beispiel gegen ethische Grunds√§tze. Hier schlagen traditionelle Vorgehensweisen der Validierung mit noch gr√∂√üerer Wahrscheinlichkeit fehl.

Mit Explainable AI bekommen KI-Systeme ihren angemessenen Platz

Die Disziplin ‚ÄěExplainable Artificial Intelligence‚Äú (XAI) versucht, die oben genannten und grunds√§tzlich mit KI verbundenen Probleme zu l√∂sen, sodass Fehler aller Art schnellstm√∂glich erkannt werden. XAI besch√§ftigt sich dazu mit Methoden und Algorithmen, die dem Menschen Erkl√§rungen liefern, wieso eine Entscheidung getroffen wurde.

"Der Mensch strebt nach Erkenntnis. Dieses Streben hat die Entwicklung von KI-Systemen ma√ügeblich beg√ľnstigt. Und nun, da wir ausgekl√ľgelte intelligente Systeme erschaffen k√∂nnen, sollen wir dessen Entscheidungen pl√∂tzlich nicht mehr nachvollziehen k√∂nnen? Das widerspricht der urspr√ľnglichen Motivation."

So wird erstmalig der Nutzer in den Prozess des maschinellen Lernens integriert und kann durch seine √ľberlegenen kognitiven F√§higkeiten, wie zum Beispiel die der Generalisierung, aktiv zur Qualit√§t des Systems beitragen. In dem Kontext der Entwicklung k√ľnstlicher Intelligenzen kann XAI als letzte Komponente bzw. dritte Generation betrachtet werden. Sie √ľberbr√ľckt die Kluft zwischen dem enormen Potenzial k√ľnstlicher Intelligenzen und deren unausweichlichen Risiken. Somit erm√∂glicht XAI den produktiven Einsatz von KI-Systemen.

"XAI kann als Add-On betrachtet werden: Bestehende Prozesse m√ľssen nicht neu konzipiert werden, um von der neuen Technologie zu profitieren."

Ansprechpartner

Tobias Goerke

Tobias Goerke

Tel: +49 251 77777 340

Die folgende Grafik veranschaulicht die komfortable Integration von Explainable AI: bestehende Prozesse k√∂nnen um eine XAI-Komponente erweitert werden. Daf√ľr bedarf es keines aktiven Eingriffs in bestehende ML-Prozesse. Die gewonnenen Erkenntnisse dienen einerseits dem Nutzer und sorgen f√ľr Verst√§ndnis und Vertrauen. Andererseits k√∂nnen die Einsichten genutzt werden, um den Lernprozess mit den erlangten Einsichten zu √§ndern und zu verbessern.

6 Aspekte, wie XAI die Akzeptanz von KI-Systemen fördern kann

  1. Vertrauen

    Explainable AI erm√∂glicht die Validierung komplexer Modelle durch die menschliche √úberpr√ľfung ihrer Entscheidungsgrundlagen. Somit wird menschliche Expertise und algorithmische Effizienz vereinigt. Hierdurch k√∂nnen Nutzer das Vertrauen in Modelle erlangen und diese produktiv einsetzen.

  2. Zugänglichkeit

    Um mit k√ľnstlichen Intelligenzen zu interagieren, war bisher zwingend Expertenwissen notwendig. XAI erm√∂glicht es erstmalig auch fachfremden Nutzern, komplexe intelligente Systeme zu verstehen und auf Basis der erkl√§rten Vorhersage Entscheidungen zu treffen.

  3. Vergleichbarkeit

    Durch XAI k√∂nnen verschiedenste Modelle, Ans√§tze und Konzepte verglichen werden. Dies wiederum erm√∂glicht, das f√ľr den Einsatzzweck beste Modell zu identifizieren und einzusetzen.

  4. Inkrementelle Optimierung

    Mit Explainable AI können Schwachstellen bestehender Modelle aufgedeckt und durch erneutes Training mit veränderten Parametern inkrementell verbessert werden.

  5. Problemverständnis

    XAI kann genutzt werden, um das Modell und das darunterliegende Problem zu verstehen und somit Informationen √ľber die Struktur der vorliegenden Daten zu erlangen. Menschen k√∂nnen also lernen, was eine k√ľnstliche Intelligenz bereits verstanden hat und so ggf. neues Dom√§nenverst√§ndnis erlangen.

  6. Compliance

    Europ√§ische Datenschutzgesetze versch√§rfen ihre Stellung gegen√ľber dem breiten Einsatz k√ľnstlicher Intelligenzen. So ist es durch die aktuelle Fassung der DSGVO strittig, ob vollautomatisierte Entscheidungen √ľber ein Individuum zul√§ssig sind. Das sogenannte ‚Äěright to explanation‚Äú k√∂nnte den Einsatz des erkl√§rbaren Maschinenlernens f√ľr eine Vielzahl intelligenter Systeme zwingend notwendig machen.

Mit dem Anchors-Algorithmus lässt sich Explainable AI erfolgreich umsetzen

Die Idee des erklärbaren Maschinenlernens ist nicht neu. Es wurde bereits eine Vielzahl verschiedener Algorithmen veröffentlicht, die jeweils unterschiedlichste Ansätze verfolgen, um den Nutzer in den Prozess des maschinellen Lernens einzubeziehen. Die meisten dieser Verfahren sind jedoch praktisch von wenig Relevanz und/oder liefern mangelhafte Ergebnisse, die dem Nutzer geringen Erkenntnisgewinn liefern.

"Anchors errechnet die bedeutendsten Variablen durch systematisch effizientes Experimentieren und Ausprobieren."

Besonders vielversprechend ist jedoch der im Jahr 2018 ver√∂ffentlichte Anchors-Algorithmus. Dieser kombiniert eine Reihe neuster Entwicklungen verschiedener Disziplinen und liefert auf konstanter Basis gut interpretierbare Ergebnisse. Anchors kann als lokal (liefert Erkl√§rungen zu jeweils einer Vorhersage) und modell-agnostisch (kann jedes Modell erkl√§ren) klassifiziert werden. Seine Funktionsweise kann vereinfacht wie folgt dargestellt werden (s. u.): Durch die Nutzung von Perturbationen, das hei√üt kleine Manipulationen der urspr√ľnglichen Instanz, kann der Inputbereich um die erkl√§rte Instanz herum nachgebildet bzw. simuliert werden. Somit ist Anchors in der Lage, die Nachbarschaft einer Vorhersage zu erhalten. Aus dieser werden systematisch und stochastisch effizient Proben entnommen, welche R√ľckschl√ľsse auf die Gr√ľnde, also das Wieso der Entscheidung, zulassen.

Anchors und XAI

Das folgende Video zeigt ein Beispiel solcher Perturbationen. In dem Einsatzszenario soll erkl√§rt werden, wieso ein trainiertes neuronales Netz das Bild als ‚Äězeigt Banane‚Äú klassifiziert. Dazu wird das Bild zun√§chst in Features unterteilt – hier dargestellt durch Pixel-Gruppen. Nun k√∂nnen Regeln erstellt werden, die jeweils eine bestimmte Anzahl Features fixieren. Die Instanz wird anschlie√üend perturbiert, indem Features, die nicht in der Regel enthalten sind, randomisiert durch andere Pixel √ľberlagert werden. Diese Perturbationen k√∂nnen nun durch das Modell klassifiziert, und dessen Vorhersage ausgewertet werden. Auf diese Weise k√∂nnen verschiedenste Regeln und ihre Aussagekraft √ľberpr√ľft werden. Daraus ergeben sich R√ľckschl√ľsse auf jene Features bzw. Pixel des Bildes, welche ausschlaggebend f√ľr die urspr√ľngliche Vorhersage sind.

Ansprechpartner

Tobias Goerke

Tobias Goerke

Tel: +49 251 77777 340

Open Source f√ľr noch mehr Vertrauen in KI

viadee bietet das erste Open-Source Anchors Framework

Durch seine Qualit√§t und Effektivit√§t ist Anchors f√ľr uns das Mittel der Wahl im Bereich XAI. Aus diesem Grund haben wir das erste OpenSource Anchors Framework erstellt. Dieses setzt den Fokus auf Effizienz und Anwendbarkeit, sodass ein produktiver Einsatz bestm√∂glich ist. anchorj ist seit November 2018 ein frei zug√§ngliches Projekt auf GitHub!

Das viadee Open Source Anchors Framework bei GitHub.

viadee ist Wegbereiter im Umgang mit Methoden im Feld des erklärbaren Maschinenlernens

Wir sind √ľberzeugt von dem Potenzial und der Relevanz von XAI und forschen daher aktiv an M√∂glichkeiten zur Einf√ľhrung dieser neuen Technologie. Durch die schnelle Aufnahme der Forschung an der neuen Art von Algorithmen ist die viadee eines der f√ľhrenden Unternehmen im Umgang mit Methoden im Feld des erkl√§rbaren Maschinenlernens. Dabei erm√∂glicht die Quelloffenheit unserer Produkte die Einbindung externer Innovationen und Entwicklungen.

Aktuelle Forschungsschwerpunkte umfassen unter anderem:

  • Globale Verfahren zur Erkl√§rung des gesamten Modell-Inputbereiches
  • Verfahren zur Parallelisierung f√ľr die Erzeugung performanter XAI-Systeme
  • Musterverfahren zur schnellen Integration h√§ufig verwendeter Einsatzszenarien
  • Explanatory interactive machine learning zur direkten Integration des Anwender-Feedbacks in den Lernprozess

Sie wollen mehr Erfahren oder haben Fragen? Gerne tauschen wir uns mit Ihnen aus.

Aktuelle Blogbeiträge

Sie wollen mehr √ľber die viadee, unsere Projekte, Kunden und Kollegen erfahren? Dann besuchen Sie unseren Blog. Sie haben die Wahl und k√∂nnen entweder alle Blogbeitr√§ge aus s√§mtlichen Unternehmensbereichen lesen oder nur die Blogbeitr√§ge aus dem Bereich “KI – K√ľnstliche Intelligenz”.

zum Blog #KI-K√ľnstliche Intelligenz

Unsere L√∂sungen f√ľr
BANKEN, VERSICHERUNGEN, HANDEL UND WEITERE BRANCHEN

Business Process Management

Java

Testautomatisierung

Agile Methoden

Mobile- und Weblösungen

Business Intelligence

vivir

IT-Sicherheit

K√ľnstliche Intelligenz

Clean Code

Robotic Process Automation

Cloud

[if lte IE 8]
[if lte IE 8]
[if lte IE 8]
[if lte IE 8]
[if lte IE 8]
[if lte IE 8]