Ex­plainable Ar­ti­fi­ci­al In­tel­li­gence (XAI) be­schreibt Ansätze und Methoden, die darauf abzielen, die Ent­schei­dun­gen und Er­geb­nis­se von künst­li­cher In­tel­li­genz (KI) nach­voll­zieh­bar und ver­ständ­lich zu machen.

Mit der zu­neh­men­den Kom­ple­xi­tät der KI und den Fort­schrit­ten im Machine Learning ist es für User immer schwie­ri­ger, die Prozesse hinter den Er­geb­nis­sen einer KI nach­zu­voll­zie­hen. Umso wichtiger ist es, das Ver­ständ­nis für die Ent­schei­dun­gen und Resultate künst­li­cher In­tel­li­gen­zen so hoch wie möglich zu halten.

Gleich­zei­tig bleibt es ein zentrales Ziel der Forschung, KI so zu ent­wi­ckeln, dass sie ei­gen­stän­dig lernt und Lösungen für komplexe Probleme findet. Genau hier setzt Ex­plainable Ar­ti­fi­ci­al In­tel­li­gence (XAI) an: Sie schafft Trans­pa­renz, indem sie die „Black Box“ der KI öffnet und Einblicke in die Funk­ti­ons­wei­se der Al­go­rith­men er­mög­licht. An­dern­falls ist eine Ver­trau­ens­ba­sis zu den je­wei­li­gen digitalen Be­rech­nun­gen nicht gegeben. Die von Ex­plainable AI ge­schaf­fe­ne Trans­pa­renz ist somit von enormer Bedeutung für die Akzeptanz künst­li­cher In­tel­li­genz.

Es soll er­klär­ba­re Modelle geben, ohne dabei auf die hohe Lern­leis­tung ver­zich­ten zu müssen. Die Trans­pa­renz durch XAI ist ent­schei­dend, um Vertrauen in KI-Systeme auf­zu­bau­en. So können User besser ein­schät­zen, wie die KI arbeitet, und die Er­geb­nis­se ent­spre­chend bewerten. Ebenso soll er­mög­licht werden, dass spätere User die ent­ste­hen­de Ge­ne­ra­ti­on von künstlich in­tel­li­gen­ten Partnern verstehen, ihr in an­ge­mes­se­nem Maß vertrauen und effizient mit ihr umgehen und arbeiten können. Ohne diese Nach­voll­zieh­bar­keit bleibt eine ver­läss­li­che Nutzung und Akzeptanz von KI schwierig.

KI-Lösungen
Mehr Digital-Power dank Künst­li­cher In­tel­li­genz
  • In Sekunden zur Online-Präsenz
  • Mehr Wachstum mit KI-Marketing
  • Zeit und Res­sour­cen sparen

Die wich­tigs­ten An­wen­dungs­ge­bie­te von XAI

Künst­li­che In­tel­li­genz betrifft schon lange nicht mehr nur For­schen­de. Vielmehr ist sie bereits fester Be­stand­teil des all­täg­li­chen Lebens. Daher ist es umso wichtiger, dass die Mo­du­la­ri­tät der künst­li­chen In­tel­li­genz nicht nur Fach­per­so­nen und den direkten Usern nä­her­ge­bracht wird: Ins­be­son­de­re Ent­schei­dungs­tra­gen­den muss die Funk­ti­ons­wei­se von KI so ver­ständ­lich wie möglich gemacht werden, um die Basis für das Vertrauen in die Technik zu schaffen. Hier besteht deshalb besonders die Re­chen­schafts­pflicht (engl. ac­coun­ta­bi­li­ty). Zu den wich­tigs­ten An­wen­dungs­ge­bie­ten zählen:

Autonomes Fahren

Bei­spiel­wei­se ent­wi­ckelt das Projekt “KI-Wissen” in Deutsch­land Methoden zur In­te­gra­ti­on von Wissen und Er­klär­bar­keit in Deep-Learning-Modelle für autonomes Fahren. Ziel ist es, die Da­ten­ef­fi­zi­enz und Trans­pa­renz solcher Systeme zu ver­bes­sern, um ihre Zu­ver­läs­sig­keit und Si­cher­heit zu erhöhen.

Me­di­zi­ni­sche Dia­gnos­tik

In der Ge­sund­heits­bran­che wird KI zunehmend für Diagnosen und The­ra­pie­emp­feh­lun­gen ein­ge­setzt, zum Beispiel in der Onkologie, um auf Krebs hin­deu­ten­de Muster in Ge­we­be­pro­ben zu erkennen. Das Projekt Clinical Ar­ti­fi­ci­al In­tel­li­gence am Else Kröner Fresenius Zentrum für Digitale Ge­sund­heit. Ex­plainable AI er­mög­licht es, die Ent­schei­dun­gen einer KI nach­zu­voll­zie­hen, etwa warum eine bestimmte Krankheit dia­gnos­ti­ziert oder eine spe­zi­fi­sche Be­hand­lung vor­ge­schla­gen wurde. Dies ist es­sen­zi­ell, um das Vertrauen der Pa­ti­en­tin­nen und Patienten sowie der me­di­zi­ni­schen Fach­kräf­te in KI-gestützte Systeme zu stärken.

Fi­nanz­sek­tor

Im Fi­nanz­we­sen kommt KI bei­spiels­wei­se bei Kre­dit­ent­schei­dun­gen, Be­trugs­er­ken­nung und Ri­si­ko­be­wer­tun­gen zum Einsatz. XAI hilft dabei, die Grundlage solcher Ent­schei­dun­gen of­fen­zu­le­gen und si­cher­zu­stel­len, dass sie ethisch und rechtlich ver­tret­bar sind. So können Be­trof­fe­ne und Auf­sichts­be­hör­den nach­voll­zie­hen, wie und warum ein Kredit bewilligt oder abgelehnt wurde.

Un­ter­neh­mens­steue­rung und Ma­nage­ment

Für Füh­rungs­kräf­te ist es wichtig, die Funk­ti­ons­wei­se von KI-Systemen zu verstehen, die bei­spiels­wei­se für stra­te­gi­sche Ent­schei­dun­gen oder Prognosen ein­ge­setzt werden. XAI er­mög­licht es, Einblicke in die Al­go­rith­men zu erhalten und deren Er­geb­nis­se fundiert zu bewerten.

Neuronale Netzwerk-Bild­ge­bung

Ex­plainable Ar­ti­fi­ci­al In­tel­li­gence wird auch in der neu­ro­na­len Netzwerk-Bild­ge­bung ein­ge­setzt, ins­be­son­de­re in der Analyse von Bilddaten durch KI. Hierbei geht es darum, zu verstehen, wie neuronale Netzwerke visuelle In­for­ma­tio­nen ver­ar­bei­ten und in­ter­pre­tie­ren. An­wen­dun­gen reichen von der me­di­zi­ni­schen Bild­ge­bung, wie der Analyse von Rönt­gen­auf­nah­men oder MRT-Scans, bis hin zur Op­ti­mie­rung von Über­wa­chungs­tech­no­lo­gien. XAI hilft dabei, die Funk­ti­ons­wei­se der KI zu ent­schlüs­seln und auf­zu­zei­gen, welche Merkmale in einem Bild zur Ent­schei­dungs­fin­dung beitragen. Dies ist besonders in si­cher­heits­kri­ti­schen oder ethisch sensiblen An­wen­dun­gen wichtig, da falsche In­ter­pre­ta­tio­nen schwer­wie­gen­de Folgen haben können.

Training mi­li­tä­ri­scher Stra­te­gien

Im mi­li­tä­ri­schen Bereich wird KI genutzt, um Stra­te­gien für taktische Ent­schei­dun­gen oder Si­mu­la­tio­nen zu ent­wi­ckeln. XAI spielt eine ent­schei­den­de Rolle: Dies umfasst die Erklärung, warum bestimmte taktische Maßnahmen empfohlen werden oder wie die KI ver­schie­de­ne Szenarien prio­ri­siert.

XAI sorgt in diesen und vielen weiteren Bereichen dafür, dass KI-Systeme als ver­trau­ens­wür­di­ge Werkzeuge wahr­ge­nom­men werden, deren Ent­schei­dun­gen und Prozesse nach­voll­zieh­bar und ethisch ver­tret­bar sind.

Wie funk­tio­niert XAI?

Es exis­tie­ren ver­schie­de­ne Methoden bzw. Ansätze, um Trans­pa­renz und Ver­ständ­nis für künst­li­che In­tel­li­genz zu schaffen. In den folgenden Absätzen haben wir die wich­tigs­ten für Sie zu­sam­men­ge­fasst:

  • Die Layer-wise Relevance Pro­pa­ga­ti­on (LRP; etwa: „Schicht für Schicht er­fol­gen­de Über­tra­gung von Bedeutung“) wurde erstmals 2015 be­schrie­ben. Hierbei handelt es sich um eine Technik zur Be­stim­mung der Merkmale von Ein­gangs­vek­to­ren, die am stärksten zum Aus­ga­be­er­geb­nis eines neu­ro­na­len Netzwerks beitragen.
  • Die Coun­ter­fac­tu­al Method („kon­tra­fak­ti­sche Methode“) be­schreibt, wie Daten-Input (Texte, Bilder, Diagramme etc.) nach Erhalt eines Resultats ganz gezielt verändert werden. Im Anschluss wird be­ob­ach­tet, inwiefern sich das Aus­ga­be­re­sul­tat dadurch verändert hat.
  • Local In­ter­pr­e­ta­ble Model-Agnostic Ex­pl­ana­ti­ons (LIME) ist ein Er­klärm­odell mit ganz­heit­li­chem Anspruch. Es will jeden ma­schi­nel­len Klas­si­fi­ka­tor und die daraus folgende Prognose erklären können. Dadurch sollen die Daten und Vor­ge­hens­wei­sen auch für fach­frem­de An­wen­den­de ver­ständ­lich gemacht werden.
  • Die Ra­tio­na­liza­ti­on ist ein Verfahren, das speziell bei AI-basierten Robotern ein­ge­setzt wird. Dabei wird die Maschine so kon­zi­piert, dass sie in der Lage ist, ihre Hand­lun­gen selbst­stän­dig zu erklären.
IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

Was ist der Un­ter­schied zwischen Ex­plainable AI und Ge­ne­ra­ti­ve AI?

Ex­plainable AI (XAI) und Ge­ne­ra­ti­ve AI (GAI) un­ter­schei­den sich grund­le­gend in ihrem Fokus und ihrer Ziel­set­zung:

XAI zielt darauf ab, die Ent­schei­dungs­pro­zes­se von KI-Modellen nach­voll­zieh­bar und ver­ständ­lich zu machen. Dies geschieht durch Methoden wie Vi­sua­li­sie­run­gen, re­gel­ba­sier­te Systeme oder Tools wie LIME und SHAP. Der Schwer­punkt liegt hier auf Trans­pa­renz, ins­be­son­de­re in kri­ti­schen Bereichen, in denen Vertrauen und Nach­voll­zieh­bar­keit es­sen­zi­ell sind.

Ge­ne­ra­ti­ve AI hingegen kon­zen­triert sich auf die Er­stel­lung neuer Inhalte wie Texte, Bilder, Musik oder Videos. Sie nutzt neuronale Netze wie Ge­ne­ra­ti­ve Ad­ver­sa­ri­al Networks (GANs) oder Trans­for­mer-Modelle, um kreative Er­geb­nis­se zu erzeugen, die mensch­li­ches Denken oder künst­le­ri­sche Prozesse si­mu­lie­ren. Beispiele hierfür sind Text­ge­ne­ra­to­ren wie GPT oder Bild­ge­ne­ra­to­ren wie DALL-E, die vor allem in der Kunst, Un­ter­hal­tung und Content-Pro­duk­ti­on Anwendung finden.

Während XAI darauf abzielt, be­stehen­de KI-Modelle zu erklären, liegt der Fokus von GAI auf der Ge­ne­rie­rung in­no­va­ti­ver Inhalte. Beide Ansätze können jedoch mit­ein­an­der kom­bi­niert werden. Bei­spiels­wei­se können ge­ne­ra­ti­ve Modelle durch XAI erklärt werden, um si­cher­zu­stel­len, dass ihre Er­geb­nis­se ethisch, trans­pa­rent und ver­trau­ens­wür­dig sind. Zusammen ergänzen sich XAI und GAI, indem sie Trans­pa­renz und In­no­va­ti­on im Bereich der künst­li­chen In­tel­li­genz vor­an­trei­ben.

Zum Hauptmenü