Künst­li­che In­tel­li­genz er­mög­licht Maschinen, aus Daten zu lernen, Muster zu erkennen und ei­gen­stän­dig Ent­schei­dun­gen zu treffen. KI-Al­go­rith­men sind dabei das Herzstück jeder in­tel­li­gen­ten Anwendung.

Was sind KI-Al­go­rith­men?

KI-Al­go­rith­men sind spe­zi­fi­sche Re­chen­ver­fah­ren, die Maschinen befähigen, Aufgaben aus­zu­füh­ren, die tra­di­tio­nell mensch­li­che In­tel­li­genz erfordern. Sie ana­ly­sie­ren Daten, erkennen Zu­sam­men­hän­ge und treffen darauf ba­sie­ren­de Vor­her­sa­gen. Dabei reicht ihr Einsatz von einfachen Ent­schei­dungs­bäu­men bis hin zu komplexen neu­ro­na­len Netzen. Al­go­rith­men in der künst­li­chen In­tel­li­genz ent­schei­den, wie die KI Daten ver­ar­bei­tet, welche Muster sie erkennt und wie sie darauf reagiert. Sie sind in nahezu allen Bereichen präsent, vom Online-Shopping über Sprach­as­sis­ten­ten bis hin zur me­di­zi­ni­schen Diagnose. Der Erfolg einer KI-Anwendung hängt stark von der Wahl des richtigen Al­go­rith­mus ab. Grund­sätz­lich un­ter­schei­den sich Al­go­rith­men für die KI in ihrer Funk­ti­ons­wei­se, ihrer Lern­me­tho­de und ihrer An­wen­dungs­spe­zia­li­sie­rung.

KI-Lösungen
Mehr Digital-Power dank Künst­li­cher In­tel­li­genz
  • In Sekunden zur Online-Präsenz
  • Mehr Wachstum mit KI-Marketing
  • Zeit und Res­sour­cen sparen

Die 10 wich­tigs­ten KI-Al­go­rith­men

KI-Al­go­rith­men bilden die Grundlage für alle in­tel­li­gen­ten An­wen­dun­gen. Im Folgenden stellen wir Ihnen die zehn wich­tigs­ten Al­go­rith­men für künst­li­che In­tel­li­genz vor, erklären ihre Funk­ti­ons­wei­se und zeigen anhand von KI-Al­go­rith­men-Bei­spie­len, wo sie praktisch ein­ge­setzt werden.

Lineare Re­gres­si­on

Die lineare Re­gres­si­on ist einer der grund­le­gends­ten Al­go­rith­men im ma­schi­nel­len Lernen. Sie versucht, eine lineare Beziehung zwischen einer ab­hän­gi­gen Variable (z. B. Hauspreis) und einer oder mehreren un­ab­hän­gi­gen Variablen (z. B. Lage, Wohn­flä­che, Alter des Hauses) zu finden. Der Al­go­rith­mus erstellt dazu eine Gerade (bei einer un­ab­hän­gi­gen Variable) oder eine Hy­per­ebe­ne (bei mehreren Variablen), die die Da­ten­punk­te möglichst gut annähert. Ziel ist es, die Differenz zwischen den vor­her­ge­sag­ten und den tat­säch­li­chen Werten, den so­ge­nann­ten Fehler, zu mi­ni­mie­ren. Dazu werden ma­the­ma­ti­sche Verfahren wie die Methode der kleinsten Quadrate verwendet.

In der Praxis wird die lineare Re­gres­si­on unter anderem in der Fi­nanz­ana­ly­se ein­ge­setzt, etwa zur Vor­her­sa­ge von Ak­ti­en­kur­sen oder Umsätzen, sowie im Marketing, um den Einfluss ver­schie­de­ner Faktoren auf Ver­kaufs­zah­len zu ana­ly­sie­ren. Sie ist besonders leicht ver­ständ­lich und daher ideal für den Einstieg in die Da­ten­ana­ly­se. Auch wenn sie einfach ist, liefert sie in vielen Bereichen zu­ver­läs­si­ge und nach­voll­zieh­ba­re Er­geb­nis­se.

Pra­xis­bei­spiel: Ein Im­mo­bi­li­en­un­ter­neh­men möchte den Ver­kaufs­preis von Häusern schätzen. Der Al­go­rith­mus ana­ly­siert his­to­ri­sche Daten von Häusern, deren Größe, Baujahr und Lage bekannt sind, und berechnet daraus eine Re­gres­si­ons­ge­ra­de, die den Preis vor­her­sagt. So kann das Un­ter­neh­men schnell eine Schätzung für ein neues Objekt abgeben.

Lo­gis­ti­sche Re­gres­si­on

Die lo­gis­ti­sche Re­gres­si­on wird ein­ge­setzt, wenn es um Klas­si­fi­ka­ti­ons­pro­ble­me geht. Bei solchen Problemen sollen Objekte oder Er­eig­nis­se in bestimmte Ka­te­go­rien ein­ge­ord­net werden. Anders als die lineare Re­gres­si­on sagt sie nicht einen konkreten Wert voraus, sondern die Wahr­schein­lich­keit, dass ein Ereignis eintritt. Der Al­go­rith­mus berechnet dazu eine lineare Kom­bi­na­ti­on der Ein­ga­be­va­ria­blen und wendet an­schlie­ßend eine Sigmoid-Funktion an, die das Ergebnis auf einen Wert zwischen 0 und 1 trans­for­miert. Dieser Wert wird als Wahr­schein­lich­keit in­ter­pre­tiert, sodass Werte über einem be­stimm­ten Schwel­len­wert einer Kategorie zu­ge­ord­net werden.

Pra­xis­bei­spiel: Ein E-Mail-Anbieter möchte ein­ge­hen­de Nach­rich­ten au­to­ma­tisch als Spam oder Nicht-Spam klas­si­fi­zie­ren. Der Al­go­rith­mus ana­ly­siert Merkmale wie Ab­sen­der­adres­se, bestimmte Schlüs­sel­wör­ter oder die Anzahl externer Links. Anhand dieser Merkmale berechnet er für jede E-Mail die Wahr­schein­lich­keit, dass sie Spam ist. Liegt die Wahr­schein­lich­keit über 50 %, markiert das System die E-Mail als Spam.

Ent­schei­dungs­bäu­me

Ent­schei­dungs­bäu­me sind eine Klasse von Al­go­rith­men, die, wie der Name schon andeutet, Ent­schei­dun­gen in einer baum­ar­ti­gen Struktur dar­stel­len. Jeder Knoten im Baum ent­spricht einer Frage oder Bedingung, und jeder Zweig führt zu einer weiteren Bedingung oder zu einem End­ergeb­nis (dem so­ge­nann­ten Blatt). Der Al­go­rith­mus ent­schei­det bei jeder Ent­schei­dungs­ebe­ne, welche Ei­gen­schaft der Daten am besten zwischen den Klassen trennt. Dazu werden Kriterien wie In­for­ma­ti­ons­ge­winn oder Gini-Index genutzt, um die beste Frage für jeden Knoten zu wählen. So entsteht ein Modell, das Vor­her­sa­gen anhand der Merk­mals­wer­te der Ein­ga­be­da­ten trifft.

Ent­schei­dungs­bäu­me sind leicht zu vi­sua­li­sie­ren und gut ver­ständ­lich. Sie benötigen ver­hält­nis­mä­ßig wenig Da­ten­vor­ver­ar­bei­tung, können auch für klas­si­fi­ka­to­ri­sche und nu­me­ri­sche Vor­her­sa­gen ein­ge­setzt werden und lassen sich in Random-Forest-Modellen kom­bi­nie­ren, um die Vor­her­sa­ge­ge­nau­ig­keit zu erhöhen.

Pra­xis­bei­spiel: An­wen­dun­gen findet der KI-Al­go­rith­mus bei­spiels­wei­se in der Medizin. So kann ein Kran­ken­haus ihn als Vor­her­sa­ge­hil­fe nutzen, um eine Ein­schät­zung zu erhalten, ob eine Patientin oder ein Patient ein be­stimm­tes Risiko für Herz­krank­hei­ten hat. Der Ent­schei­dungs­baum beginnt bei einer Frage wie „Ist der Blutdruck hoch?“. Je nach Antwort geht es weiter zu weiteren Fragen, z. B. „Raucht der Patient / die Patientin?“ oder „Wie hoch ist der Cho­le­ste­rin­spie­gel?“. Am Ende erreicht man ein Blatt, das die Klas­si­fi­ka­ti­on „hohes Risiko“ oder „geringes Risiko“ liefert.

Random Forest

Random Forest ist eine Wei­ter­ent­wick­lung von Ent­schei­dungs­bäu­men und gehört zu den so­ge­nann­ten Ensemble-Methoden. Der Al­go­rith­mus erstellt eine Vielzahl von Ent­schei­dungs­bäu­men, die jeweils auf zu­fäl­li­gen Teil­men­gen der Trai­nings­da­ten und einer zu­fäl­li­gen Auswahl von Merkmalen trainiert werden. Jeder Baum trifft un­ab­hän­gig eine Vor­her­sa­ge und das Ge­samt­ergeb­nis wird durch Mehr­heits­ent­schei­dung bei der Klas­si­fi­ka­ti­on oder der Mit­tel­wert­bil­dung bei der Re­gres­si­on bestimmt. Durch die Kom­bi­na­ti­on vieler Bäume werden Fehler einzelner Bäume aus­ge­gli­chen und die Vor­her­sa­ge insgesamt stabiler und genauer. Der KI-Al­go­rith­mus ist flexibel, kann große Da­ten­men­gen ver­ar­bei­ten und ist weniger anfällig für Over­fit­ting als einzelne Ent­schei­dungs­bäu­me.

Pra­xis­bei­spiel: Eine Anwendung für Random Forest findet sich zum Beispiel im E-Commerce, wenn ein Online-Shop vor­her­sa­gen möchte, ob Kundinnen oder Kunden ein be­stimm­tes Produkt kaufen. Jeder Baum im Random Forest bewertet die Wahr­schein­lich­keit basierend auf un­ter­schied­li­chen Kun­den­da­ten wie Alter, vorherige Käufe, Be­suchs­fre­quenz oder Standort. Die Vor­her­sa­gen aller Bäume werden zu­sam­men­ge­führt, und das Produkt wird den Kundinnen und Kunden als wahr­schein­lich relevant vor­ge­schla­gen, wenn die Mehrheit der Bäume dies un­ter­stützt.

k-Nearest Neighbors (kNN)

kNN ist ein einfacher, aber sehr in­tui­ti­ver Al­go­rith­mus, der Vor­her­sa­gen auf Basis von Ähn­lich­kei­ten zwischen Da­ten­punk­ten trifft. Bei einer neuen Eingabe berechnet der Al­go­rith­mus die Abstände zu allen vor­han­de­nen Trai­nings­da­ten­punk­ten meist mithilfe von Metriken wie dem eu­kli­di­schen Abstand. An­schlie­ßend werden die k nächsten Nachbarn aus­ge­wählt, also die k Da­ten­punk­te, die der neuen Eingabe am ähn­lichs­ten sind:

  • Bei Klas­si­fi­ka­ti­ons­pro­ble­men wird die neue Eingabe in die Kategorie ein­ge­ord­net, die unter diesen Nachbarn am häu­figs­ten vorkommt.
  • Bei Re­gres­si­ons­pro­ble­men wird der Durch­schnitt der Werte der Nachbarn als Vor­her­sa­ge genutzt.

Der KI-Al­go­rith­mus ist einfach zu im­ple­men­tie­ren, benötigt jedoch aus­rei­chend re­prä­sen­ta­ti­ve Trai­nings­da­ten und eine gute Da­ten­vor­ver­ar­bei­tung, ins­be­son­de­re bei der Ska­lie­rung der Merkmale. Trotz seiner Ein­fach­heit liefert kNN in vielen Bereichen oft über­ra­schend gute Er­geb­nis­se.

Pra­xis­bei­spiel: Ein Streaming-Dienst möchte vor­aus­sa­gen, welche Filme einem User gefallen könnten. Der Al­go­rith­mus be­trach­tet das Verhalten anderer Nut­ze­rin­nen und Nutzer mit ähnlichen Seh­ge­wohn­hei­ten, also den „nächsten Nachbarn“, und schlägt Filme vor, die diese User positiv bewertet haben. Die Wahl von „k“ ist ent­schei­dend: Ein zu kleiner Wert kann zu in­sta­bi­len Vor­her­sa­gen führen, aber ein zu großer Wert kann relevante lokale Muster ver­wäs­sern.

Support Vector Machines (SVMs)

Bei Support Vector Machines handelt es sich um Al­go­rith­men, die dazu dienen, Da­ten­punk­te ver­schie­de­ner Klassen optimal zu trennen. Der Al­go­rith­mus sucht dabei nach einer Trenn­li­nie oder Trenn­ebe­ne/Hy­per­pla­ne, die die Abstände zwischen den Klassen maximiert. Die Da­ten­punk­te, die am nächsten an dieser Linie liegen, werden als Support Vectors be­zeich­net, da sie die Position der Trenn­li­nie ent­schei­dend bestimmen. SVMs können auch nicht­li­nea­re Klas­si­fi­ka­ti­ons­pro­ble­me lösen, indem sie so­ge­nann­te Kernel-Funk­tio­nen verwenden, die die Daten in einen hö­her­di­men­sio­na­len Raum trans­for­mie­ren, in dem eine lineare Trennung möglich ist. SVMs sind besonders leis­tungs­fä­hig bei gut ge­trenn­ten Da­ten­sät­zen und liefern sehr präzise Er­geb­nis­se. Ein Nachteil ist, dass die Be­rech­nung bei sehr großen Da­ten­sät­zen aufwendig sein kann.

Pra­xis­bei­spiel: Ein Online-Banking-Dienst möchte be­trü­ge­ri­sche Trans­ak­tio­nen von regulären Trans­ak­tio­nen un­ter­schei­den und hierfür den KI-Al­go­rith­mus nutzen. Er ana­ly­siert Merkmale wie Trans­ak­ti­ons­be­trag, Uhrzeit, Ort und bis­he­ri­ges Nut­zer­ver­hal­ten. Die SVM sucht dann eine Trenn­li­nie, die be­trü­ge­ri­sche von legitimen Trans­ak­tio­nen möglichst klar abgrenzt. Die Support Vectors, also die kri­tischs­ten Trans­ak­tio­nen, die nahe an der Trenn­li­nie liegen, bestimmen dabei, wie neue Trans­ak­tio­nen klas­si­fi­ziert werden.

Naive Bayes

Naive Bayes ist ein pro­ba­bi­lis­ti­scher Klas­si­fi­ka­ti­ons­al­go­rith­mus, der auf dem Bayes­schen Theorem basiert. Er geht davon aus, dass alle Merkmale eines Da­ten­punkts un­ab­hän­gig von­ein­an­der sind. Der Al­go­rith­mus berechnet basierend auf den be­ob­ach­te­ten Merkmalen die Wahr­schein­lich­keit, dass ein Da­ten­punkt zu einer be­stimm­ten Klasse gehört. An­schlie­ßend wird der Da­ten­punkt der Klasse mit der höchsten Wahr­schein­lich­keit zu­ge­ord­net. Naive Bayes ist selbst bei kleinen Trai­nings­men­gen schnell, effizient und robust. Trotz der Annahme, dass Merkmale un­ab­hän­gig sind, liefert der Al­go­rith­mus in vielen Text­klas­si­fi­ka­ti­ons­auf­ga­ben zu­ver­läs­si­ge Er­geb­nis­se.

Pra­xis­bei­spiel: Ein Beispiel für die Anwendung des beliebten KI-Al­go­rith­mus ist ein Online-Shop, der Kun­den­be­wer­tun­gen au­to­ma­tisch als „positiv“, „neutral“ oder „negativ“ klas­si­fi­zie­ren möchte. Der Al­go­rith­mus be­trach­tet hierzu Merkmale wie die Häu­fig­keit be­stimm­ter Wörter (bei­spiels­wei­se „gut“, „schlecht“, „emp­feh­lens­wert“) in den Texten. Anhand dieser Merkmale berechnet Naive Bayes, mit welcher Wahr­schein­lich­keit eine Bewertung zu jeder Kategorie gehört, und weist sie der Kategorie mit der höchsten Wahr­schein­lich­keit zu.

K-Means

K-Means ist ein Clus­te­ring-Al­go­rith­mus, der Daten in Gruppen, so­ge­nann­te Cluster, mit ähnlichen Ei­gen­schaf­ten un­ter­teilt. Der Al­go­rith­mus beginnt, indem er eine vorher fest­ge­leg­te Anzahl von Clus­ter­zen­tren k zufällig wählt. An­schlie­ßend wird jeder Da­ten­punkt dem nächst­ge­le­ge­nen Clus­ter­zen­trum zu­ge­ord­net. Danach werden die Clus­ter­zen­tren basierend auf den zu­ge­ord­ne­ten Punkten neu berechnet. Dieser Vorgang wird iterativ wie­der­holt, bis sich die Cluster sta­bi­li­sie­ren. Die Wahl von k, also die Anzahl der Cluster, ist ent­schei­dend für die Qualität der Er­geb­nis­se: Zu wenige Cluster können Muster ver­schlei­ern, zu viele führen zu übermäßig fein­gra­nu­la­ren Gruppen.

Pra­xis­bei­spiel: Im Marketing wird K-Means verwendet, um Kundinnen und Kunden nach ihrem Kauf­ver­hal­ten zu grup­pie­ren. Die­je­ni­gen mit ähnlichen Ein­kaufs­ge­wohn­hei­ten landen in denselben Clustern, wodurch gezielte Angebote oder Emp­feh­lun­gen erstellt werden können. K-Means wird auch in der Bild­ver­ar­bei­tung, bei der Erkennung von Anomalien oder zur Ent­de­ckung von Mustern in un­struk­tu­rier­ten Daten ein­ge­setzt und eignet sich her­vor­ra­gend, um ver­bor­ge­ne Struk­tu­ren in großen Da­ten­sät­zen zu erkennen.

Back­pro­pa­ga­ti­on

Bei der Back­pro­pa­ga­ti­on handelt es sich um einen Al­go­rith­mus, der beim Training neu­ro­na­ler Netze ein­ge­setzt wird und die Grundlage für Deep-Learning-Modelle bildet. Er passt die Ver­bin­dun­gen zwischen den Neuronen schritt­wei­se an, indem er den Fehler einer Vor­her­sa­ge rückwärts durch die Netz­schich­ten pro­pa­giert. Auf diese Weise wird das Netzwerk kon­ti­nu­ier­lich ver­bes­sert, sodass die Vor­her­sa­gen immer genauer werden. Häufig wird Back­pro­pa­ga­ti­on zusammen mit Gradient Descent verwendet, um die Gewichte optimal zu justieren und den Fehler zu mi­ni­mie­ren.

Pra­xis­bei­spiel: Bei der Sprach­er­ken­nung ana­ly­siert ein System zum Beispiel ge­spro­che­ne Wörter und wandelt sie in Text um. Das neuronale Netz trifft zunächst Vor­her­sa­gen, die oft feh­ler­haft sind. Back­pro­pa­ga­ti­on berechnet die Ab­wei­chung zwischen der Vor­her­sa­ge und der tat­säch­li­chen Text­ver­si­on, pro­pa­giert diesen Fehler durch die Schichten und passt die Ver­bin­dun­gen ent­spre­chend an. Auf diese Weise lernt das Netz über viele Trai­nings­bei­spie­le, die Aus­spra­che korrekt zu erkennen.

Hinweis

Back­pro­pa­ga­ti­on er­mög­licht das Training komplexer Netzwerke, darunter auch Long Short-Term Memory (LSTM)-Netze, die besonders für zeit­ab­hän­gi­ge Daten wie Sprache, Texte oder Fi­nanz­da­ten geeignet sind.

Rein­force­ment Learning

Rein­force­ment Learning ist ein Lern­ver­fah­ren, bei dem eine KI durch Versuch und Irrtum lernt, Ent­schei­dun­gen zu treffen. Der Al­go­rith­mus in­ter­agiert mit seiner Umgebung und erhält Be­loh­nun­gen für ge­wünsch­tes Verhalten sowie Be­stra­fun­gen für un­er­wünsch­tes Verhalten. Ziel ist es, eine Strategie oder Policy zu ent­wi­ckeln, die lang­fris­tig die maximale Belohnung erzielt. Anders als bei über­wach­ten Lern­ver­fah­ren muss die KI nicht für jede Situation vorher die richtige Antwort kennen, sondern sie lernt selbst­stän­dig aus den Kon­se­quen­zen ihrer Hand­lun­gen. Der KI-Al­go­rith­mus zeigt, wie KI ei­gen­stän­dig komplexe Probleme lösen kann, indem sie aus Er­fah­run­gen lernt, lang­fris­ti­ge Kon­se­quen­zen be­rück­sich­tigt und Stra­te­gien ohne explizite Pro­gram­mie­rung ent­wi­ckelt.

Pra­xis­bei­spiel: In der Robotik wird RL ein­ge­setzt, um einen Roboter zu trai­nie­ren, der ei­gen­stän­dig einen Parcours über­win­den soll. Anfangs stolpert der Roboter häufig oder fällt um, doch durch wie­der­hol­te Versuche erkennt er, welche Be­we­gun­gen zum Erfolg führen, und passt sein Verhalten daher Schritt für Schritt an. Nach vielen Trai­nings­durch­läu­fen ent­wi­ckelt der Roboter eine Strategie, die es ihm er­mög­licht, den Parcours effizient zu meistern.

Zum Hauptmenü