Machine Learning ist ein Teil­ge­biet der künst­li­chen In­tel­li­genz, bei dem Com­pu­ter­mo­del­le aus Daten lernen, um ohne explizite Pro­gram­mie­rung Vor­her­sa­gen oder Ent­schei­dun­gen zu treffen. Es ist nicht nur in­ter­es­sant für die Wis­sen­schaft und für IT-Un­ter­neh­men wie Google oder Microsoft. Auch die Welt des On­line­mar­ke­tings kann sich durch die Ent­wick­lun­gen der künst­li­chen In­tel­li­genz verändern.

Was ist Ma­schi­nel­les Lernen?

Grund­sätz­lich funk­tio­nie­ren Maschinen, Computer, Programme nur so, wie man es zuvor fest­ge­legt hat: „Wenn Fall A eintritt, dann machst du B.“ Unsere Er­war­tungs­hal­tung an moderne Com­pu­ter­sys­te­me wird aber immer höher und Pro­gram­mie­ren­de können nicht alle denkbaren Fälle vor­her­se­hen und dem Computer eine Lösung dafür diktieren. Deshalb ist es notwendig, dass die Software selbst­stän­dig Ent­schei­dun­gen trifft und an­ge­mes­sen auf un­be­kann­te Si­tua­tio­nen reagiert. Dafür müssen aber Al­go­rith­men vorhanden sein, die es dem Programm er­mög­li­chen, zu lernen. Das bedeutet, dass es in einem ersten Schritt mit Daten gefüttert wird, um dann im zweiten Schritt Muster zu verstehen und As­so­zia­tio­nen zu treffen. Genau darum geht es beim Machine Learning.

Im Zu­sam­men­hang mit selbst­ler­nen­den Systemen tauchen immer wieder verwandte Begriffe auf, die man verstehen sollte, um auch ein besseres Ver­ständ­nis von Machine Learning zu haben.

IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

Künst­li­che In­tel­li­genz

Die Forschung rund um künst­li­che In­tel­li­genz (KI) versucht, Maschinen zu er­schaf­fen, die wie Menschen agieren können: Die Computer und Roboter sollen ihre Umgebung ana­ly­sie­ren und dann die best­mög­li­che Ent­schei­dung treffen. Sie sollen sich also – nach unseren Maßstäben – in­tel­li­gent verhalten. Und darin besteht auch das Problem der Be­zeich­nung: Es ist noch nicht einmal sicher, nach welchen Kriterien wir unsere eigene In­tel­li­genz zu be­ur­tei­len haben. Ge­gen­wär­tig kann KI – oder was als solche be­zeich­net wird – gar nicht den ganzen Menschen (inklusive emo­tio­na­ler In­tel­li­genz) si­mu­lie­ren. Statt­des­sen werden Teil­aspek­te isoliert, um spe­zi­fi­sche Aufgaben zu be­wäl­ti­gen. Dies wird gemeinhin als „schwache künst­li­che In­tel­li­genz“ be­zeich­net.

Seit 2022 haben Systeme mit ge­ne­ra­ti­ver KI wie der KI-Assistent ChatGPT stark an Bedeutung gewonnen. Diese basieren auf Trans­for­mer­mo­del­len, die in der Lage sind, auf der Basis riesiger Da­ten­men­gen Texte, Bilder oder Code zu erzeugen. Dennoch handelt es sich weiterhin um spe­zia­li­sier­te Systeme, die keine echte All­ge­mein­in­tel­li­genz besitzen.

Neuronale Netze

Ein Zweig der Forschung zur künst­li­chen In­tel­li­genz, die Neu­ro­in­for­ma­tik, versucht noch mehr, Computer nach dem Vorbild von Gehirnen zu gestalten. Sie be­trach­tet Ner­ven­sys­te­me abs­tra­hiert – also befreit von ihren bio­lo­gi­schen Ei­gen­schaf­ten und rein auf die Funk­ti­ons­wei­se be­schränkt. Bei künst­li­chen neu­ro­na­len Netzen handelt es sich in erster Linie nicht um eine tat­säch­li­che Ma­ni­fes­tie­rung, sondern um ma­the­ma­ti­sche, abstrakte Verfahren. Es wird ein Netz aus Neuronen (ma­the­ma­ti­sche Funk­tio­nen bzw. Al­go­rith­men) gebildet, das wie ein mensch­li­ches Gehirn komplexe Aufgaben be­wäl­ti­gen kann. Die Ver­bin­dun­gen zwischen den Neuronen sind un­ter­schied­lich stark und können sich an Probleme anpassen.

Die Wei­ter­ent­wick­lung neu­ro­na­ler Netze hat zum Aufstieg des Deep Learning geführt. Hierbei handelt es sich um komplexe neuronale Netze mit vielen Schichten (Layern), die heute do­mi­nie­ren.

Big Data

Der Begriff „Big Data“ be­schreibt im ersten Zugang lediglich, dass es sich um riesige Da­ten­men­gen handelt. Es gibt al­ler­dings keinen de­fi­nier­ten Punkt, ab wann man nicht mehr einfach von Data, sondern von Big Data spricht. Dass dieses Phänomen in den letzten Jahren auch in den Medien verstärkt Beachtung findet, liegt darin begründet, wo diese Daten herkommen: In vielen Fällen entsteht die In­for­ma­ti­ons­flut aus Nut­zer­da­ten (In­ter­es­sen, Be­we­gungs­pro­fi­le, Vi­tal­da­ten), die von Un­ter­neh­men wie Google, Amazon oder Facebook erhoben werden, um das Angebot genauer auf die Kundinnen und Kunden zu­zu­schnei­den.

Derartige Da­ten­men­gen können von tra­di­tio­nel­len Com­pu­ter­sys­te­men nicht mehr be­frie­di­gend aus­ge­wer­tet werden: Eine her­kömm­li­che Software findet auch nur das, wonach User suchen. Deshalb braucht es hierfür selbst­ler­nen­de Systeme, die zuvor un­be­kann­te Zu­sam­men­hän­ge aufdecken können.

Data-Mining

Als Data-Mining be­zeich­net man die Analyse von Big Data. Die Erfassung der Daten allein hat noch nicht besonders viel Wert. Den bekommen die In­for­ma­ti­ons­ber­ge erst dann, wenn man die re­le­van­ten Merkmale ex­tra­hiert und auswertet – ähnlich wie beim Gold­schür­fen. Zum ma­schi­nel­len Lernen grenzt sich Data-Mining dadurch ab, dass es bei Ersterem vor allem um das Anwenden von erkannten Mustern geht und bei Letzterem darum, neue Muster zu finden. Zu den Methoden des Data-Mining gehören daher bei­spiels­wei­se Clus­ter­ana­ly­sen, Ent­schei­dungs­bäu­me, Re­gres­si­ons­ver­fah­ren und As­so­zia­ti­ons­ana­ly­sen. Data-Mining ist heute oft Be­stand­teil von Business-In­tel­li­gence-Systemen oder dient der Pre­dic­ti­ve Analytics, um Kun­den­ver­hal­ten oder Markt­trends vor­her­zu­sa­gen.

Machine-Learning-Methoden im Vergleich

Grund­sätz­lich un­ter­schei­den Ent­wick­le­rin­nen und Ent­wick­ler zwischen Su­per­vi­sed Learning, Un­su­per­vi­sed Learning und Deep Learning. Die dabei ver­wen­de­ten Al­go­rith­men sind sehr un­ter­schied­lich.

Su­per­vi­sed Learning

Beim über­wach­ten Lernen bzw. Su­per­vi­sed Learning wird das System mit Bei­spie­len versorgt. Die Ent­wi­ckeln­den geben dabei an, welchen Wert die jeweilige In­for­ma­ti­on erhält, also etwa, ob diese in Kategorie A oder B gehört. Daraus zieht das selbst­ler­nen­de System Schlüsse, erkennt Muster und kann dann mit un­be­kann­ten Daten besser umgehen. Dabei geht es darum, die Feh­ler­quo­te immer weiter zu mi­ni­mie­ren.

Ein bekanntes Beispiel für über­wach­tes Lernen sind Spam-Filter: Anhand von Merkmalen ent­schei­det das System, ob die Mail im Post­ein­gang landet oder in den Spam-Ordner ver­scho­ben wird. Sollte das System einen Fehler machen, können Sie manuell nach­jus­tie­ren, worauf der Filter seine künftigen Be­rech­nun­gen anpassen wird. Damit erzielt die Software immer bessere Er­geb­nis­se.

Un­su­per­vi­sed Learning

Beim Un­su­per­vi­sed Learning, also dem un­über­wach­ten Lernen, versucht das Programm, von selbst Muster zu erkennen. Dafür kann es z. B. Clus­te­ring anwenden: Aus der Menge an Daten wird ein Element aus­ge­wählt, auf seine Merkmale un­ter­sucht und dann mit den bereits un­ter­such­ten ver­gli­chen. Sollte es schon gleich­wer­ti­ge Elemente un­ter­sucht haben, wird das aktuelle Objekt diesen hin­zu­ge­fügt. Ist dem nicht so, wird es isoliert abgelegt.

Systeme, die auf un­über­wach­tem Lernen beruhen, werden u. a. in neu­ro­na­len Netzen rea­li­siert. An­wen­dungs­bei­spie­le finden sich in der Netz­werk­si­cher­heit: Ein selbst­ler­nen­des System erkennt hierbei ab­nor­ma­les Verhalten. Da sich z. B. ein Cy­ber­an­griff keiner bekannten Gruppe zuordnen lässt, kann das Programm die Bedrohung erkennen und Alarm schlagen.

Neben diesen beiden Haupt­rich­tun­gen exis­tie­ren noch das teil­über­wach­te Lernen (Semi-su­per­vi­sed Learning), das be­stär­ken­de Lernen (Rein­force­ment Learning), das aktive Lernen (Active Learning) und das Self-Su­per­vi­sed Learning. Diese Methoden gehören zum über­wach­ten Lernen und un­ter­schei­den sich in Art und Umfang der Be­tei­li­gung durch die Nutzenden. Besonders relevant ist heute das letzt­ge­nann­te Self-Su­per­vi­sed Learning, bei dem die Systeme die Lern­auf­ga­ben selbst – ohne Nut­zer­be­tei­li­gung –erzeugen.

Deep Learning

Im Un­ter­schied zu klas­si­schen ML-Al­go­rith­men wie Ent­schei­dungs­bäu­men oder Support Vector Machines verwendet Deep Learning mehr­schich­ti­ge neuronale Netze, um schwerer ver­ständ­li­che Da­ten­men­gen zu be­ar­bei­ten. Diese sind so komplex, da es sich um na­tür­li­che In­for­ma­tio­nen handelt – z. B. solche, die bei der Sprach-, Hand­schrif­ten- oder Ge­sichts­er­ken­nung auftreten. Na­tür­li­che Daten sind für den Menschen leicht zu ver­ar­bei­ten, für eine Maschine aber nicht, da sie ma­the­ma­tisch nur schwer zu greifen sind.

Deep Learning und künst­li­che neuronale Netze hängen eng mit­ein­an­der zusammen. Die Art, wie man Neural Networks trainiert, kann als Deep Learning be­schrie­ben werden. Tief nennt man es deshalb, weil das Netz der Neuronen in mehreren hier­ar­chi­schen Ebenen geordnet ist. Man beginnt in der ersten Ebene mit einer Lage an Ein­gangs­neu­ro­nen. Diese nehmen die Daten auf, beginnen mit deren Analyse und schicken ihre Er­geb­nis­se an den nächsten neu­ro­na­len Knoten. Am Ende erreichen die immer weiter ver­fei­ner­ten In­for­ma­tio­nen die Aus­gangs­ebe­ne, und das Netz gibt einen Wert aus. Die mitunter sehr zahl­rei­chen Ebenen, die sich zwischen Eingang und Ausgang befinden, werden ver­steck­te Ebenen („hidden layers“) genannt.

Wie funk­tio­niert Machine Learning für das Marketing?

Für Marketing hat ma­schi­nel­les Lernen schon heute wichtige Funk­tio­nen. Derzeit verwenden aber in erster Linie große Un­ter­neh­men ihre Tech­no­lo­gien intern, allen voran Google. Selbst­ler­nen­de Systeme sind noch so neu, dass man sie nicht einfach als Out-of-the-box-Lösung kaufen kann. Statt­des­sen ent­wi­ckeln die großen In­ter­net­an­bie­ter ihre eigenen Systeme und sind damit Im­puls­ge­ber auf diesem Gebiet. Da einige aber trotz des kom­mer­zi­el­len In­ter­es­ses einen Open-Source-Ansatz verfolgen und mit der un­ab­hän­gi­gen Wis­sen­schaft zu­sam­men­ar­bei­ten, nehmen die Ent­wick­lun­gen auf dem Gebiet immer mehr Ge­schwin­dig­keit auf.

Da­ten­ana­ly­se und Prognosen

Marketing hat neben der kreativen Seite auch immer einen ana­ly­ti­schen Aspekt: Sta­tis­ti­ken zum Kun­den­ver­hal­ten spielen eine große Rolle bei der Ent­schei­dung für bestimmte Wer­be­maß­nah­men. Je größer die Da­ten­men­ge ist, desto mehr In­for­ma­tio­nen können in der Regel daraus gezogen werden. Die selbst­ler­nen­den Com­pu­ter­pro­gram­me erkennen Muster und können fundierte Vor­aus­sa­gen machen, wozu Menschen, die grund­sätz­lich vor­ein­ge­nom­men mit Daten umgehen, nur begrenzt fähig sind.

Ana­lys­tin­nen und Analysten gehen in der Regel mit einer be­stimm­ten Er­war­tungs­hal­tung an Messdaten heran. Diese Vor­ur­tei­le sind für Menschen kaum ver­meid­bar und oft Grund für Ver­zer­run­gen. Je größer die Da­ten­men­gen sind, desto stärker dürften die Ab­wei­chun­gen sein. Zwar können auch in­tel­li­gen­te Maschinen Vor­ur­tei­le haben, denn sie wurden von Menschen ungewollt darauf trainiert, aber gerade bei harten Fakten gehen sie ob­jek­ti­ver vor. Maschinen liefern daher meist aus­sa­ge­kräf­ti­ge­re Analysen.

Cloud GPU VM
Maximale KI-Per­for­mance mit Ihrer Cloud GPU VM
  • Exklusive NVIDIA H200 GPUs für höchste Re­chen­leis­tung
  • Ga­ran­tier­te Per­for­mance durch voll­stän­dig de­di­zier­te CPU-Kerne
  • 100 % Hosting in Deutsch­land für maximale Da­ten­si­cher­heit und DSGVO-Kon­for­mi­tät
  • Einfaches, kal­ku­lier­ba­res Preis­mo­dell mit festem Preis pro Stunde

Vi­sua­li­sie­rung

Selbst­ler­nen­de Systeme ver­bes­sern und er­leich­tern außerdem die Dar­stel­lung der Analyse-Er­geb­nis­se: Automated Data Vi­sua­liza­ti­on nennt man eine Technik, bei der der Computer selbst­stän­dig die richtige Dar­stel­lung von Daten und In­for­ma­tio­nen wählt. Das ist besonders wichtig, damit Menschen auch verstehen, was die Maschine entdeckt und pro­gnos­ti­ziert hat. In der großen Datenflut wird es schwierig, Mess­ergeb­nis­se selbst dar­zu­stel­len. Daher muss auch die Vi­sua­li­sie­rung über die Be­rech­nun­gen der Computer laufen.

Per­so­na­li­sie­rung und ge­ne­ra­ti­ves Design

Doch auch auf Seiten der Content-Er­stel­lung kann Machine Learning Einfluss nehmen – Stichwort: ge­ne­ra­ti­ves Design. Statt für alle Nutzenden die gleiche Customer Journey zu entwerfen, können dy­na­mi­sche Systeme basierend auf Machine Learning in­di­vi­du­el­le Er­leb­nis­se gestalten. Die Inhalte, die auf einer Website angezeigt werden, werden zwar weiterhin von Tex­te­rin­nen und Textern sowie De­si­gne­rin­nen und Designern be­reit­ge­stellt, aber das System fügt die Kom­po­nen­ten speziell für den Nutzenden zusammen. In­zwi­schen werden selbst­ler­nen­de Systeme auch ein­ge­setzt, um selbst zu designen oder Inhalte zu verfassen: Mit dem Project Dream­cat­cher ist es z. B. möglich, Bauteile von einer Maschine gestalten zu lassen. LLMs wie ChatGPT können darüber hinaus Texte für Websites erstellen, die an Nut­zer­grup­pen angepasst sind.

In­tel­li­gen­te Chatbots und Sprach­ver­ar­bei­tung

Man kann Machine Learning auch dazu verwenden, Chatbots zu op­ti­mie­ren. Viele Un­ter­neh­men setzen schon heute Programme ein, die einen Teil des Kun­den­sup­ports über einen Chatbot erledigen. Doch in vielen Fällen sind Nutzende schnell genervt von her­kömm­li­chen Bots. Ein Chatbot hingegen, der auf einem selbst­ler­nen­den System basiert und eine gute Sprach­er­ken­nung (Natural Language Pro­ces­sing) hat, kann Kundinnen und Kunden das Gefühl ver­mit­teln, wirklich mit einer Person zu kom­mu­ni­zie­ren – und damit den Turing-Test bestehen.

Per­so­na­li­sier­te Emp­feh­lun­gen

Amazon oder Netflix machen eine weitere für Marketer wichtige Ent­wick­lung des Machine Learnings vor: Emp­feh­lun­gen. Ein großer Faktor für den Erfolg dieser Anbieter besteht darin, vor­her­zu­se­hen, was ein User als Nächstes haben möchte. Abhängig von den ge­sam­mel­ten Daten können die selbst­ler­nen­den Systeme dem Nutzenden weitere Produkte empfehlen. Was früher nur im Großen ging („Unseren Kunden gefällt Produkt A, also wird den meisten auch Produkt B gefallen.“), ist durch moderne Programme in­zwi­schen auch im Kleinen möglich („Der Kundin X haben die Produkte A, B und C gefallen, weshalb ihr wahr­schein­lich auch Produkt D gefallen wird.“).

Zu­sam­men­ge­fasst lässt sich fest­stel­len, dass selbst­ler­nen­de Systeme das On­line­mar­ke­ting in vier wichtigen Punkten be­ein­flus­sen werden:

  • Menge: Programme, die mit Machine Learning funk­tio­nie­ren und gut trainiert wurden, können riesige Da­ten­men­gen ver­ar­bei­ten und damit Prognosen für die Zukunft abgeben.
  • Ge­schwin­dig­keit: Analysen kosten Zeit – wenn man diese von Hand an­fer­ti­gen muss. Durch selbst­ler­nen­de Systeme wird die Ar­beits­ge­schwin­dig­keit erhöht und man kann schneller auf Ver­än­de­run­gen reagieren.
  • Au­to­ma­ti­sie­rung: Durch Machine Learning ist es einfacher, Vorgänge zu au­to­ma­ti­sie­ren. Da sich moderne Systeme mithilfe des ma­schi­nel­len Lernens ei­gen­stän­dig an neue Ge­ge­ben­hei­ten anpassen können, sind auch komplexe Au­to­ma­ti­sie­rungs­pro­zes­se möglich.
  • In­di­vi­dua­li­tät: Com­pu­ter­pro­gram­me können unzählige Kundinnen und Kunden betreuen. Da selbst­ler­nen­de Systeme Daten von einzelnen Nutzenden erfassen und ver­ar­bei­ten, können sie diese auch in­di­vi­du­ell beraten.

Andere Ein­satz­be­rei­che von selbst­ler­nen­den Systemen

Aber nicht nur im Marketing wird schon heute vermehrt auf Machine Learning gesetzt. In vielen weiteren Bereichen unseres Lebens halten selbst­ler­nen­de Systeme Einzug. Teilweise helfen diese in Wis­sen­schaft und Technik, den Fort­schritt noch weiter vor­an­zu­trei­ben. In manchen Fällen werden sie aber auch einfach in Form von mal größeren, mal kleineren Gadgets ein­ge­setzt, um unseren Alltag zu ver­ein­fa­chen. Die vor­ge­stell­ten Ein­satz­ge­bie­te sind nur bei­spiel­haft. Es ist davon aus­zu­ge­hen, dass Ma­schi­nen­ler­nen in nicht allzu ferner Zukunft unser kom­plet­tes Leben be­ein­flus­sen wird.

Hosting

Auch Hosting- und Cloud-Anbieter wie IONOS in­te­grie­ren zunehmend KI-basierte Systeme, um kleinen und mittleren Un­ter­neh­men den Zugang zu Machine Learning zu er­leich­tern. Mit IONOS GPT steht ein KI-Assistent zur Verfügung, der speziell auf die Be­dürf­nis­se von Ge­schäfts­kun­den zu­ge­schnit­ten ist. Der Assistent hilft beim Verfassen von Website-Texten, beim Erstellen von Pro­dukt­be­schrei­bun­gen oder beim Schreiben von Code.

Dabei greift IONOS GPT auf ge­ne­ra­ti­ve KI zurück, um kon­text­be­zo­ge­ne Inhalte zu liefern, die zur Branche und Ziel­grup­pe passen. Im Gegensatz zu all­ge­mei­nen Sprach­mo­del­len ist IONOS GPT gezielt auf die Anwendung im Business- und Mar­ke­ting­um­feld aus­ge­rich­tet. So pro­fi­tie­ren auch kleinere Betriebe, Selbst­stän­di­ge und Startups von den Vorteilen ge­ne­ra­ti­ver KI, ohne dafür ein eigenes System aufbauen zu müssen.

Wis­sen­schaft

Was fürs Marketing gilt, hat in den Na­tur­wis­sen­schaf­ten eine noch größere Bedeutung. Die in­tel­li­gen­te Ver­ar­bei­tung von Big Data ist für empirisch ar­bei­ten­de Wis­sen­schaft­le­rin­nen und Wis­sen­schaft­ler eine enorme Er­leich­te­rung. Teil­chen­phy­si­ker und -phy­si­ke­rin­nen haben durch selbst­ler­nen­de Systeme z. B. die Mög­lich­keit, viel mehr Messdaten auf­zu­neh­men, zu ver­ar­bei­ten und so Ab­wei­chun­gen fest­zu­stel­len. Aber auch in der Medizin hilft Machine Learning: Schon heute setzen einige Me­di­zi­ne­rin­nen und Mediziner künst­li­che In­tel­li­genz bei der Diagnose und Be­hand­lung ein. Außerdem dient Ma­schi­nen­ler­nen der Prognose, etwa von Diabetes oder Herz­in­fark­ten.

Robotik

Besonders in Fabriken sind Roboter in­zwi­schen all­ge­gen­wär­tig. Sie helfen z. B. bei der Mas­sen­fer­ti­gung, um gleich­blei­ben­de Ar­beits­schrit­te zu au­to­ma­ti­sie­ren. Mit in­tel­li­gen­ten Systemen haben sie al­ler­dings oft wenig zu tun, da sie nur für den Ar­beits­schritt pro­gram­miert wurden, den sie ausführen. Werden selbst­ler­nen­de Systeme in der Robotik ein­ge­setzt, dann sollen diese Maschinen auch neue Aufgaben meistern. Diese Ent­wick­lun­gen sind selbst­ver­ständ­lich auch für andere Bereiche hoch­in­ter­es­sant: Von der Raumfahrt bis zum Haushalt werden Roboter mit künst­li­cher In­tel­li­genz in zahl­rei­chen Bereichen zum Einsatz kommen.

Verkehr

Ein großes Aus­hän­ge­schild von Machine Learning sind selbst­fah­ren­de Autos. Dass Fahrzeuge selbst­stän­dig und un­fall­frei durch den realen Verkehr – statt nur durch Test­par­cours – ma­nö­vrie­ren, kann nur durch ma­schi­nel­les Lernen gelingen. Es ist nicht möglich, alle Si­tua­tio­nen zu pro­gram­mie­ren. Deshalb ist es zwingend notwendig, dass Autos, die selbst na­vi­gie­ren sollen, auf in­tel­li­gen­te Maschinen zu­rück­grei­fen. Aber nicht nur beim in­di­vi­du­el­len Trans­port­mit­tel re­vo­lu­tio­nie­ren selbst­ler­nen­de Systeme den Verkehr: In­tel­li­gen­te Al­go­rith­men, z. B. in Form von künst­li­chen neu­ro­na­len Netzen, können den Verkehr ana­ly­sie­ren und ef­fek­ti­ve­re Ver­kehrs­leit­sys­te­me ent­wi­ckeln, etwa durch in­tel­li­gen­te Am­pel­schal­tun­gen.

Internet

Bereits jetzt spielt Machine Learning eine große Rolle im Internet. Ein Beispiel sind Spam-Filter: Durch be­stän­di­ges Lernen werden Filter für un­er­wünsch­te Mails immer besser und verbannen Spam ver­läss­li­cher aus dem Post­ein­gang. Das Gleiche gilt für die in­tel­li­gen­te Abwehr von Viren und Malware, durch die Computer besser vor Schad­soft­ware geschützt werden. Auch Ran­king­al­go­rith­men von Such­ma­schi­nen – allen voran RankBrain von Google – sind selbst­ler­nen­de Systeme. Selbst wenn der Al­go­rith­mus mit der Nut­zer­ein­ga­be nichts an­zu­fan­gen weiß (weil noch niemand danach gesucht hat), kann er eine Vermutung anstellen, was auf die Anfrage passen könnte.

Per­sön­li­che As­sis­ten­ten

Sogar in den eigenen vier Wänden nehmen Com­pu­ter­sys­te­me, die stetig lernen, eine immer wich­ti­ge­re Rolle ein. So werden aus einfachen Wohnungen Smart Homes. Moley Robotics ent­wi­ckelt bei­spiels­wei­se eine in­tel­li­gen­te Küche, die mit ma­schi­nel­len Armen aus­ge­stat­tet Mahl­zei­ten zu­be­rei­tet. Auch die per­sön­li­chen As­sis­ten­ten wie Google Home und Amazon Echo, mit denen Teile der eigenen Wohnung gesteuert werden können, verwenden Machine-Learning-Tech­no­lo­gien, um ihre Nutzenden best­mög­lich zu verstehen. Viele Menschen tragen ihre As­sis­ten­ten in­zwi­schen aber auch stets mit sich: Mit Siri, Cortana oder dem Google Assistant können Nutzer per Sprach­steue­rung Befehle und Fragen an ihre Smart­phones stellen.

Spiele

Seit Beginn der Forschung rund um künst­li­che In­tel­li­genz war die Fähigkeit der Maschinen, Spiele zu spielen, ein großer Antrieb für For­schen­de. In Schach, Dame oder dem aus China stam­men­den Go (das viel­leicht kom­ple­xes­te Brett­spiel der Welt) haben sich selbst­ler­nen­de Systeme gegen mensch­li­che Gegner gemessen. Auch Com­pu­ter­spie­le-Ent­wi­ckeln­de greifen zu Machine Learning, um ihre Spiele in­ter­es­san­ter zu gestalten. Spie­le­de­si­gne­rin­nen und -designer können ma­schi­nel­les Lernen einsetzen, um ein möglichst aus­ge­wo­ge­nes Gameplay zu kreieren und dafür zu sorgen, dass sich Com­pu­ter­geg­ner in­tel­li­gent an das Verhalten der mensch­li­chen Spie­le­rin­nen und Spieler anpassen.

qv6UVOQ0F44.jpg Zur Anzeige dieses Videos sind Cookies von Dritt­an­bie­tern er­for­der­lich. Ihre Cookie-Ein­stel­lun­gen können Sie hier aufrufen und ändern.

Die Ge­schich­te der selbst­ler­nen­den Systeme

Roboter und Automaten be­schäf­ti­gen die Mensch­heit bereits mehrere Jahr­hun­der­te lang. Dabei bewegt sich das Ver­hält­nis des Menschen zur denkenden Maschine von jeher zwischen Furcht und Fas­zi­na­ti­on. Die ei­gent­li­chen Be­mü­hun­gen um Machine Learning begannen al­ler­dings erst in den 1950er-Jahren, zu einer Zeit also, als Computer noch in den Kin­der­schu­hen steckten und man von künst­li­cher In­tel­li­genz nur träumen konnte. Zwar hatten schon in den zwei Jahr­hun­der­ten davor Theo­re­ti­ker wie Thomas Bayes, Adrien-Marie Legendre und Pierre-Simon Laplace Grund­stei­ne für die spätere Forschung gelegt, aber erst mit der Arbeit von Alan Turing wurde die Idee der lern­fä­hi­gen Maschinen konkret.

Zitat

„In such a case one would have to admit that the progress of the machine had not been foreseen when its original in­s­truc­tions were put in. It would be like a pupil who had learnt much from his master, but had added much more by his own work. When this happens I feel that one is obliged to regard the machine as showing in­tel­li­gence.” Alan Turing bei einer Vorlesung im Jahre 1947. (Zitiert nach B. E. Carpenter and R. W. Doran (eds.), A. M. Turing’s ACE Report of 1946 and Other Papers)

1950 ent­wi­ckel­te Turing seinen bis heute bekannten Turing-Test – eine Art Spiel, bei dem ein Computer einem Menschen vorgibt, auch ein Mensch zu sein. Erkennt der Mensch nicht mehr, dass er gar nicht mit einer Person aus Fleisch und Blut redet, hat die Maschine den Test bestanden. So weit war man damals noch lange nicht, aber bereits zwei Jahre später ent­wi­ckel­te Arthur Samuel einen Computer, der Dame spielen konnte – und mit jedem Spiel besser wurde. Das Programm hatte die Fähigkeit, zu lernen. 1957 schließ­lich ent­wi­ckel­te Frank Ro­sen­blatt mit dem Per­zep­tron einen ersten Al­go­rith­mus, der an­ge­lei­tet lernen konnte – ein künst­li­ches neu­ro­na­les Netz.

In­zwi­schen gehören große Un­ter­neh­men zu den Im­puls­ge­bern in der Ent­wick­lung von Machine Learning: IBM hat mit Watson einen Computer ent­wi­ckelt, der einen immensen Wis­sens­spei­cher besitzt und auf Fragen antworten kann, die in na­tür­li­cher Sprache gestellt werden. Google und Meta setzen Machine Learning ein, um ihre Nutzenden besser zu verstehen und ihnen mehr Funk­tio­nen zu bieten.

Zum Hauptmenü