Die Eu­ro­päi­sche Union hat im Jahr 2024 die Ver­ord­nung über künst­li­che In­tel­li­genz (KI-Ver­ord­nung oder AI Act) ver­ab­schie­det, um einen ein­heit­li­chen Rechts­rah­men für die Ent­wick­lung und Nutzung von KI-Systemen zu schaffen. Diese weltweit erste um­fas­sen­de Re­gu­lie­rung zielt darauf ab, sowohl die Chancen der KI-Tech­no­lo­gie zu fördern als auch po­ten­zi­el­le Gefahren zu mi­ni­mie­ren.

Warum wurde die Ver­ord­nung ein­ge­führt?

Die KI-Ver­ord­nung der EU wurde ein­ge­führt, um einen klaren und ein­heit­li­chen Rechts­rah­men für den Einsatz von künst­li­cher In­tel­li­genz in Europa zu schaffen. Die Eu­ro­päi­sche Kom­mis­si­on legte den ersten Entwurf im April 2021 vor. Nach langen Ver­hand­lun­gen wurde die finale Fassung schließ­lich im Januar 2024 be­schlos­sen. Hin­ter­grund der Ver­ord­nung sind die rasanten tech­no­lo­gi­schen Fort­schrit­te im Bereich der KI, die sowohl Chancen als auch er­heb­li­che Risiken mit sich bringen. Ge­sell­schaft­li­che und ethische Her­aus­for­de­run­gen, wie Dis­kri­mi­nie­rung durch vor­ein­ge­nom­me­ne Al­go­rith­men, mangelnde Trans­pa­renz bei au­to­ma­ti­sier­ten Ent­schei­dun­gen oder der Miss­brauch von KI zur Mas­sen­über­wa­chung, er­for­der­ten dringend eine ge­setz­li­che Re­gu­lie­rung.

Ziel der KI-Ver­ord­nung ist es, In­no­va­tio­nen zu fördern, ohne grund­le­gen­de eu­ro­päi­sche Werte wie Da­ten­schutz, Si­cher­heit und Men­schen­rech­te zu gefährden. Die EU verfolgt dabei einen ri­si­ko­ba­sier­ten Ansatz, bei dem besonders ge­fähr­li­che KI-An­wen­dun­gen streng reguliert oder sogar verboten werden. Gleich­zei­tig soll die Ver­ord­nung eu­ro­päi­sche Un­ter­neh­men im globalen Wett­be­werb stärken, indem sie für Vertrauen und Rechts­si­cher­heit sorgt.

Hinweis

Die KI-Ver­ord­nung ist nicht die einzige EU-Ver­ord­nung, die für Un­ter­neh­men von Relevanz ist. Auch auf das Ge­o­blo­cking-Verbot, die ePrivacy-Ver­ord­nung und die Cookie-Richt­li­nie sollten Sie daher einen Blick werfen.

KI-Lösungen
Mehr Digital-Power dank Künst­li­cher In­tel­li­genz
  • In Sekunden zur Online-Präsenz
  • Mehr Wachstum mit KI-Marketing
  • Zeit und Res­sour­cen sparen

Klas­si­fi­zie­rung von KI-Systemen nach Ri­si­ko­ka­te­go­rien

Die Ver­ord­nung verfolgt einen ri­si­ko­ba­sier­ten Ansatz und teilt hierfür ver­schie­de­ne KI-Systeme in vier Ka­te­go­rien ein:

  1. Un­an­nehm­ba­res Risiko: In diese Kategorie fallen sämtliche KI-Systeme, die als Bedrohung für die Si­cher­heit, Le­bens­grund­la­gen oder Rechte von Menschen angesehen werden. Diese sind verboten. Beispiele hierfür sind Systeme für Social Scoring, also der Bewertung des Ver­hal­tens oder der Per­sön­lich­keit von Ein­zel­per­so­nen durch staat­li­che Stellen, oder KI-Systeme, die zur Ge­sichts­er­ken­nung im öf­fent­li­chen Raum ohne Zu­stim­mung genutzt werden können.
  2. Hohes Risiko: Diese Systeme sind erlaubt, un­ter­lie­gen jedoch strengen An­for­de­run­gen und ziehen weit­rei­chen­de Pflichten für An­bie­ten­de und Be­trei­ben­de der Systeme nach sich. Zu dieser Ri­si­koklas­se gehören zum Beispiel KI-Systeme in kri­ti­schen In­fra­struk­tu­ren, etwa im Trans­port­we­sen zur Ge­währ­leis­tung der Si­cher­heit. Auch KI im Per­so­nal­ma­nage­ment, die Ent­schei­dun­gen über Ein­stel­lun­gen oder Kün­di­gun­gen be­ein­flusst, un­ter­liegt be­son­de­ren An­for­de­run­gen.
  3. Be­grenz­tes Risiko/Trans­pa­renz­ri­si­ko: Die dritte Ri­si­koklas­se umfasst KI-Systeme mit spe­zi­fi­schen Trans­pa­renz­an­for­de­run­gen, die für die direkte In­ter­ak­ti­on mit Usern bestimmt sind. Nutzende sollten über die In­ter­ak­ti­on mit solchen Systemen in­for­miert werden. Die meisten ge­ne­ra­ti­ven KIs fallen in diese Kategorie.
  4. Minimales Risiko: Die Mehrheit der KI-Systeme fällt in die vierte Kategorie und un­ter­liegt keinen spe­zi­fi­schen An­for­de­run­gen durch die KI-Ver­ord­nung der EU. Beispiele sind Spam-Filter oder KI-ge­steu­er­te Cha­rak­te­re in Com­pu­ter­spie­len.
Hinweis

Wenn Sie sich für die Nutzung von KI in­ter­es­sie­ren und eine KI-Website erstellen möchten, werfen Sie auf einen Blick auf unsere Rat­ge­ber­ar­ti­kel:

An­for­de­run­gen und Pflichten für Ent­wi­ckeln­de und An­bie­ten­de

Für Ent­wick­le­rin­nen und Ent­wick­ler und An­bie­ten­de von KI-Systemen, ins­be­son­de­re von solchen mit hohem Risiko, legt die EU-KI-Ver­ord­nung eine Reihe von An­for­de­run­gen fest, die si­cher­stel­len sollen, dass diese Tech­no­lo­gien ver­ant­wor­tungs­voll ein­ge­setzt werden. Diese An­for­de­run­gen betreffen ver­schie­de­ne Aspekte, darunter Trans­pa­renz, Si­cher­heit, Ge­nau­ig­keit sowie die Qualität der zugrunde liegenden Daten. Sie sind darauf aus­ge­rich­tet, die Si­cher­heit und Ver­trau­ens­wür­dig­keit von KI-Tech­no­lo­gien zu ge­währ­leis­ten, ohne In­no­va­tio­nen unnötig zu behindern.

Ri­si­ko­ma­nage­ment

Un­ter­neh­men müssen ein kon­ti­nu­ier­li­ches Ri­si­ko­ma­nage­ment-System im­ple­men­tie­ren, das po­ten­zi­el­le Gefahren iden­ti­fi­ziert, bewertet und minimiert. Dazu gehört die re­gel­mä­ßi­ge Über­prü­fung der Aus­wir­kun­gen des KI-Systems auf Ein­zel­per­so­nen sowie auf die Ge­sell­schaft als Ganzes. Besonders im Fokus stehen mögliche Dis­kri­mi­nie­run­gen, un­be­ab­sich­tig­te Ver­zer­run­gen in der Ent­schei­dungs­fin­dung und Risiken für die öf­fent­li­che Si­cher­heit.

Da­ten­qua­li­tät und Ver­mei­dung von Ver­zer­run­gen

Die Trai­nings­da­ten, die für die Ent­wick­lung eines KI-Systems verwendet werden, müssen hohen Qua­li­täts­stan­dards ent­spre­chen. Dies bedeutet, dass sie re­prä­sen­ta­tiv, feh­ler­frei und aus­rei­chend divers sein müssen, um Dis­kri­mi­nie­rung und Ver­zer­run­gen zu vermeiden. Un­ter­neh­men sind ver­pflich­tet, Me­cha­nis­men zur Über­prü­fung und Korrektur von Ver­zer­run­gen zu eta­blie­ren, ins­be­son­de­re wenn die künst­li­che In­tel­li­genz in sensiblen Bereichen wie Per­so­nal­ent­schei­dun­gen oder Straf­ver­fol­gung ein­ge­setzt wird.

Do­ku­men­ta­ti­on und Auf­zeich­nun­gen

Ent­wick­le­rin­nen und Ent­wick­ler müssen um­fas­sen­de tech­ni­sche Do­ku­men­ta­tio­nen ihrer KI-Systeme erstellen und pflegen. Diese Do­ku­men­ta­tio­nen sollen nicht nur den Aufbau und die Funk­ti­ons­wei­se des Systems be­schrei­ben, sondern auch die Ent­schei­dungs­pro­zes­se der KI nach­voll­zieh­bar machen. Zudem müssen Un­ter­neh­men Auf­zeich­nun­gen über den Betrieb ihrer KI-Systeme führen, um eine spätere Analyse und ge­ge­be­nen­falls eine Feh­ler­be­he­bung zu er­mög­li­chen.

Trans­pa­renz und Nut­zer­in­for­ma­ti­on

Die Ver­ord­nung schreibt vor, dass Nutzende klar darüber in­for­miert werden müssen, wenn sie mit einer KI in­ter­agie­ren. Bei­spiels­wei­se müssen Chatbots oder virtuelle As­sis­ten­ten darauf hinweisen, dass sie keine mensch­li­chen Ge­sprächs­part­ner sind. In Fällen, in denen KI-Systeme Ent­schei­dun­gen mit er­heb­li­cher Aus­wir­kung auf Ein­zel­per­so­nen treffen (z. B. Kre­dit­an­trä­ge oder Be­wer­bungs­ver­fah­ren), haben be­trof­fe­ne Personen das Recht auf eine Erklärung, wie die Ent­schei­dung zustande kam.

Mensch­li­che Aufsicht und Ein­griffs­mög­lich­kei­ten

Hoch­ri­si­ko-KI-Systeme dürfen nicht voll­kom­men autonom agieren. Un­ter­neh­men müssen si­cher­stel­len, dass mensch­li­che Kon­troll­ele­men­te in­te­griert sind, sodass Menschen ein­grei­fen und Kor­rek­tu­ren vornehmen können, wenn sich das System feh­ler­haft oder un­er­war­tet verhält. Besonders wichtig ist dies in Bereichen wie der me­di­zi­ni­schen Dia­gnos­tik oder der autonomen Mobilität, wo Fehl­ent­schei­dun­gen gra­vie­ren­de Kon­se­quen­zen haben können.

Ge­nau­ig­keit, Ro­bust­heit und Cy­ber­si­cher­heit

Die KI-Ver­ord­nung verlangt, dass KI-Systeme zu­ver­läs­sig und robust sind, um Fehl­ent­schei­dun­gen und Si­cher­heits­ri­si­ken zu mi­ni­mie­ren. Ent­wick­le­rin­nen und Ent­wick­ler müssen nach­wei­sen, dass ihre Systeme unter ver­schie­de­nen Be­din­gun­gen stabil funk­tio­nie­ren und nicht leicht durch Angriffe oder Ma­ni­pu­la­tio­nen von außen be­ein­träch­tigt werden können. Dies schließt Maßnahmen zur Cy­ber­si­cher­heit ein, wie etwa den Schutz vor Da­ten­lecks oder der un­be­fug­ten Ma­ni­pu­la­ti­on von Al­go­rith­men.

Kon­for­mi­täts­be­wer­tung und Zer­ti­fi­zie­rung

Bevor ein Hoch­ri­si­ko-KI-System auf den Markt gebracht wird, muss es eine Kon­for­mi­täts­be­wer­tung durch­lau­fen, die überprüft, ob es alle re­gu­la­to­ri­schen An­for­de­run­gen erfüllt. In einigen Fällen ist eine externe Prüfung durch eine benannte Stelle er­for­der­lich. Die Ver­ord­nung sieht auch eine fort­lau­fen­de Über­wa­chung und re­gel­mä­ßi­ge Re-Eva­lu­ie­rung der Systeme vor, um si­cher­zu­stel­len, dass sie weiterhin den Standards ent­spre­chen.

Aus­wir­kun­gen und Her­aus­for­de­run­gen für Un­ter­neh­men

Die EU-KI-Ver­ord­nung schafft für Un­ter­neh­men einen klaren recht­li­chen Rahmen, der In­no­va­ti­on und Vertrauen in KI-Tech­no­lo­gien fördern soll, führt zugleich aber zu erhöhtem Aufwand in Bezug auf Com­pli­ance, tech­ni­sche An­pas­sun­gen und Markt­stra­te­gien. Un­ter­neh­men, die KI-Tech­no­lo­gien ent­wi­ckeln oder einsetzen, müssen sich intensiv mit den neuen Vorgaben aus­ein­an­der­set­zen, um recht­li­che Risiken zu vermeiden und lang­fris­tig wett­be­werbs­fä­hig zu bleiben.

IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

Höhere Kosten und bü­ro­kra­ti­scher Aufwand

Eine der größten Her­aus­for­de­run­gen für Un­ter­neh­men besteht in den zu­sätz­li­chen Kosten, die durch die Ein­hal­tung der neuen Vor­schrif­ten entstehen. Besonders für An­bie­ten­de und Nutzende von Hoch­ri­si­ko-KI-Systemen sind um­fang­rei­che Maßnahmen er­for­der­lich, die In­ves­ti­tio­nen in neue Tech­no­lo­gien, qua­li­fi­zier­tes Personal und mög­li­cher­wei­se auch externe Beratende oder Prüf­stel­len erfordern. Vor allem kleine und mittlere Un­ter­neh­men (KMU) könnten Schwie­rig­kei­ten haben, die fi­nan­zi­el­len und per­so­nel­len Res­sour­cen auf­zu­brin­gen, um alle re­gu­la­to­ri­schen An­for­de­run­gen zu erfüllen.

Un­ter­neh­men, die sich nicht an die Vor­schrif­ten halten, riskieren hohe Strafen – ähnlich wie es bereits bei der Da­ten­schutz-Grund­ver­ord­nung (DSGVO) der Fall ist.

In­no­va­ti­ons­för­de­rung

Trotz der zu­sätz­li­chen Re­gu­lie­run­gen kann die Ver­ord­nung lang­fris­tig dazu beitragen, das Vertrauen in KI-Systeme zu stärken und In­no­va­tio­nen zu fördern. Un­ter­neh­men, die sich früh­zei­tig auf die neuen Vorgaben ein­stel­len und trans­pa­ren­te, sichere und ethische KI-Lösungen ent­wi­ckeln, können sich einen Wett­be­werbs­vor­teil ver­schaf­fen.

Durch die Ein­füh­rung klarer Regeln entsteht ein ein­heit­li­cher Rechts­rah­men innerhalb der EU, der Un­si­cher­hei­ten bei der Ent­wick­lung und Nutzung von KI ver­rin­gert. Dies er­leich­tert es Un­ter­neh­men, ihre Tech­no­lo­gien EU-weit zu ver­mark­ten, ohne sich mit un­ter­schied­li­chen na­tio­na­len Vor­schrif­ten aus­ein­an­der­set­zen zu müssen. Die KI-Ver­ord­nung der EU ist außerdem eine der ersten ihrer Art weltweit und setzt hohe Standards. Un­ter­neh­men, die diese erfüllen, können sich als ver­trau­ens­wür­di­ge Anbieter auf dem Markt po­si­tio­nie­ren und sich so einen Vorteil gegenüber Wett­be­wer­bern ver­schaf­fen, die weniger strenge Vor­schrif­ten befolgen müssen.

Ex­tra­ter­ri­to­ria­le Wirkung und Aus­wir­kun­gen auf in­ter­na­tio­na­le Un­ter­neh­men

Die KI-Ver­ord­nung betrifft nicht nur Un­ter­neh­men mit Sitz in der EU, sondern auch in­ter­na­tio­na­le Firmen, die KI-Systeme in der Eu­ro­päi­schen Union anbieten oder dort ge­sam­mel­te Daten für KI-An­wen­dun­gen nutzen. Dies bedeutet, dass bei­spiels­wei­se ein US-ame­ri­ka­ni­sches Un­ter­neh­men, das eine KI-gestützte Re­crui­ting-Software in der EU anbietet, die eu­ro­päi­schen Vor­schrif­ten einhalten muss.

Diese ex­tra­ter­ri­to­ria­le Wirkung zwingt viele Un­ter­neh­men außerhalb der EU dazu, ihre Produkte und Dienst­leis­tun­gen an die neuen Standards an­zu­pas­sen, wenn sie den eu­ro­päi­schen Markt bedienen möchten. Während dies zu einem global ein­heit­li­che­ren Ansatz für KI-Re­gu­lie­run­gen führen könnte, könnte es für nicht­eu­ro­päi­sche Un­ter­neh­men auch eine Hürde dar­stel­len, in den EU-Markt ein­zu­tre­ten.

Al­ler­dings gibt es auch Be­fürch­tun­gen, dass eu­ro­päi­sche Un­ter­neh­men durch die Re­gu­lie­rung in­ter­na­tio­nal ins Hin­ter­tref­fen geraten könnten. Während etwa in den USA und China KI-In­no­va­tio­nen oft mit wenig Ein­schrän­kun­gen vor­an­ge­trie­ben werden, könnten die strengen EU-Vor­schrif­ten dazu führen, dass eu­ro­päi­sche Un­ter­neh­men langsamer neue Tech­no­lo­gien ent­wi­ckeln und im­ple­men­tie­ren. Dies könnte ins­be­son­de­re für Startups und KMU eine Her­aus­for­de­rung dar­stel­len, wenn sie mit Tech-Giganten kon­kur­rie­ren, die über weitaus größere Res­sour­cen verfügen.

Zum Hauptmenü