KI in der IT-Sicherheit

Autor: Aline Pokorny

5. Februar 2026

KI in der IT‑Sicherheit — Warum intel­li­gente Angriffe auch intel­li­gente Abwehr erfordern

Was steckt dahin­ter – und warum betrifft es uns alle?

Cyber­an­griffe sind längst nichts mehr, was nur „die IT“ betrifft. Sie treffen ganze Unter­neh­men, stören Abläufe, legen Systeme lahm oder führen zu Ver­trau­ens­ver­lust bei Kunden. Gleich­zei­tig sind die Angriffe intel­li­gen­ter gewor­den: Phis­hing-Mails klingen per­sön­li­cher, Schad­soft­ware passt sich schnel­ler an und Täu­schun­gen wie gefälschte Stimmen oder Videos wirken erschre­ckend echt.

Hier kommt KI-gestützte Bedro­hungs­er­ken­nung ins Spiel. Ver­ein­facht gesagt lernt Soft­ware aus vielen Sicher­heits­er­eig­nis­sen, kann Muster erken­nen und oft schnel­ler alar­mie­ren als rein manu­elle Sich­tung, wenn Daten­lage und Modell­kon­fi­gu­ra­tion passen.“ Das ent­las­tet Sicher­heits­teams und sorgt dafür, dass Angriffe früher erkannt werden können.

(Trotz­dem sind Fehl­alarme (False Posi­ti­ves) sowie Umge­hungs­stra­te­gien wie gezielte Evasion‑Techniken wei­ter­hin möglich.)

Die Not­wen­dig­keit zusätz­li­cher, nicht nur signatur‑/regelbasierter Kon­trol­len und Gover­nance betont NIST SP 800‑207 (Zero Trust) und NIST CSF 2.0; sie ver­spre­chen aber keine auto­ma­ti­sche Über­le­gen­heit ein­zel­ner Tools. NIST SP 800‑207, NIST CSF 2.0

Der Haken: Die­selbe Tech­no­lo­gie nutzen auch Angrei­fer. KI hilft ihnen, Nach­rich­ten besser zu for­mu­lie­ren, Angriffe zu auto­ma­ti­sie­ren und Sicher­heits­me­cha­nis­men zu umgehen. Deshalb reicht es nicht mehr aus, nur Fire­walls und Viren­scan­ner zu betrei­ben. Gefragt sind lern­fä­hige, adap­tive Schutz­me­cha­nis­men – kom­bi­niert mit klaren Regeln, wie KI im Unter­neh­men ein­ge­setzt wird.

Kurz­fas­sung für Techniker*innen: Das Wich­tigste in 60 Sekunden

  • KI ver­än­dert Secu­rity grund­le­gend – auf Verteidiger‑ und Angreiferseite
  • Klas­si­sche, signa­tur­ba­sierte Schutz­me­cha­nis­men stoßen an ihre Grenzen
  • KI ver­bes­sert ins­be­son­dere Erken­nung, Prio­ri­sie­rung und Reaktionsgeschwindigkeit
  • Ohne Gover­nance ent­steht schnell ein neues Risiko (z. B. unkon­trol­lierte KI‑Nutzung)
  • Moderne Frame­works wie NIST AI RMF und MITRE ATT&CK helfen bei Struk­tur und Umsetzung

Aus­führ­li­che Fassung für Techniker*innen

KI als Beschleu­ni­ger in der Cybersecurity:

Bran­chen­re­ports zeigen u. a. den Anstieg aus­nutz­ba­rer Schwach­stel­len als initia­len Weg sowie den hohen Anteil mensch­li­cher Fak­to­ren – beides treibt Alert‑Volumen und Priorisierung.

 Verizon DBIR 2024: 68 % Human‑Element; 14 % der Brea­ches initial via Vul­nerabi­lity Explo­ita­tion (≈ +180 % ggü. Vorjahr).

Statt jeden Log­ein­trag manuell zu prüfen, kann KI ver­däch­tige Muster prio­ri­sie­ren und Zusam­men­hänge herstellen.

Angrei­fer nutzen KI gleich­zei­tig, um Social‑Engineering‑Angriffe glaub­wür­di­ger zu machen oder Schad­code schnel­ler zu vari­ie­ren. Das führt zu einem „Rüs­tungs­wett­lauf“, in dem Geschwin­dig­keit und Lern­fä­hig­keit ent­schei­dend sind.

Deepf­akes und Social Engineering:

Ein beson­ders kri­ti­scher Aspekt sind KI‑basierte Täu­schun­gen: gefälschte Stimme von Füh­rungs­kräf­ten, mani­pu­lierte Video­kon­fe­ren­zen oder perfekt for­mu­lierte E‑Mails. Diese Angriffe zielen weniger auf Technik als auf Ver­trauen und funk­tio­nie­ren gerade deshalb so gut.

Reine Awa­re­ness-Schu­lun­gen stoßen hier an Grenzen. Ergän­zend werden tech­ni­sche Prü­fun­gen, mehr­stu­fige Frei­ga­be­pro­zesse und klar defi­nierte Kom­mu­ni­ka­ti­ons­re­geln notwendig.

Struk­tur statt Aktionismus:

Moderne Sicher­heits­an­sätze setzen zuneh­mend auf Stan­dards und Frameworks:

  • NIST AI Risk Manage­ment Frame­work unter­stützt dabei, Risiken von KI sys­te­ma­tisch zu beur­tei­len – von der Ein­füh­rung bis zum Betrieb.
  • MITRE ATT&CK hilft, Angriffe besser zu ver­ste­hen und Detection‑Mechanismen rea­li­täts­nah aufzubauen.

Beide Ansätze fördern nach­voll­zieh­bare, wart­bare Sicher­heits­ar­chi­tek­tu­ren statt punk­tu­el­ler Einzellösungen.

Was bringt mir das als IT‑Administrator?

Für Admi­nis­tra­to­ren bedeu­tet KI‑gestützte Secu­rity vor allem:

  • Weniger manu­elle Detail­ar­beit bei Alerts
  • Bessere Prio­ri­sie­rung statt dau­ern­der Alarmflut
  • Schnel­lere Reak­tion auf echte Vorfälle
  • Klarere Argu­men­ta­ti­ons­grund­la­gen gegen­über Management

Gleich­zei­tig steigt die Ver­ant­wor­tung: KI‑Systeme müssen sauber kon­fi­gu­riert, über­wacht und regel­mä­ßig über­prüft werden. Ohne saubere Daten, klar defi­nierte Zustän­dig­kei­ten und doku­men­tierte Pro­zesse kann KI mehr Ver­wir­rung als Nutzen stiften.

Was habe ich davon als Anwen­de­rin oder Anwender?

Aus Nut­zer­sicht bleibt KI‑Sicherheit im Ide­al­fall unsicht­bar. Man merkt nur:

  • Weniger betrü­ge­ri­sche E‑Mails im Posteingang
  • Klarere Regeln für Frei­ga­ben und sen­si­ble Entscheidungen
  • Mehr Sicher­heit bei digi­ta­len Mee­tings und Anrufen

Wichtig ist: Sicher­heit wird nicht auf die Mit­ar­bei­ten­den „abge­wälzt“. Technik, Pro­zesse und Schu­lung greifen inein­an­der – niemand muss alles allein erken­nen oder entscheiden.

Erfolg­reich ein­füh­ren: KI‑Security pra­xis­nah umsetzen

Bewährt haben sich unter anderem:

  • Klare Richt­li­nien, wo und wie KI ein­ge­setzt werden darf
  • Kom­bi­na­tion aus Technik, Pro­zes­sen und Schulung
  • Schritt­weise Ein­füh­rung statt Komplettumstellung
  • Regel­mä­ßige Über­prü­fung und Anpas­sung der Modelle
  • Trans­pa­rente Kom­mu­ni­ka­tion gegen­über Mitarbeitenden

Aus Trai­ner­sicht gilt: KI‑gestützte Sicher­heit ist kein Projekt mit End­da­tum, sondern ein kon­ti­nu­ier­li­cher Lern­pro­zess – tech­nisch und organisatorisch.

 

Quellen u. a.: NIST (SP 800‑207, CSF 2.0, AI RMF), MITRE ATT&CK, Verizon DBIR

 

Dis­clai­mer:
Dieser Text erhebt keinen Anspruch auf voll­stän­dige Kor­rekt­heit. Die ent­hal­te­nen Infor­ma­tio­nen dienen aus­schließ­lich als Anre­gun­gen und erset­zen keine indi­vi­du­elle Bera­tung oder wei­ter­füh­rende Recher­che. Ände­run­gen in der Sach­lage können die dar­ge­stell­ten Inhalte beein­flus­sen. Bitte ziehe bei kon­kre­ten Ent­schei­dun­gen stets zusätz­li­che, ver­läss­li­che Quellen hinzu. Ruf uns zum Bei­spiel an. Unsere Con­sul­tants helfen gerne: Kon­takt­da­ten unter https://eitieCloud.de

#