Künstliche Intelligenz zeigt bereits ihr Potenzial, nahezu jeden Bereich der Cybersicherheit grundlegend zu verändern – sowohl im positiven als auch im negativen Sinne.

KI ist das sprichwörtliche zweischneidige Schwert: Sie kann einerseits als mächtiges Werkzeug zur Schaffung robuster Cybersicherheitsmaßnahmen dienen, andererseits aber auch als gefährliche Waffe zur Kompromittierung dieser Maßnahmen eingesetzt werden.

Warum ist KI-Sicherheit wichtig?

Angesichts der allgegenwärtigen Präsenz verschiedener KI-Iterationen in der globalen Wirtschaft liegt es in der Verantwortung von Unternehmen, die Chancen und Herausforderungen der KI-Cybersicherheit zu verstehen. Die missbräuchliche Nutzung durch böswillige Akteure sorgt bereits jetzt für Besorgnis

Laut McKinsey stieg die Einführung von KI in Unternehmen im Jahr 2024 auf 72 %, verglichen mit etwa 50 % in den Vorjahren in verschiedenen Regionen und Branchen. Die komplexe Natur und der enorme Datenbedarf von KI-Systemen machen sie jedoch auch zu Hauptzielen von Cyberangriffen. Eingabedaten können etwa für KI-Systeme bei gegnerischen Angriffen geschickt manipuliert werden, um falsche oder schädliche Ergebnisse zu erzielen.

Eine kompromittierte KI kann katastrophale Folgen haben, darunter Datenschutzverletzungen, finanzieller Verlust, Rufschädigung und sogar körperliche Schäden. Die Gefahr des Missbrauchs ist immens und unterstreicht die dringende Notwendigkeit solider KI-Sicherheitsmaßnahmen.

Eine Studie des World Economic Forum ergab, dass sich fast die Hälfte der Führungskräfte am meisten darüber Sorgen macht, wie KI das Risiko von Bedrohungen wie Phishing erhöhen wird. Der Cybersicherheitsbericht 2024 von Ivanti bestätigte diese Bedenken.

Trotz der Risiken ergab derselbe Ivanti-Bericht, dass IT- und Sicherheitsexperten die Auswirkungen der KI-Cybersicherheit weitgehend optimistisch einschätzen. Fast die Hälfte (46 %) ist überzeugt, dass es einen positiven Nettoeffekt gibt, während 44 % glauben, dass die Auswirkungen weder positiv noch negativ sein werden.

Weiterlesen: Bericht über den Stand der Cybersicherheit 2024 – Wendepunkt

Potenzielle KI-Cyberbedrohungen

KI führt neue Angriffsvektoren ein, die spezifische Abwehrmaßnahmen erfordern. Beispiele hierfür sind:

  • Hacking von Webseiten: Forscher haben herausgefunden, dass das große Sprachmodell von OpenAI als KI-Hacking-Agent umfunktioniert werden kann, der in der Lage ist, Webseiten autonom anzugreifen. Internetbetrüger brauchen keine Hacking-Fähigkeiten, sondern nur die Fähigkeit, die KI richtig dazu zu bringen, ihre schmutzige Arbeit zu erledigen.
  • Datenvergiftung: Angreifer können die Daten manipulieren, die zum Trainieren von KI-Modellen verwendet werden, sodass diese nicht mehr richtig funktionieren. Dies könnte das Einfügen gefälschter Datenpunkte beinhalten, die das Modell beeinflussen, um falsche Muster zu erlernen oder nicht vorhandene Bedrohungen zu priorisieren, oder das subtile Modifizieren vorhandener Datenpunkte, um das KI-Modell auf Ergebnisse auszurichten, die dem Angreifer zugutekommen.
  • Umgehungstechniken: KI könnte zur Entwicklung von Techniken verwendet werden, die der Erkennung durch Sicherheitssysteme entgehen, wie z. B. die Erstellung von E-Mails oder Malware, die für Menschen nicht verdächtig aussehen, aber Schwachstellen auslösen oder Sicherheitsfilter umgehen.
  • Fortgeschrittenes Social Engineering: Da eine KI große Datenmengen analysieren kann, kann sie Ziele anhand bestimmter Kriterien identifizieren, z. B. anhand von Schwachstellen in der Vergangenheit oder der Anfälligkeit für bestimmte Betrugsmaschen. Dann kann sie einen Angriff automatisieren und personalisieren, indem sie relevante Informationen aus Social-Media-Profilen oder früheren Interaktionen verwendet, damit der Angriff glaubwürdiger wird und den Empfänger eher täuscht. Außerdem kann eine generative KI Phishing-Nachrichten verfassen, die keine Grammatik- oder Stilfehler enthalten und daher glaubwürdig wirken.
  • Denial-of-Service-Angriffe (DoS): KI kann zur Orchestrierung großangelegter DoS-Angriffe eingesetzt werden, die schwieriger abzuwehren sind. Durch die Analyse von Netzwerkkonfigurationen können Schwachstellen erkannt und Botnets effektiver verwaltet werden, während sie versuchen, ein System mit Datenverkehr zu überlasten.
  • Deepfakes: KI kann überzeugende visuelle oder akustische Imitationen von Menschen für Identitätsdiebstahl erzeugen. Es könnte etwa die Stimme eines leitenden Angestellten imitieren, um Mitarbeitende dazu zu bringen, Geld auf betrügerische Konten zu überweisen, sensible Informationen wie Passwörter oder Zugangscodes weiterzugeben oder nicht autorisierte Rechnungen oder Transaktionen zu genehmigen. Wenn ein Unternehmen Spracherkennung in seinen Sicherheitssystemen einsetzt, könnte ein gut gemachter Deepfake diese Sicherheitsvorkehrungen überlisten und auf sichere Bereiche oder Daten zugreifen. Ein Unternehmen in Hongkong wurde durch einen Deepfake-Betrug um 26 Millionen Dollar erleichtert.

Eine subtile Bedrohung, die von KI ausgeht, ist Bequemlichkeit. Es besteht immer die Gefahr, dass man sich zu sehr auf KI-Systeme verlässt, was zu Nachlässigkeit bei der Überwachung und Aktualisierung führen kann. Eine der wichtigsten Maßnahmen zum Schutz eines Unternehmens vor KI-Problemen ist die kontinuierliche Schulung und Überwachung, unabhängig davon, ob KI im Bereich der Cybersicherheit oder in anderen Bereichen eingesetzt wird. Um sicherzustellen, dass die KI im besten Interesse des Unternehmens arbeitet, ist ständige Wachsamkeit erforderlich.

Video: Generative KI für Informationssicherheit und Hacker: Was Sicherheitsteams wissen müssen

Vorteile der KI-Cybersicherheit

Lösungen im Bereich der KI-Cybersicherheit bieten einem Unternehmen auf folgende Weise den größten Mehrwert:

Verbesserte Bedrohungserkennung

KI ist hervorragend darin, Muster in riesigen Datensätzen zu erkennen, um Anomalien, die auf Cyberangriffe hinweisen, mit beispielloser Genauigkeit zu erkennen. Während menschliche Analysten mit der Datenmenge oder den Warnmeldungen überfordert wären, verbessert KI die Früherkennung und Reaktion.

Verbesserte Reaktion auf Vorfälle

KI kann Routineaufgaben bei der Reaktion auf Vorfälle automatisieren, wodurch die Reaktionszeiten verkürzt und menschliche Fehler minimiert werden. Durch die Analyse vergangener Vorfälle kann KI auch potenzielle Angriffsvektoren vorhersagen, sodass Unternehmen ihre Abwehrmaßnahmen verstärken können.

Risikobewertung und -priorisierung

KI kann die Sicherheitslage eines Unternehmens bewerten, Schwachstellen identifizieren und die Priorisierung von Abhilfemaßnahmen. Dies hilft, die Ressourcenverteilung zu optimieren und sich auf kritische Bereiche zu konzentrieren.

Sicherheitsüberlegungen für verschiedene Arten von KI

Die mit KI verbundenen Sicherheitsherausforderungen variieren je nach Art der eingesetzten KI.

Wenn ein Unternehmen generative KI einsetzt, sollte es besonderes Augenmerk auf den Schutz der Trainingsdaten legen, Manipulationen am Modell verhindern und geistiges Eigentum sichern.

Bei schwacher (oder „eingeschränkter“) KI wie Chatbots im Kundensupport, Empfehlungssystemen (wie Netflix), Bilderkennungssoftware, Fließband- und Operationsrobotern sollte das Unternehmen der Datensicherheit, der Robustheit gegenüber Angriffen und der Erklärbarkeit Priorität einräumen.

Autonome „starke“ KI (auch bekannt als Artificial General Intelligence – AGI) ist bislang noch ein Konzept in Entwicklung und existiert derzeit nicht. Sollte es jedoch Realität werden, müssen Unternehmen ihren Fokus auf robuste Kontrollmechanismen legen und sich intensiv mit existenziellen Risiken sowie den ethischen Auswirkungen auseinandersetzen.

Video: Wie man das IT-Servicemanagement mit generativer KI transformiert

Neueste Entwicklungen in der KI-Cybersicherheit

Die rasante Entwicklung der KI fördert auch bedeutende Fortschritte in der KI-gestützten Cybersicherheit, darunter:

  • Generative KI-Bedrohungsmodellierung: KI-Cybersicherheitstools können Angriffsszenarien simulieren, um Unternehmen dabei zu helfen, Schwachstellen proaktiv zu finden und zu reparieren.
  • KI-gestützte Bedrohungssuche: KI kann Netzwerkverkehr und Systemprotokolle analysieren, um böswillige Aktivitäten und potenzielle Bedrohungen zu erkennen.
  • Automatisierte Reaktion auf Vorfälle: KI-Cybersicherheitslösungen können routinemäßige Aufgaben zur Reaktion auf Vorfälle automatisieren, wie z. B. die Isolierung kompromittierter Systeme und die Eindämmung von Bedrohungen.
  • KI zur Bewertung von Schwachstellen: Kann Software-Code analysieren, um mögliche Schwachstellen zu finden, damit Entwickler sicherere Anwendungen erstellen können.

Kurse zur KI-Cybersicherheit

Investitionen in die KI-Cybersicherheit sind für die Weiterbildung von Arbeitskräften, die wissen, wie man diese Tools einsetzt, von entscheidender Bedeutung. Zahlreiche Online-Plattformen und Universitäten bieten Kurse zu verschiedenen Aspekten der KI-Sicherheit an, von Grundlagenwissen bis hin zu fortgeschrittenen Themen.

Führende Anbieter von Cybersicherheitslösungen bieten eine Vielzahl von Kursen und Schulungen an, um Ihrem Team die Fähigkeiten zu vermitteln, die es benötigt, um Ihre Plattform optimal zu nutzen.

Best Practices für die KI-Cybersicherheit

Die Umsetzung einer umfassenden Strategie zur praktischen Anwendung von KI für die Cybersicherheit ist essenziell.

1. Legen Sie Richtlinien für das Datenmanagement und den Datenschutz fest

Legen Sie zu Beginn des Adoptionsprozesses solide Richtlinien zur Datenverwaltung fest, die die Anonymisierung und Verschlüsselung von Daten und vieles mehr abdecken. Beziehen Sie alle relevanten Stakeholder in diesen Prozess ein.

2. Machen Sie Transparenz bei KI zur Pflicht

Entwickeln oder lizenzieren Sie KI-Modelle, die klare Erklärungen für Ihre Entscheidungen liefern können, anstatt „Black-Box“-Modelle zu verwenden. So können Sicherheitsexperten nachvollziehen, wie die KI zu ihren Schlussfolgerungen gelangt, und potenzielle Verzerrungen oder Fehler identifizieren. Diese „Glasbox“-Modelle werden von Fiddler AI, DarwinAI, H2O.ai und IBM Watson-Tools wie AI Fairness 360 und AI Explainability 360 bereitgestellt.

3. Legen Sie den Fokus auf ein starkes Datenmanagement

  • KI-Modelle sind auf die Qualität der für das Training verwendeten Daten angewiesen. Stellen Sie sicher, dass Sie vielfältige, genaue und aktuelle Daten verwenden, damit Ihre KI effektiv lernen und Bedrohungen erkennen kann.
  • Ergreifen Sie strenge Sicherheitsmaßnahmen, um die Daten zu schützen, die für die Schulung und den Betrieb eines KI-Modells verwendet werden, da einige davon möglicherweise sensibel sind. Jegliche Verstöße könnten das System gefährden, die Effektivität der KI beeinträchtigen oder Schwachstellen verursachen.
  • Achten Sie auf mögliche Verzerrungen in Ihren Trainingsdaten. Verzerrungen können dazu führen, dass die KI bestimmte Arten von Bedrohungen priorisiert oder andere übersieht. Überwachen und verringern Sie regelmäßig Verzerrungen, um sicherzustellen, dass Ihre KI objektive Entscheidungen trifft.

Mehr zum Thema: Die Bedeutung präziser Daten für die optimale Nutzung von KI

4. Rüsten Sie KI-Modelle mit „Adversarial Training“ aus

Setzen Sie KI-Modelle während der Trainingsphase böswilligen Eingaben aus, damit sie in der Lage sind, feindliche Angriffe wie Datenvergiftung zu erkennen und ihnen entgegenzuwirken.

5. Implementieren Sie eine kontinuierliche Überwachung

  • Führen Sie kontinuierliche Überwachungs- und Bedrohungserkennungssysteme durch, um Voreingenommenheit und Leistungsabfall zu erkennen.
  • Verwenden Sie Anomalieerkennungssysteme, um ungewöhnliches Verhalten in Ihren KI-Modellen oder Netzwerkverkehrsmustern zu erkennen und so potenzielle KI-Angriffe zu erkennen, die versuchen, Daten zu manipulieren oder Schwachstellen auszunutzen.
  • Trainieren Sie Ihre KI-Cybersicherheitsmodelle regelmäßig mit neuen Daten und aktualisieren Sie die Algorithmen, um sicherzustellen, dass sie auch gegen neu auftretende Bedrohungen wirksam bleiben.

6. Vernachlässigen SIe nicht den Faktor Menschen

KI ist nicht unfehlbar. Behalten Sie die menschliche Aufsicht bei, indem Sicherheitsexperten die KI-Ergebnisse überprüfen und validieren. So können potenzielle Verzerrungen, falsch positive Ergebnisse oder manipulierte Daten, die von der KI möglicherweise generiert werden, rechtzeitig erkannt werden.

7. Führen Sie regelmäßige Tests und Audits durch

  • Überprüfen Sie Ihre KI-Modelle regelmäßig auf Schwachstellen. Wie jede Software können auch KI-Cybersicherheitsprodukte Schwachstellen aufweisen, die Angreifer ausnutzen könnten. Es ist wichtig, sie sofort zu patchen.
  • KI-Modelle können Fehlalarme erzeugen und nicht vorhandene Bedrohungen identifizieren. Verwenden Sie Strategien, um Fehlalarme zu minimieren und zu vermeiden, dass Sicherheitsteams mit irrelevanten Warnmeldungen überhäuft werden.
  • Führen Sie regelmäßige Sicherheitstests Ihrer KI-Modelle durch, um Schwachstellen zu identifizieren, die Angreifer ausnutzen könnten. Penetrationstests, die speziell für KI-Systeme entwickelt wurden, können sehr wertvoll sein.

8. Erstellen Sie einen Notfallplan

Erstellen Sie einen umfassenden Plan zur Reaktion auf Vorfälle, um KI-bezogene Sicherheitsvorfälle effektiv zu bewältigen.

9. Stellen Sie die Schulung Ihrer Mitarbeitenden in den Vordergrund

  • Informieren Sie Ihre Mitarbeitenden über die mit KI verbundenen Risiken und darüber, wie Social-Engineering-Taktiken eingesetzt werden könnten, um sie dazu zu manipulieren, die Sicherheit von KI-Systemen oder Daten zu gefährden.
  • Führen Sie Red-Team-Übungen durch, die KI-gestützte Angriffe simulieren, um Ihre Sicherheitslage zu testen und Schwachstellen zu erkennen, die Angreifer ausnutzen könnten.
  • Arbeiten Sie mit Branchenexperten und Sicherheitsforschern zusammen, um über die neuesten KI-Bedrohungen und bewährte Verfahren zu deren Bekämpfung auf dem Laufenden zu bleiben.

10. Risikomanagement für KI von Drittanbietern einführen

Prüfen Sie die Sicherheitspraktiken von Drittanbietern von KI sorgfältig. Teilen sie Daten mit anderen Parteien oder verwenden sie öffentliche Datensätze? Befolgen sie die „Secure by Design“-Prinzipien?

11. Andere Best Practices

  • Integrieren Sie Ihre KI-Lösung in Feeds für Bedrohungsdaten, damit sie Echtzeit-Bedrohungsdaten einbeziehen und neuen Angriffsvektoren immer einen Schritt voraus sein kann.
  • Stellen Sie sicher, dass Ihre KI-Lösung den relevanten Branchenstandards und -vorschriften entspricht. Dies ist in bestimmten Branchen vorgeschrieben. In der Automobil- und Fertigungsbranche muss eine KI beispielsweise die ISO 26262 für die funktionale Sicherheit von Kraftfahrzeugen, die Datenschutz-Grundverordnung (DSGVO) für den Datenschutz und die Richtlinien des National Institute of Standards and Technology einhalten. KI im Gesundheitswesen muss dem Health Insurance Portability and Accountability Act in den USA, der DSGVO in Europa und den FDA-Vorschriften für KI-basierte medizinische Geräte entsprechen.
  • Tracken Sie Kennzahlen wie Erkennungsraten von Bedrohungen, falsch-positive Ergebnisse und Reaktionszeiten. Auf diese Weise erfahren Sie, wie effektiv Ihre KI ist und in welchen Bereichen Verbesserungen möglich sind.

Erfolg durch einen ausgewogenen Ansatz

das sich in das spannende Feld der KI-gestützten Cybersicherheit wagt, ist ein ausgewogener Ansatz entscheidend. Nutzen Sie die vielfältigen Vorteile der KI, behalten Sie jedoch auch ihre Grenzen und potenziellen Sicherheitsrisiken im Blick.

Wie jede Technologie ist auch KI nicht von Natur aus gut oder schlecht; sie wird sowohl von wohlwollenden als auch von böswilligen Akteuren eingesetzt. Behandeln Sie KI immer wie jedes andere Tool: Schätzen Sie, was sie leisten kann, aber behalten Sie im Blick, was sie auch bewirken könnte.

Lesen Sie: Ivantis Einstellung zur künstlichen Intelligenz