Wenn uns die KI über den Kopf wächst

Angriffe auf IT-Sicherheit - Mit KI muss die Kontrolle wachsen

Helfen Penetrationstests, also simulierte Angriffsversuche auf IT-Systeme, dabei, die Kontrolle zu behalten?

Von Annegret Handel-Kempf

Mit dem Siegeszug der Künstlichen Intelligenz nehmen auch die Sicherheitsrisiken zu. Für alle. Überall, wo IT-Software drin ist, IT-Hardware dran steckt oder Daten scheinbar schwerelos über den Wolken unterwegs sind. Während sie tatsächlich irgendwo auf der Welt auf Cloud-Servern parken.

Hacker, die im Auftrag der Nutzer Sicherheitsrisiken austesten, nehmen die von menschlicher Kontrolle zunehmend losgelösten Algorithmen der Künstlichen Intelligenz ins Visier.

Ein Gespräch mit „Profihacker“ Sebastian Schreiber, Diplom-Informatiker und Geschäftsführer der SYSS GmbH Tübingen, über zunehmende Verunsicherung und Chancen im Umgang mit Machine Learning.

Herr Schreiber, Sie hacken seit einem Vierteljahrhundert im Auftrag von Unternehmen, um deren Sicherheit zu überprüfen, oft auch live auf Kongressen. Wie haben sich die Szenarien seit Ihrer Studienzeit verändert, wo entdecken Sie gegenwärtig die größten Einfallstore?


In den letzten 25 Jahren hat sich extrem viel verändert. Erlauben Sie mir einen Rückblick: Im Jahr 2000 verunsicherte der I-Love-you-Virus die Welt, 2007 kam das erste iPhone auf den Markt und 2013 starteten die Snowden-Enthüllungen. Jahr für Jahr wurde und wird immer mehr digitalisiert, das heißt, die digitale Verzahnung der Unternehmen wird immer dichter – und die Abhängigkeit von IT steigt. Seit dem WannaCry-Angriff von 2017 dominieren die Ereignisse rund um Ransomware das Gebiet der Cybersicherheit.
Aktuell stelle ich fest, dass die Angriffe immer professioneller werden. Die Täter gehen arbeitsteilig vor und formieren Franchise-Modelle – genau wie bei McDonald‘s oder Obi. Das verleiht den Tätern nicht nur eine enorme Durchschlagskraft, sondern insbesondere auch eine gesteigerte Effizienz.
Nach wie vor sehen wir Angriffe über E-Mail: Diese sind besonders dann hoch wirksam, wenn das betroffene Unternehmen keine Zwei-Faktor-Authentifizierung nutzt.
Hierzu kommen fortschrittliche Social Engineering-Angriffe sowie Angriffe auf exponierte Systeme.

Autos, Busse, Züge, Flugzeuge werden autonom, KI auch. Laufen wir Gefahr, in fahrenden und fliegenden Computern nicht mehr sicher zu sein?


Autonomer Personenverkehr ist in der Tat ein neues Gefechtsfeld. Einerseits bin ich mir sicher, dass Algorithmen schon sehr bald zuverlässiger Auto fahren oder fliegen können als Taxifahrer und Pilotinnen. Soweit die gute Nachricht. Allerdings: Terroristen ist es gelungen, im Zuge der 9/11-Anschläge zwei Flugzeuge als Waffe einzusetzen. Laut Flightradar24 befinden sich permanent etwa 11.600 Flugzeuge in der Luft. Wäre ein Angreifer in der Lage, die Steuerungs-KI dieser Flugzeuge zu beeinflussen und die Flugzeuge als Waffen einzusetzen, dann käme das einer Katastrophe gleich: Tausende 9/11-Ereignisse an nur einem einzigen Tag wären denkbar, das heißt, das potenzielle Schadensausmaß wäre immens. Unternehmerisch gesprochen: Das kaufmännische Risiko ist definiert als das Produkt der Eintrittswahrscheinlichkeit mit dem erwarteten Schadensausmaß. Wir müssen also alles daransetzen, die Eintrittswahrscheinlichkeit für solche Ereignisse sehr, sehr klein zu halten.

Wie schützen wir uns davor, dass andere Autofahrer auf unsere Kosten an Ladesäulen tanken oder Strom laden?

Penetrationstests gegen Ladesäulen und Ladeparks haben wir für viele Hersteller/Betreiber durchgeführt. Hier herrscht ein großes Sicherheitsbewusstsein. Das tatsächliche Risiko schätze ich allerdings als gering ein. Der Schaden durch Stromdiebstähle ist sehr gering. Zudem ist ein Stromdiebstahl für einen rational denkenden Täter sehr unattraktiv, da er sich durch sein KFZ-Kennzeichen exponiert.

Der Hype um Sprachmodule wie ChatGPT und KI-Agenten hat eine neue Dimension erreicht. Über Prompts wurden Chatbots dazu gebracht, Regeln zu umgehen. Ein Sicherheitsberater schaffte es sogar, einen universellen Jailbreak gegen große Sprachmodelle, beispielsweise Bing von Microsoft, Bard von Google und Claude von Anthropic zu entwickeln.

Hat sich das Risiko für Unternehmen, Solo-Selbständige und Privatmenschen durch die Nutzung von KI erhöht, Opfer von Cyberkriminalität wie Datendiebstahl zu werden beziehungsweise diese nicht rechtzeitig zu verhindern?


Ein klares „ja“! Leute hierzulande zu beeinflussen und zu manipulieren, setzt gute, plausible, deutschsprachige E-Mails voraus. Und diese lassen sich durch ChatGPT leicht erstellen – auch von Personen, die keinerlei Deutschkenntnisse besitzen. Dasselbe gilt natürlich auch in anderen Kontexten für andere Sprachen.

Sollten die Menschen erstmal davon absehen, mit ChatGPT und Co. zu experimentieren, um ihre Sicherheit nicht zu gefährden? Beziehungsweise sollten wir alle einen KI-Führerschein machen, bevor wir uns an KI-Anwendungen heranwagen, die an immer mehr Orten auf uns warten werden?

Ganz im Gegenteil: Ich rate jedem, intensiv mit ChatGPT zu experimentieren und Stärken, Schwächen, Besonderheiten kennenzulernen. 

Wächst uns die Künstliche Intelligenz über den Kopf?


Wir sind dabei, den Intellekt als letztes Alleinstellungsmerkmal des Menschen zu verlieren. Sehr bald werden uns Maschinen auch bei sämtlichen geistigen Tätigkeiten überholen. „Über den Kopf wachsen“ ist gut beschrieben.

Bringen Cyberversicherungen etwas? Oder wie soll ein Unternehmen, ein Finanzinstitut oder eine Behörde sicherstellen, dass sie nicht jederzeit lahmgelegt oder ausgespäht werden könnte?


Wo die Reise hingeht im Bereich Cyberversicherungen, ist ungeklärt: Seitdem Mario Greco, Chef der Zurich Insurance Group, Ende 2022 Cyberangriffe als „nicht mehr versicherbar“ bezeichnet hat, ist unklar, ob es das Produkt Cyberversicherung überhaupt noch geben wird. Ein Problem ist die Unsicherheit, ob im Schadensfall eine Versicherung überhaupt bezahlt. Oft beweist der Eintritt eines IT-Sicherheitsvorfalls, dass das betroffene Unternehmen derart schwerwiegende Versäumnisse hatte, dass die Versicherung nicht regulieren muss.

Photos / Copyright: Annegret Handel-Kempf

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmst du dem zu.

Datenschutzerklärung