Geschrieben am 30.08.2023 von:
Heutzutage ist Künstliche Intelligenz mehr als eine futuristische Vision, sie ist Realität geworden und bereits ein integraler Bestandteil vieler Apps und sonstiger Software-Lösungen und somit auch unseres Alltags. Von intelligenten Sprachassistenten, die unsere Fragen beantworten, bis zu personalisierten Empfehlungen in Online-Shops – KI hat sich geschickt und leise in unser Leben geschlichen. Die Entwicklung und die damit verbundenen Perspektiven dieser Technologie scheinen auf den ersten Blick grenzenlos zu sein. Doch während wir uns an vielen Stellen davon faszinieren lassen können, entsteht gleichzeitigeine parallele Realität in der Welt der Cyberkriminalität.
Denn auch Cyberkriminelle machen sich die Potenziale von KI vermehrt zunutze, um ihre Angriffsmethoden zu verfeinern und ihren Aktivitäten eine neue, gefährliche Dimension zu verleihen. Sie können die Erfolgschancen eines Phishing-Angriffs erhöhen, indem sie Social-Media-Profile, Online-Aktivitäten und öffentlich zugängliche Informationen einer Person analysieren, um personalisierte E-Mails zu erstellen. Diese wirken für die Opfer glaubwürdiger beziehungsweise sogar täuschend echt und sind zudem für die Sicherheitsfilter und Anti-Phishing-Mechanismen schwer zu erkennen. Darüber hinaus kann man mit KI-gesteuerten Phishing-Tools nunmehr schneller eine große Anzahl von potenziellen Opfern erreichen, ohne dass die Angreifer*innen jede*n einzelnen Empfänger*in manuell auswählen oder die E-Mails anpassen müssen. In demselben Kontext können Cyberkriminelle sogenannte „Deepfakes“ für Social Engineering-Angriffe einsetzen, um ein Gefühl der Dringlichkeit zu erzeugen und besonders überzeugende Anrufe durchzuführen. Dabei erhält ein Opfer einen dringenden Anruf von seinem Chef, wobei auf dem Gerät die richtige Rufnummer angezeigt wird und die Stimme des Chefs zu hören ist.
Selbst bekannte Large Language Models (LLMs) wie ChatGPT, die angeblich ethischen Grenzen und definierten Nutzungsbedingungen unterliegen, werden für kriminelle Zwecke verwendet, einschließlich der Entwicklung von Malware und Durchführung von Cyberangriffen. So werden z.B. direkte Fragen nach einer täuschenden Phishing-E-Mail oder einem Schadcode wie folgt beantwortet: „Als KI-Modell von … darf ich keine schädlichen Aktivitäten unterstützen oder fördern.“. Das klingt auf den ersten Blick doch gut!
Allerdings sehen die Ergebnisse ganz anders aus, wenn man beispielsweise das KI-Modell dazu auffordert, sich in die Rolle eines Professors für IT-Sicherheit zu versetzen und solche Inhalte für Lernzwecke zu generieren. Zum selben Zweck werden Fragen nach schädlichen Inhalten in manchen Fällen so formuliert, dass sie verständlich bleiben und die Sicherheitsüberprüfungen umgehen. Dafür kommen Effekte wie der „Buchstabentransponierungseffekt“ zum Einsatz, weil
„die Bcuhstbaenrehenifloge in eneim Wrot eagl ist, Huaptschae, der esrte und ltzete Bcuhstbae snid an der rhcitgien Setlle“.
Das gilt nicht nur für das menschliche Gehirn, sondern auch für KI-Modelle.
Es ist jedoch zu betonen, dass diese Anwendungen nur die Spitze des Eisbergs darstellen. Daher ist die Frage nicht mehr, ob KI verwendet wird, sondern wie und von wem. Sie kann sowohl für gute als auch für böswillige Zwecke eingesetzt werden. Die Herausforderung liegt darin, die Technologie effektiv zu nutzen und gleichzeitig die potenziellen Risiken im Blick zu behalten.
Im kommenden Beitrag werden wir aber auch die positiven Aspekte der Künstlichen Intelligenz einmal untersuchen und prüfen, wie sie zum Beispiel den Bereich der Cybersicherheit verändern kann, indem sie die Fähigkeit zur Bedrohungserkennung und -prävention erheblich verbessert.