ChatGPT und Cybercrime: Eine Katastrophe für die IT-Sicherheit?
KI als Schreiber von Phishing-E-Mails: gefährlich?
Mit der allgemeinen Verfügbarkeit von ChatGPT haben die Bedenken über Phishing-Angriffe zugenommen. Zum jetzigen Zeitpunkt und auf Grundlage der aktuellen Möglichkeiten sind die Bedenken jedoch aus mehreren Gründen übertrieben. Viele Social-Engineering-E-Mails sind nicht so konzipiert, dass sie „perfekt“ sind – sie sind absichtlich schlecht geschrieben, um die Wahrscheinlichkeit zu erhöhen, dass Menschen sie öffnen. Der E-Mail-Text ist ohnehin nur ein Teil des Angriffs. Kopfzeilen, Absender, Anhänge und URLs gehören zu den vielen Elementen, die von guten Anti-Phishing-Lösungen analysiert werden. Und mit einem überzeugenden Inhalt und möglichst guter Formatierung dieser Elemente ist es nicht getan. Die Cyberkriminellen müssen auf viele weitere Informationen Zugriff haben, um erfolgreich zu sein. So müssen sie wissen, wer wann was an wen zahlt, und wahrscheinlich haben sie bereits auf andere Weise Zugang zu diesen Informationen. Sie brauchen nicht unbedingt ChatGPT, wenn sie bereits, wie nicht selten, Zugang zum Posteingang des Opfers haben und einfach eine alte E-Mail kopieren können.
KI als Entwickler von Malware
Malware, die von ChatGPT geschrieben wurde, erfüllt ihren Zweck nicht besser als von Menschen programmierte, nämlich ein Endpoint-Detection-and-Response-System (EDR) zu umgehen und einen Rechner effektiver zu infizieren als andere Toolkits, die es bereits gibt. Ein Hacker braucht einerseits etwas, das immer und immer wieder funktioniert, und es gibt keine Belege dafür, dass ChatGPT das besser erstellen kann als Menschen. Hacker müssen andererseits ständig bestimmte Elemente ändern, wozu ChatGPT nicht in der Lage ist. Angreifer müssen ihre Infrastruktur wechseln, Domänen registrieren und Objekte verschieben, weil ihre Angriffsversuche ständig von Cybersicherheitsexperten entdeckt und zerstört werden. Außerdem müssen Malware-Betreiber nicht nur ihre Malware verbreiten, sondern auch den Zugang zu ihr verkaufen. ChatGPT trägt nicht dazu bei, wichtige Teile dieses Prozesses zu automatisieren. Es ist daher unwahrscheinlich, dass seine Nutzung sich in signifikantem Maße durchsetzen wird, solange es nicht die Fähigkeiten der bereits existierenden Tools übertrifft, die alle seit vielen Jahren für diesen Zweck entwickelt wurden und andere Dinge können als ein Chatbot. Das soll nicht heißen, dass es nicht genauso gut werden wird; ChatGPT macht eindeutig schnelle Fortschritte, übertrifft die bestehenden Tools der Cyberkriminellen aber noch keineswegs.
Russische Hacker und ChatGPT
Selbst wenn russische Cyberkriminelle ChatGPT nutzen sollten, verschafft ihnen das keinen entscheidenden Vorteil, weil es sicherlich nicht alle Tools und die Infrastruktur ersetzen kann, die über Jahrzehnte hinweg entwickelt wurden, um Windows-Malware zu schreiben. Möglicherweise verwenden die Angreifer ChatGPT, um die Grammatik ihrer E-Mails zu verbessern oder längere Social-Engineering-Angriffe durchzuführen, aber die Art der Phishing-Angriffe wird wahrscheinlich die gleiche bleiben. Gute Anti-Phishing-Lösungen werden diese Bedrohungen weiterhin aufspüren.
Vorsichtige Entwarnung
Sicherlich werden Cyberkriminelle unterschiedlicher Couleur ChatGPT nutzen, um sich ihren Job so einfach wie möglich zu machen. Aktuell ist aus den genannten Gründen allerdings nicht abzusehen, dass der Gebrauch dieser KI neuen Cyberattacken eine höhere Qualität verleiht. Es ist noch nicht die Zeit gekommen, um Alarm zu schlagen.
Proofpoint
Zeppelinstr. 73
80333 München
Telefon: +49 (871) 78064258
http://www.proofpoint.com/de
AxiCom GmbH
E-Mail: damir.leovac@axicom.com