Camera-Injection-Angriffe: Deepfakes tricksen Gesichtserkennung aus
Hintergrund der Angriffe dürfte die rapide fortschreitende Verbreitung von Deepfakes sein. Dabei wird digital ein Abbild einer realen Person erstellt und in Videos oder Bilder eingefügt. Bekanntestes Beispiel dürfte ein Video von Barack Obama sein, in dem er über die Möglichkeiten von Deepfakes spricht und auf die Gefahren aufmerksam macht – zu denen nun auch die Camera-Injection-Angriffe zählen. Dabei werden Schwachstellen in den Gesichtserkennungssystemen mit manipulierten Videos ausgenutzt. Durch Umgehung des CCD (Charge-Coupled Device) einer Kamera können Betrüger voraufgezeichnete, veränderte oder vollständig synthetische Videoströme in den Authentifizierungsprozess einschleusen. Diese betrügerischen Inhalte reichen von Face Swaps in Echtzeit bis hin zu künstlich erzeugten Sequenzen.
Sobald ein Angreifer auf diesem Weg die Sicherheitsmaßnahmen ausgehebelt hat, erhält er Zugang zu den kompromittierten Accounts und kann diese für eine ganze Reihe an kriminellen Aktivitäten ausnutzen, angefangen bei Identitäts- und Datendiebstahl bis hin zu Betrugsmaschen. Das Hauptproblem bei Camera-Injection-Angriffen ist die Möglichkeit für Cyberkriminelle, unbemerkt in Systemen zu operieren. Im Gegensatz zu herkömmlichen Cyberangriffen, die sofortige Alarme auslösen, bleiben erfolgreiche Camera-Injection-Angriffe oft unbemerkt, da die Systeme denken, dass sie den Nutzer ausreichend identifiziert haben. Entdeckt werden sie daher oft erst, wenn verdächtige Aktionen auf dem Account registriert werden, aber dann ist es bereits zu spät.
Doch wie kann man sich gegen diese Art der Cyberkriminalität schützen? Dafür ist ein mehrstufiger Ansatz bei der Identitätsprüfung sowie Maßnahmen zur Betrugsprävention notwendig. Dazu gehören beispielsweise Liveness Detection Tools, mit denen manipulierte oder künstlich erstellte Videosequenzen identifiziert werden können. Auch bei den Kameratreibern ergeben sich Ansatzpunkte, mit denen die Sicherheit verbessert und kompromittierte Kameras erkannt werden können. Besteht der Verdacht auf Manipulation, kann eine forensische Untersuchung des Bildmaterials dabei helfen, diesen zu verifizieren oder zu widerlegen. Unregelmäßige Bewegungen, auffällige Muster beim Blinzeln oder sich wiederholende Gesichtsausdrücke können ein Hinweis sein, dass es sich um einen Deepfake handelt.
Über die 8com GmbH & Co. KG
Das 8com Cyber Defense Center schützt die digitalen Infrastrukturen seiner Kunden effektiv vor Cyberangriffen. Dazu vereint 8com zahlreiche Managed Security Services wie Security Information and Event Management (SIEM), Endpoint Detection and Response (EDR) mit Incident Response und Vulnerability Management unter einem Dach. Verschiedene Penetrationstests und Security-Awareness-Leistungen runden das Angebot ab.
8com gehört zu den führenden Anbietern von Awareness-Leistungen und Informationssicherheit in Europa. Seit 18 Jahren ist das Ziel von 8com, Kunden bestmöglich vor Cyberangriffen zu schützen und gemeinsam ein ökonomisch sinnvolles, aber trotzdem hohes Informationssicherheitsniveau zu erzielen. Durch die einzigartige Kombination aus technischem Know-how und direkten Einblicken in die Arbeitsweisen von Cyberkriminellen können die Cyber-Security-Experten bei ihrer Arbeit auf fundierte Erfahrungswerte zurückgreifen.
8com GmbH & Co. KG
Europastraße 32
67433 Neustadt an der Weinstraße
Telefon: +49 (6321) 48446-0
Telefax: +49 (6321) 48446-29
http://www.8com.de
Pressereferentin
Telefon: +49 (30) 30308089-14
E-Mail: kraus@quadriga-communication.de