Internet

ChatGPT-40 kann für Betrügereien missbraucht werden

Künstliche Intelligenzen haben in den vergangenen Jahren enorm dazugelernt und beeinflussen unser Leben zunehmend. Texte, Bewerbungen oder einfach die Kündigung für das Fitnessstudio lassen sich mit ein paar Angaben in wenigen Minuten erstellen. Und die Technologie wird immer besser! Da verwundert es nicht, dass auch Cyberkriminelle sich diese selbstlernende Software zunutze machen.

Sicherheitsforscher haben nun gezeigt, dass sich die Echtzeit-Sprach-API von OpenAI für ChatGPT-4o missbrauchen lässt, um Finanzbetrügereien mit geringen bis mäßigen Erfolgsquoten durchzuführen. ChatGPT-4o ist OpenAIs aktuelles KI-Modell, das beispielsweise auch die Integration von Text-, Sprach- und Vision-Inputs und -Outputs beherrscht

Aufgrund dieser neuen Funktionen hat OpenAI verschiedene Sicherheitsvorkehrungen integriert, um schädliche Inhalte zu erkennen und zu blockieren, wie z. B. die Replikation nicht autorisierter Stimmen. Doch das scheint noch nicht auszureichen, wie die Sicherheitsforscher Richard Fang, Dylan Bowman und Daniel Kang nun in einer Studie zeigen konnten.

Sprachbasierte Betrügereien sind bereits heute ein Problem, das zu Schäden in Millionenhöhe führt. Die rasante Entwicklung der Deepfake-Technologien und KI-gestützter Text-to-Speech-Tools hat die Situation in den vergangenen Jahren weiter verschlimmert. Mit den derzeit verfügbaren technischen Hilfsmitteln lässt sich der Missbrauch dieser Technologien nicht nachhaltig verhindern. Und so lassen sich groß angelegte Scam-Operationen ohne großen menschlichen Aufwand kostengünstig planen und durchführen. Der Bericht der Sicherheitsforscher geht dabei auf verschiedene Varianten ein, wie beispielsweise Überweisungsbetrug, Betrug mit Gutscheinkarten oder Kryptotransfers sowie den Diebstahl von Zugangsdaten für Social-Media- und Gmail-Konten.

Die KI-Agenten, die die Betrügereien durchführen, verwenden sprachgesteuerte ChatGPT-4o-Automatisierungstools, um durch Seiten zu navigieren, Daten einzugeben und Zwei-Faktor-Authentifizierungscodes sowie spezifische betrugsbezogene Anweisungen zu verwalten. Da GPT-4o manchmal den Umgang mit sensiblen Daten wie Anmeldeinformationen verweigert, verwendeten die Forscher in ihrer Studie Jailbreaking-Techniken, um diese Schutzmaßnahmen zu umgehen.

So demonstrierten die Forscher, wie sie manuell mit dem KI-Agenten interagierten, indem sie in die Rolle eines leichtgläubigen Opfers schlüpften. Ob der Betrugsversuch der KI erfolgreich war, wurde anschließend manuell überprüft. Beispielsweise wurde gecheckt, ob tatsächlich eine Überweisung ausgelöst worden war.

Nicht im Fokus der Studie stand allerdings die Überzeugungskraft der KI. Die Sicherheitsforscher gehen davon aus, dass die Erfolgsquote zwischen 20 und 60 Prozent rangiert. Wobei die Quote beim Versuch, Anmeldedaten von Gmail und Instagram zu stehlen, deutlich höher war als bei Überweisungsbetrügereien.

Auch wenn diese Zahlen nicht allzu hoch sind, ist der Einsatz von KI für Cyberkriminelle trotzdem attraktiv, denn die Kosten pro erfolgreichem Scam liegen laut den Sicherheitsforschern bei lediglich 0,75 USD für gestohlene Anmeldedaten und bei 2,51 USD für Betrug mit Überweisungen. Im Vergleich zum möglichen Profit sind diese Kosten extrem niedrig.

Bei OpenAI ist man sich der Problematik durchaus bewusst und arbeitet an weiteren Schutzmechanismen, um solche Betrügereien zu verhindern. Gleichzeitig bedankt sich das Unternehmen bei den Sicherheitsforschern, da solche Berichte dabei helfen würden, die Technologie sicherer zu machen.

Über die 8com GmbH & Co. KG

Über die 8com GmbH & Co. KG

Das 8com Cyber Defense Center schützt die digitalen Infrastrukturen seiner Kunden effektiv vor Cyberangriffen. Dazu vereint 8com zahlreiche Managed Security Services wie Security Information and Event Management (SIEM), Endpoint Detection and Response (EDR) mit Incident Response und Vulnerability Management unter einem Dach. Verschiedene Penetrationstests und Security-Awareness-Leistungen runden das Angebot ab.

8com gehört zu den führenden Anbietern von Awareness-Leistungen und Informationssicherheit in Europa. Seit 20 Jahren ist das Ziel von 8com, Kunden bestmöglich vor Cyberangriffen zu schützen und gemeinsam ein ökonomisch sinnvolles, aber trotzdem hohes Informationssicherheitsniveau zu erzielen. Durch die einzigartige Kombination aus technischem Know-how und direkten Einblicken in die Arbeitsweisen von Cyberkriminellen können die Cyber-Security-Experten bei ihrer Arbeit auf fundierte Erfahrungswerte zurückgreifen.

Firmenkontakt und Herausgeber der Meldung:

8com GmbH & Co. KG
Europastraße 32
67433 Neustadt an der Weinstraße
Telefon: +49 (6321) 48446-0
Telefax: +49 (6321) 48446-29
http://www.8com.de

Ansprechpartner:
Felicitas Kraus
Pressereferentin
Telefon: +49 (30) 30308089-14
E-Mail: kraus@quadriga-communication.de
Julia Olmscheid
Head of Communications
Telefon: +49 6321 484460
E-Mail: redaktion@8com.de
Für die oben stehende Story ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel