X

Nutzung von ChatGPT-4.0 bei Sprachbetrug: Eine wachsende Bedrohung für die digitale Sicherheit

Nutzung von ChatGPT-4.0 bei Sprachbetrug: Eine wachsende Bedrohung für die digitale Sicherheit
Tuesday 05 - 15:00
Zoom

Eine Studie der University of Illinois ergab, dass das ChatGPT-4.0-Modell von OpenAI zwar innovativ ist, aber Schwachstellen aufweist, die von Cyberkriminellen ausgenutzt werden können, um digitalen Betrug, einschließlich Sprachbetrug, zu begehen. Dieses hochentwickelte Modell, das Text, Audio und Bild verarbeiten kann, wurde für betrügerische Finanztransfers wie Banküberweisungen und den Diebstahl persönlicher Daten missbraucht.

Forscher fanden heraus, dass die Erfolgsquote dieser Betrügereien zwischen 20 % und 60 % lag, wobei Angriffe manchmal bis zu 26 Schritte erforderten. Die Kosten dieser Vorgänge bleiben relativ niedrig, was sie zu einer noch besorgniserregenderen Bedrohung für die digitale Sicherheit macht.

Als Reaktion darauf hat OpenAI seine Sicherheitsmechanismen verbessert, insbesondere mit der „o1-preview“-Version von ChatGPT, die eine erhöhte Betrugsresistenz aufweist. Diese Studie unterstreicht jedoch die Notwendigkeit, Sicherheitsprotokolle rund um Technologien der künstlichen Intelligenz zu stärken, da Cyberkriminelle zunehmend Wege finden, bestehende Schutzmaßnahmen zu umgehen.

Obwohl ChatGPT-4.0 viele positive Einsatzmöglichkeiten bietet, birgt seine böswillige Ausnutzung für digitalen Betrug große Risiken für die Online-Sicherheit und erfordert erhöhte Wachsamkeit und kontinuierliche Verbesserungen der Schutzsysteme.


Mehr lesen