- 17:02Die Partei Alternative für Deutschland kommentiert das Urteil gegen Marine Le Pen.
- 16:05Marokko stärkt seine Position im Unternehmertum: trotz Herausforderungen deutliche Fortschritte
- 15:18Marokko: Ein riesiger Bodenschatz im Herzen des afrikanischen Kontinents
- 12:30Gesundheitsministerium in Gaza: 1.042 Tote seit Wiederaufnahme der israelischen Angriffe
- 12:01Sicherheitsrat: Unter französischer Präsidentschaft legt Staffan de Mistura seinen Halbjahresbericht vor
- 11:32Myanmar: Mehr als 2.700 Tote nach verheerendem Erdbeben
- 11:06Die Welt bereitet sich auf Trumps Zölle vor, da er verspricht, „nett“ zu sein
- 10:14Gold erreicht aufgrund von US-Zollängsten ein Allzeithoch
- 09:56Trump droht den Houthis mit weiteren Angriffen, solange sie eine Gefahr für die Schifffahrt darstellen.
Folgen Sie uns auf Facebook
Warnung: ChatGPT-4o kann für Betrug und Diebstahl von Geldern verwendet werden
Eine aktuelle Studie zeigt, dass die ChatGPT-4o-Sprachassistenten-API von OpenAI von Cyberkriminellen für Finanzbetrug ausgenutzt werden kann, mit geringen bis mäßigen Erfolgsraten.
ChatGPT-4o ist das neueste KI-Modell von OpenAI, das Text, Töne und Bilder aufnehmen und ausgeben kann. Um Missbrauch einzudämmen, hat OpenAI mehrere Sicherheitsmechanismen integriert, die darauf abzielen, schädliche Inhalte zu erkennen und unbefugte Wiedergaben zu verhindern.
Mit der zunehmenden Verbreitung von Deepfakes und Text-to-Speech-Tools verschärft sich das Problem des Sprachbetrugs, wobei die Verluste auf Millionen geschätzt werden.
Forscher der University of Illinois haben ein Forschungspapier veröffentlicht, das zeigt, dass moderne technische Tools, die der Öffentlichkeit zur Verfügung stehen, nicht über ausreichende Schutzmechanismen vor Missbrauch bei betrügerischen Operationen verfügen.
Die Studie untersuchte mehrere Arten von Betrug, darunter Banküberweisungen, Diebstahl von Geschenkkarten, digitale Währungstransfers und Diebstahl von Social-Media- und E-Mail-Kontodaten.
Diese Betrüger verwenden sprachbasierte Skripte in ChatGPT-4o, um durch Webseiten zu navigieren, Daten einzugeben, Zwei-Faktor-Authentifizierungscodes zu verwalten und Betrugsanweisungen zu befolgen. Das GPT-4o-Modell weigert sich oft, sensible Daten zu verarbeiten, aber Forscher konnten einige dieser Einschränkungen überwinden, indem sie einfache Techniken verwendeten, um das Modell zu einer Reaktion zu veranlassen.
Um die Wirksamkeit von Betrug zu beweisen, simulierten Forscher in Experimenten die Rollen von Opfern und nutzten Websites wie „Bank of America“, um den Erfolg von Banküberweisungen zu überprüfen, maßen jedoch nicht das Ausmaß der Überzeugungsfähigkeit des Modells.
Experimente zeigten, dass die Erfolgsquote zwischen 20 % und 60 % lag, wobei jeder Versuch bis zu 26 aufeinanderfolgende Schritte über den Browser erforderte und in komplexen Fällen etwa drei Minuten dauerte. Die Erfolgsquote beim Diebstahl von Gmail-Kontodaten lag bei 60 %, während die Erfolgsquote bei digitalen Währungstransfers und Instagram-Datendiebstahl bei 40 % lag.
Was die Kosten betrifft, so sind die Kosten für die Umsetzung von Betrug gering; Jede erfolgreiche Transaktion kostet etwa 75 US-Cent, während komplexere Banküberweisungen nur etwa 2,51 US-Dollar kosten.
In einem Kommentar von OpenAI, der auf der technischen Website BleepingComputer veröffentlicht wurde, wurde darauf hingewiesen, dass das neueste Modell „o1-preview“ über hohe Fähigkeiten bei der Abwehr von Betrugsversuchen verfügt, die Sicherheit im Vergleich zu früheren Modellen verbessert und auch bei Sicherheitstests eine hohe Bewertung von 93 % erreicht. , verglichen mit 71 % beim Vorgängermodell GPT-4o.
OpenAI erklärte, dass akademische Forschung, wie die der University of Illinois, dazu beiträgt, ChatGPT zu verbessern, um böswillige Nutzungen zu bekämpfen. Das Unternehmen bekräftigte sein Engagement für die Stärkung der Sicherheitsmechanismen in seinen kommenden Modellen und beschränkt außerdem die Erzeugung von Stimmen in GPT-4o auf eine Reihe autorisierter Stimmen, um Stimmfälschungen zu vermeiden.
Kommentare (0)