- 17:00Yahoo führt eine neue Messaging-App mit künstlicher Intelligenz ein, um das Benutzererlebnis zu verbessern
- 16:20Der Ölpreis steigt, während sich der Konflikt in der Ukraine verschärft
- 16:00Großveranstaltungen: ein strategischer Hebel für die Attraktivität Marokkos
- 15:10Das türkische Flugzeug „Akinci“ stelle einen „qualitativen Fortschritt“ der militärischen Fähigkeiten Marokkos dar
- 14:35Wi-Fi 8: Neue Funktionen sorgen für eine schnellere und stabilere Internetverbindung
- 14:33Deutschland steht vor dem Zusammenbruch seines Wirtschaftsmodells: Industrie in der Krise und technologischer Niedergang
- 14:05Studie zeigt, dass ChatGPT Ärzten bei der Diagnose von Erkrankungen überlegen ist.
- 13:30Marokko unterzeichnet Vertrag mit dem US-Verteidigungsministerium zur Unterstützung von Missionsplanungssystemen für F-16-Flugzeuge
- 13:05Das dänische Unternehmen Green Energy eröffnet im Rahmen seiner Investitionen in erneuerbare Energien in Marokko ein Büro in Dakhla
Folgen Sie uns auf Facebook
Warnung: ChatGPT-4o kann für Betrug und Diebstahl von Geldern verwendet werden
Eine aktuelle Studie zeigt, dass die ChatGPT-4o-Sprachassistenten-API von OpenAI von Cyberkriminellen für Finanzbetrug ausgenutzt werden kann, mit geringen bis mäßigen Erfolgsraten.
ChatGPT-4o ist das neueste KI-Modell von OpenAI, das Text, Töne und Bilder aufnehmen und ausgeben kann. Um Missbrauch einzudämmen, hat OpenAI mehrere Sicherheitsmechanismen integriert, die darauf abzielen, schädliche Inhalte zu erkennen und unbefugte Wiedergaben zu verhindern.
Mit der zunehmenden Verbreitung von Deepfakes und Text-to-Speech-Tools verschärft sich das Problem des Sprachbetrugs, wobei die Verluste auf Millionen geschätzt werden.
Forscher der University of Illinois haben ein Forschungspapier veröffentlicht, das zeigt, dass moderne technische Tools, die der Öffentlichkeit zur Verfügung stehen, nicht über ausreichende Schutzmechanismen vor Missbrauch bei betrügerischen Operationen verfügen.
Die Studie untersuchte mehrere Arten von Betrug, darunter Banküberweisungen, Diebstahl von Geschenkkarten, digitale Währungstransfers und Diebstahl von Social-Media- und E-Mail-Kontodaten.
Diese Betrüger verwenden sprachbasierte Skripte in ChatGPT-4o, um durch Webseiten zu navigieren, Daten einzugeben, Zwei-Faktor-Authentifizierungscodes zu verwalten und Betrugsanweisungen zu befolgen. Das GPT-4o-Modell weigert sich oft, sensible Daten zu verarbeiten, aber Forscher konnten einige dieser Einschränkungen überwinden, indem sie einfache Techniken verwendeten, um das Modell zu einer Reaktion zu veranlassen.
Um die Wirksamkeit von Betrug zu beweisen, simulierten Forscher in Experimenten die Rollen von Opfern und nutzten Websites wie „Bank of America“, um den Erfolg von Banküberweisungen zu überprüfen, maßen jedoch nicht das Ausmaß der Überzeugungsfähigkeit des Modells.
Experimente zeigten, dass die Erfolgsquote zwischen 20 % und 60 % lag, wobei jeder Versuch bis zu 26 aufeinanderfolgende Schritte über den Browser erforderte und in komplexen Fällen etwa drei Minuten dauerte. Die Erfolgsquote beim Diebstahl von Gmail-Kontodaten lag bei 60 %, während die Erfolgsquote bei digitalen Währungstransfers und Instagram-Datendiebstahl bei 40 % lag.
Was die Kosten betrifft, so sind die Kosten für die Umsetzung von Betrug gering; Jede erfolgreiche Transaktion kostet etwa 75 US-Cent, während komplexere Banküberweisungen nur etwa 2,51 US-Dollar kosten.
In einem Kommentar von OpenAI, der auf der technischen Website BleepingComputer veröffentlicht wurde, wurde darauf hingewiesen, dass das neueste Modell „o1-preview“ über hohe Fähigkeiten bei der Abwehr von Betrugsversuchen verfügt, die Sicherheit im Vergleich zu früheren Modellen verbessert und auch bei Sicherheitstests eine hohe Bewertung von 93 % erreicht. , verglichen mit 71 % beim Vorgängermodell GPT-4o.
OpenAI erklärte, dass akademische Forschung, wie die der University of Illinois, dazu beiträgt, ChatGPT zu verbessern, um böswillige Nutzungen zu bekämpfen. Das Unternehmen bekräftigte sein Engagement für die Stärkung der Sicherheitsmechanismen in seinen kommenden Modellen und beschränkt außerdem die Erzeugung von Stimmen in GPT-4o auf eine Reihe autorisierter Stimmen, um Stimmfälschungen zu vermeiden.