- 16:00Das Projekt der maritimen Verbindung in Afrika und Europa am nächsten Tag der Szene
- 15:20Marokko stärkt seine Position im Climate Performance Index 2025 und setzt seine Führungsrolle in Sachen CO2-Neutralität fort
- 14:45Bourita fordert die Europäische Union auf, die Partnerschaft mit Marokko in konkrete Maßnahmen umzusetzen
- 14:00CMA CGM verstärkt seine Investitionen im Hafen von Nador, um die Logistikinfrastruktur in Marokko zu entwickeln
- 13:35Marokko: Alternative für Unternehmen, die Trumps Politik ausgesetzt sind?
- 13:00Beim Absturz eines deutschen Frachtflugzeugs in Litauen ist mindestens eine Person ums Leben gekommen
- 12:15Trumps Einwanderungspolitik: zwischen Extremismus und wirtschaftlichen Auswirkungen
- 11:30Kampfsport: von der traditionellen Arena zu einem globalen Sektor mit mehreren Milliarden Dollar
- 10:45Bitcoin und finanzielle Risiken: die Herausforderungen der Aufsicht in Marokko
Folgen Sie uns auf Facebook
Von künstlicher Intelligenz generierte Bilder von sexuellem Kindesmissbrauch erreichen „Wendepunkt“, sagt Aufsichtsbehörde
Von künstlichen Intelligenz-Tools generierte Bilder von sexuellem Kindesmissbrauch werden im offenen Internet immer häufiger und erreichen laut einer Sicherheitsaufsichtsbehörde einen „Wendepunkt“.
Die Internet Watch Foundation sagte, die Menge an
von künstlicher Intelligenz erstellten illegalen Inhalten, die sie in den letzten sechs Monaten online gesehen habe, habe bereits die Gesamtzahl des Vorjahres überschritten.
Die Organisation, die eine britische Hotline betreibt, aber auch weltweit tätig ist, sagte, fast alle Inhalte seien in öffentlich zugänglichen Bereichen des Internets und nicht im Dark Web gefunden worden, auf das spezialisierte Browser zugreifen müssen.
Derek Ray-Hill, Interimsgeschäftsführer der IWF, sagte, der Grad der Komplexität der Bilder weise darauf hin, dass die verwendeten künstlichen Intelligenz-Tools anhand von Bildern und Videos echter Opfer trainiert worden seien. „Die letzten Monate zeigen, dass dieses Problem nicht verschwindet und sich tatsächlich verschlimmert“, sagte er.
Laut einem IWF-Analysten erreichte die Situation mit von künstlicher Intelligenz generierten Inhalten einen „Wendepunkt“, an dem Sicherheitsbeauftragte und Behörden nicht mehr wussten, ob ein Bild ein echtes Kind zeigte, das Hilfe brauchte.
Die IWF ging in den sechs Monaten bis September dieses Jahres gegen 74 Berichte über von künstlicher Intelligenz generiertes Material mit sexuellem Kindesmissbrauch (CSAM) vor – das realistisch genug war, um gegen britisches Recht zu verstoßen –, verglichen mit 70 in den zwölf Monaten bis März. Ein einzelner Bericht könnte sich auf eine Webseite mit mehreren Bildern beziehen.
Neben Bildern mit künstlicher Intelligenz, die echte Missbrauchsopfer zeigen, umfassten die von der IWF untersuchten Materialien auch „Deepfake“-Videos, in denen Erwachsenenpornografie so manipuliert wurde, dass sie CSAM ähnelt. In früheren Berichten hat die IWF erklärt, dass künstliche Intelligenz verwendet wurde, um Bilder von Prominenten zu erstellen, die „verjüngt“ und dann als Kinder in Szenarien des sexuellen Missbrauchs dargestellt wurden. Weitere Beispiele für CSAM waren Material, bei dem mithilfe künstlicher Intelligenz im Internet gefundene Bilder bekleideter Kinder „nackt“ gemacht wurden.
Mehr als die Hälfte der von der IWF in den letzten sechs Monaten gemeldeten, von künstlicher Intelligenz generierten Inhalte wird auf Servern in Russland und den USA gehostet, wobei auch Japan und die Niederlande einen erheblichen Anteil davon hosten. Die Adressen der Webseiten, die die Bilder enthalten, werden auf eine IWF-URL-Liste hochgeladen, die mit der Technologiebranche geteilt wird, damit sie blockiert und unzugänglich gemacht werden können.
Die IWF sagte, acht von zehn Meldungen über illegale, von künstlicher Intelligenz erstellte Bilder stammten von Mitgliedern der Öffentlichkeit, die sie auf öffentlichen Websites wie Foren oder Galerien künstlicher Intelligenz gefunden hatten.
In der Zwischenzeit hat Instagram neue Maßnahmen zur Bekämpfung von Sextortion angekündigt, bei der Benutzer dazu verleitet werden, intime Bilder an Kriminelle zu senden, die sich normalerweise als junge Frauen ausgeben, und dann Erpressungsdrohungen ausgesetzt werden.
Die Plattform wird eine Funktion einführen, die alle Nacktbilder, die Benutzern in Direktnachrichten gesendet werden, unkenntlich macht, und sie dazu auffordert, beim Senden von Direktnachrichten (DM), die ein Nacktbild enthalten, vorsichtig zu sein. Sobald ein unscharfes Bild empfangen wird, kann der Benutzer entscheiden, ob er es ansehen möchte oder nicht. Außerdem erhält er eine Nachricht, die ihn daran erinnert, dass er die Möglichkeit hat, den Absender zu blockieren und den Chat bei Instagram zu melden.
Die Funktion wird ab dieser Woche weltweit standardmäßig für Konten von Teenagern aktiviert und kann für verschlüsselte Nachrichten verwendet werden, obwohl Bilder, die von der Funktion „On Device Detection“ markiert werden, nicht automatisch an die Plattform selbst oder die Behörden gemeldet werden.
Für Erwachsene wird es eine Opt-in-Funktion sein. Instagram wird auch Follower- und Following-Listen vor potenziellen Sextortion-Betrügern verbergen, von denen bekannt ist, dass sie damit drohen, intime Bilder an diese Konten zu senden.