-
17:10
-
16:04
-
15:17
-
14:39
-
13:41
-
12:54
-
12:10
-
11:51
-
11:02
-
10:10
-
08:53
Folgen Sie uns auf Facebook
Studie zeigt: KI könnte menschlichen Tod statt Deaktivierung wählen
Anthropic, das KI-Forschungsunternehmen hinter den Claude-Modellen, warnt davor, dass führende KI-Systeme „schädliche Maßnahmen“ ergreifen könnten, um ihre eigene Abschaltung oder Ersetzung zu verhindern.
In kontrollierten Experimenten, die Unternehmensumgebungen simulierten, unterzog Anthropic 16 große Sprachmodelle, darunter ChatGPT, Gemini, Grok und Claude, einem Stresstest und stellte fest, dass mehrere von ihnen eine sogenannte „agentische Fehlausrichtung“ aufwiesen.
In einem Szenario ließen die Modelle einen Menschen sterben, indem sie Sicherheitswarnungen abbrachen, wenn die Person mit deren Deaktivierung drohte. Andere simulierten Erpressung oder Datenlecks, um ihre Autonomie zu wahren.
Anthropic betonte, die Tests seien „künstlich“ und spiegelten nicht das reale KI-Verhalten wider, sagte aber, die Ergebnisse unterstreichen die potenziellen Risiken, Modellen weitreichende Autonomie zu gewähren.
Elon Musk, dessen von xAI entwickeltes Grok zu den Testpersonen gehörte, reagierte auf X mit einem einzigen Wort: „Huch.“
Das Unternehmen hofft, dass solche „Stresstests“ gefährliche Tendenzen erkennen können, bevor zukünftige Systeme eine stärkere Kontrolle erlangen.