-
16:26
-
15:49
-
15:03
-
14:14
-
13:39
-
12:48
-
11:56
-
11:03
-
10:20
-
09:19
-
08:46
OpenAI sucht Leiter/in für KI-Risiken
OpenAI stellt eine/n Leiter/in für KI-Risiken ein. Anders ausgedrückt: Jemand, dessen/deren Hauptaufgabe darin besteht, alle potenziellen Gefahren durch KI zu durchdenken. In einem Beitrag auf X kündigte Sam Altman die Stelle an und räumte ein, dass die rasante Verbesserung von KI-Modellen „echte Herausforderungen“ mit sich bringt. Der Beitrag hebt insbesondere die potenziellen Auswirkungen auf die psychische Gesundheit der Menschen und die Gefahren KI-gestützter Cyberangriffe hervor.
Altman erklärt außerdem, dass diese Person zukünftig für die Umsetzung des unternehmenseigenen „Vorsorgerahmens“, die Sicherung von KI-Modellen für die Freigabe „biologischer Fähigkeiten“ und sogar für die Festlegung von Schutzmechanismen für sich selbst verbessernde Systeme verantwortlich sein wird. Er räumt ein, dass es sich um eine „stressige Aufgabe“ handeln wird – eine Untertreibung.
Nach mehreren aufsehenerregenden Fällen, in denen Chatbots mit dem Selbstmord von Jugendlichen in Verbindung gebracht wurden, erscheint es etwas spät, dass sich erst jetzt jemand mit den potenziellen Gefahren für die psychische Gesundheit auseinandersetzt, die von diesen Modellen ausgehen. KI-Psychosen geben zunehmend Anlass zur Sorge, da Chatbots Wahnvorstellungen nähren, Verschwörungstheorien fördern und Menschen helfen, Essstörungen zu verbergen.