OpenAI sucht Leiter/in für KI-Risiken

16:26
OpenAI sucht Leiter/in für KI-Risiken

OpenAI stellt eine/n Leiter/in für KI-Risiken ein. Anders ausgedrückt: Jemand, dessen/deren Hauptaufgabe darin besteht, alle potenziellen Gefahren durch KI zu durchdenken. In einem Beitrag auf X kündigte Sam Altman die Stelle an und räumte ein, dass die rasante Verbesserung von KI-Modellen „echte Herausforderungen“ mit sich bringt. Der Beitrag hebt insbesondere die potenziellen Auswirkungen auf die psychische Gesundheit der Menschen und die Gefahren KI-gestützter Cyberangriffe hervor.

Altman erklärt außerdem, dass diese Person zukünftig für die Umsetzung des unternehmenseigenen „Vorsorgerahmens“, die Sicherung von KI-Modellen für die Freigabe „biologischer Fähigkeiten“ und sogar für die Festlegung von Schutzmechanismen für sich selbst verbessernde Systeme verantwortlich sein wird. Er räumt ein, dass es sich um eine „stressige Aufgabe“ handeln wird – eine Untertreibung.

Nach mehreren aufsehenerregenden Fällen, in denen Chatbots mit dem Selbstmord von Jugendlichen in Verbindung gebracht wurden, erscheint es etwas spät, dass sich erst jetzt jemand mit den potenziellen Gefahren für die psychische Gesundheit auseinandersetzt, die von diesen Modellen ausgehen. KI-Psychosen geben zunehmend Anlass zur Sorge, da Chatbots Wahnvorstellungen nähren, Verschwörungstheorien fördern und Menschen helfen, Essstörungen zu verbergen.



Mehr lesen

Diese Website, walaw.press, verwendet Cookies, um Ihnen ein gutes Surferlebnis zu bieten und unsere Dienste kontinuierlich zu verbessern. Durch die weitere Nutzung dieser Website stimmen Sie der Verwendung dieser Cookies zu.