- 16:20Netflix wählt Marokko als Drehort für die französische Version von „Love Is Blind“
- 15:30Marokko wird zum ersten Mal Gastgeber des IIO-Vorstands sein
- 14:00WhatsApp führt Texttranskriptionsfunktion für Sprachnachrichten ein
- 12:35Die Videospielbranche: Explosives Wachstum bis 2027 erwartet
- 12:10Microsoft kündigt neue Übersetzungs-App für Unternehmen an
- 11:32Alphabet steht unter regulatorischem Druck, der zu einem Marktwertverlust von 100 Milliarden US-Dollar führt
- 11:00Das Risiko „unaufhörlicher sozialer Spaltungen“: Die Debatte über die Evolution des künstlichen Bewusstseins
- 10:30Die WHO bleibt angesichts der besorgniserregenden Ausbreitung der Mpox-Epidemie in höchster Alarmbereitschaft
- 10:00Ecuador weist Vertreter der Polisario endgültig aus
Folgen Sie uns auf Facebook
Forscher im medizinischen Bereich weisen auf KI-"Halluzinationen“ hin
Der Technologieriese OpenAI hat sein KI-gesteuertes Transkriptionstool Whisper damit beworben, dass es beinahe „die Robustheit und Genauigkeit des Menschen“ erreiche.
Whisper hat jedoch einen erheblichen Nachteil: Laut AP generiert es häufig falschen Text, manchmal ganze Sätze, wie aus Interviews mit über einem Dutzend Softwareingenieuren, Entwicklern und akademischen Forschern hervorgeht.
Dieses Phänomen, das in der Branche als „Halluzinationen“ bezeichnet wird, kann unangemessene rassistische Kommentare, gewalttätige Sprache und erfundene medizinische Behandlungen umfassen.
Experten warnen, dass diese Ungenauigkeiten besorgniserregend seien, insbesondere da Whisper in verschiedenen Branchen weltweit für Aufgaben wie das Übersetzen und Transkribieren von Interviews, das Generieren von Texten für beliebte Verbrauchertechnologien und das Erstellen von Videountertiteln eingesetzt wird.
Besonders besorgniserregend ist die schnelle Einführung von Whisper-basierten Tools durch medizinische Einrichtungen zur Transkription von Patientenkonsultationen, obwohl OpenAI davon abrät, das Tool in „Hochrisikobereichen“ zu verwenden.