- 15:00„Nvidia“ wird das erste Unternehmen in der Geschichte mit einem Marktwert von über 3,6 Billionen US-Dollar
- 14:32LG eröffnet einen Online-Shop in Marokko
- 14:00M-AUTOMOTIV stärkt den Automobilmarkt in Marokko durch eine strategische Partnerschaft mit JAC Motors
- 12:00Marrakesch ist Gastgeber der 22. Sitzung der Weltkonferenz für medizinisch unterstützte Reproduktionstechnologien
- 11:00Bundesfinanzminister wirft Schulz vor, „seine Entlassung inszeniert zu haben“
- 10:00Gehirnzellen mit künstlicher Intelligenz verschmelzen, um superintelligente Biocomputer zu schaffen
- 09:30Der Architekt der Anerkennung der marokkanischen Sahara wird zum Leiter des Ressorts des amerikanischen Außenministeriums ernannt
- 09:01Eine Lebensader ... Trumps Sieg könnte Google vor der Gefahr einer Demontage bewahren
- 08:30Der Beitrag des archäologischen Tourismus in Marokko zur Stärkung der nationalen kulturellen Identität
Folgen Sie uns auf Facebook
Forscher im medizinischen Bereich weisen auf KI-"Halluzinationen“ hin
Der Technologieriese OpenAI hat sein KI-gesteuertes Transkriptionstool Whisper damit beworben, dass es beinahe „die Robustheit und Genauigkeit des Menschen“ erreiche.
Whisper hat jedoch einen erheblichen Nachteil: Laut AP generiert es häufig falschen Text, manchmal ganze Sätze, wie aus Interviews mit über einem Dutzend Softwareingenieuren, Entwicklern und akademischen Forschern hervorgeht.
Dieses Phänomen, das in der Branche als „Halluzinationen“ bezeichnet wird, kann unangemessene rassistische Kommentare, gewalttätige Sprache und erfundene medizinische Behandlungen umfassen.
Experten warnen, dass diese Ungenauigkeiten besorgniserregend seien, insbesondere da Whisper in verschiedenen Branchen weltweit für Aufgaben wie das Übersetzen und Transkribieren von Interviews, das Generieren von Texten für beliebte Verbrauchertechnologien und das Erstellen von Videountertiteln eingesetzt wird.
Besonders besorgniserregend ist die schnelle Einführung von Whisper-basierten Tools durch medizinische Einrichtungen zur Transkription von Patientenkonsultationen, obwohl OpenAI davon abrät, das Tool in „Hochrisikobereichen“ zu verwenden.