- 14:22Ayuso kritisiert Trumps Zölle als Fehler, der zu Armut führt
- 13:48UN-Bericht: Zwei Drittel des Gazastreifens für Palästinenser gesperrt
- 13:03Industrielle Souveränität: Marokko konzentriert sich auf die Halbleiterindustrie
- 12:33Marokko, ein wichtiger strategischer Partner der Vereinigten Staaten für Sicherheit und Stabilität in Afrika
- 12:02IWF warnt: US-Zölle bedrohen die Weltwirtschaft
- 11:13Stärkung der bilateralen Beziehungen: Chilenischer Senatspräsident besucht Marokko
- 10:18Europäische Union und Marokko knüpfen engere Beziehungen für eine stärkere strategische Partnerschaft
- 09:29Frankreich bekräftigt seine Unterstützung für die Souveränität Marokkos über seine Sahara
- 09:03Marokko bringt bei den Vereinten Nationen eine beispiellose Resolution zur Rolle der Frauen in der Diplomatie ein
Folgen Sie uns auf Facebook
Forscher im medizinischen Bereich weisen auf KI-"Halluzinationen“ hin
Der Technologieriese OpenAI hat sein KI-gesteuertes Transkriptionstool Whisper damit beworben, dass es beinahe „die Robustheit und Genauigkeit des Menschen“ erreiche.
Whisper hat jedoch einen erheblichen Nachteil: Laut AP generiert es häufig falschen Text, manchmal ganze Sätze, wie aus Interviews mit über einem Dutzend Softwareingenieuren, Entwicklern und akademischen Forschern hervorgeht.
Dieses Phänomen, das in der Branche als „Halluzinationen“ bezeichnet wird, kann unangemessene rassistische Kommentare, gewalttätige Sprache und erfundene medizinische Behandlungen umfassen.
Experten warnen, dass diese Ungenauigkeiten besorgniserregend seien, insbesondere da Whisper in verschiedenen Branchen weltweit für Aufgaben wie das Übersetzen und Transkribieren von Interviews, das Generieren von Texten für beliebte Verbrauchertechnologien und das Erstellen von Videountertiteln eingesetzt wird.
Besonders besorgniserregend ist die schnelle Einführung von Whisper-basierten Tools durch medizinische Einrichtungen zur Transkription von Patientenkonsultationen, obwohl OpenAI davon abrät, das Tool in „Hochrisikobereichen“ zu verwenden.
Kommentare (0)