Forscher haben Defizite und potenzielle Risiken des OpenAI-Tools „Whisper“ im medizinischen Bereich nachgewiesen. Dieses auf Künstlicher Intelligenz (KI) basierende Transkriptions-Werkzeug neigt dazu, Textteile oder sogar ganze Sätze zu erfinden. Das hat Allison Koenecke von der Cornell University bei Interviews mit mehr als einem Dutzend Software-Ingenieuren, Entwicklern und Wissenschaftlern herausgefunden. Laut den Experten beinhalten einige der erfundenen Texte rassistische Kommentare, gewalttätige Rhetorik und sogar nichtexistierende Therapien.
Kurzlink tinyurl.com/345dne48 (pte)