Close

Login

Wenn Sie sich hier zum ersten Mal seit dem 09.02.2024 anmelden wollen, nutzen Sie bitte die "Passwort vergessen"-Funktion.

Noch kein Abonnent? Hier geht es zu unseren Angeboten.
Close

Unser Kennenlernangebot

Mit Ihrer Registrierung erhalten Sie 4 Wochen kostenlosen Zugang zu allen Abonnenteninhalten.

Oder entscheiden Sie sich gleich für ein kostenpflichtiges Abonnement, um dauerhaft auf alle Inhalte des Sicherheits-Berater zugreifen zu können: noch bis Jahresende 2024 mit 50% Jubiläumsrabatt auf das 1. Laufzeitjahr.

Close

Passwort vergessen

Medizinische KI hat gefährliche Halluzinationen

Ausgabe 22/2024 |
  |  
  |  
Ausgabe 22/2024
  |  

Forscher haben Defizite und potenzielle Risiken des OpenAI-Tools „Whisper“ im medizinischen Bereich nachgewiesen. Dieses auf Künstlicher Intelligenz (KI) basierende Transkriptions-Werkzeug neigt dazu, Textteile oder sogar ganze Sätze zu erfinden. Das hat Allison Koenecke von der Cornell University bei Interviews mit mehr als einem Dutzend Software-Ingenieuren, Entwicklern und Wissenschaftlern herausgefunden. Laut den Experten beinhalten einige der erfundenen Texte rassistische Kommentare, gewalttätige Rhetorik und sogar nichtexistierende Therapien. pressetext.com
Kurzlink tinyurl.com/345dne48

Aktuell in dieser Rubrik

News

Meist gelesen

Anzeige
SIMEDIA Themenbereich Rechenzentren

Schwerpunktthemen