Forscher haben Defizite und potenzielle Risiken des OpenAI-Tools „Whisper“ im medizinischen Bereich nachgewiesen. Dieses auf Künstlicher Intelligenz (KI) basierende Transkriptions-Werkzeug neigt dazu, Textteile oder sogar ganze Sätze zu erfinden. Das hat Allison Koenecke von der Cornell University bei Interviews mit mehr als einem Dutzend Software-Ingenieuren, Entwicklern und Wissenschaftlern herausgefunden. Laut den Experten beinhalten einige der erfundenen Texte rassistische Kommentare, gewalttätige Rhetorik und sogar nichtexistierende Therapien. pressetext.com
Kurzlink tinyurl.com/345dne48
- Gemeinsamer Leitfaden von BBK und BSI “Kommunale IT-Krisen”
- ESET stellt API für IBM QRadar SIEM und Microsoft Sentinel vor
- Produktpiraterie – Fest ohne Fakes beim Online-Shopping
- BYOD – Risiken und Sicherheitsmaßnahmen
- Smartphone-Daten sollen vor Waldbränden warnen
- TU Graz: Messnetzwerk soll Blitzschlag besser vorhersagen
- Sensor im Sicherheitsgurt überwacht Herzschlag und Atmung des Fahrers
- KI soll vor explodierenden LI-Akkus warnen
- Iphos: Linux-Backdoors im Visier der Hacker
- Zertifikatslehrgang Security Engineer 2025