Close

Login

Wenn Sie sich hier zum ersten Mal seit dem 09.02.2024 anmelden wollen, nutzen Sie bitte die "Passwort vergessen"-Funktion.

Noch kein Abonnent? Hier geht es zu unseren Angeboten.
Close

Unser Kennenlernangebot

Mit Ihrer Registrierung erhalten Sie 4 Wochen kostenlosen Zugang zu allen Abonnenteninhalten.

Oder entscheiden Sie sich gleich für ein kostenpflichtiges Abonnement, um dauerhaft auf alle Inhalte des Sicherheits-Berater zugreifen zu können: noch bis Jahresende 2024 mit 50% Jubiläumsrabatt auf das 1. Laufzeitjahr.

Close

Passwort vergessen

KI ist oft ein schlechter Wachmann

Ausgabe 20/2024 |
  |  
  |  
Ausgabe 20/2024
  |  

Große Sprachmodelle (Large Language Models, LLMs) können bei der Analyse von Überwachungsvideos uneinheitliche Entscheidungen darüber treffen, ob die Situation so ernst ist, dass die Polizei alarmiert werden muss. Ähnliche Schwächen offenbaren sich auch bei anderen sensiblen Aufgaben, die generativer Künstlicher Intelligenz (KI) zur Analyse übertragen werden, so Forscher des Massachusetts Institute of Technology (MIT) und der Pennsylvania State University. Bei Tests mit Videos, auf denen Fahrzeugeinbrüche zu sehen waren, schlugen die LLMs OpenAI GPT-4, Google Gemini und Anthropic Claude mal vor, die Polizei zu rufen, mal sahen sie keine Gefahr. 
Kurzlink tinyurl.com/2yfcvldn (pte)

Aktuell in dieser Rubrik

Weitere Short News

Meist gelesen

Anzeige
SIMEDIA Inhouseveranstaltungen

Schwerpunktthemen