Große Sprachmodelle (Large Language Models, LLMs) können bei der Analyse von Überwachungsvideos uneinheitliche Entscheidungen darüber treffen, ob die Situation so ernst ist, dass die Polizei alarmiert werden muss. Ähnliche Schwächen offenbaren sich auch bei anderen sensiblen Aufgaben, die generativer Künstlicher Intelligenz (KI) zur Analyse übertragen werden, so Forscher des Massachusetts Institute of Technology (MIT) und der Pennsylvania State University. Bei Tests mit Videos, auf denen Fahrzeugeinbrüche zu sehen waren, schlugen die LLMs OpenAI GPT-4, Google Gemini und Anthropic Claude mal vor, die Polizei zu rufen, mal sahen sie keine Gefahr.
Kurzlink tinyurl.com/2yfcvldn (pte)