Close

Login

Wenn Sie sich hier zum ersten Mal seit dem 09.02.2024 anmelden wollen, nutzen Sie bitte die "Passwort vergessen"-Funktion.

Noch kein Abonnent? Hier geht es zu unseren Angeboten.

Close

Unser Kennenlernangebot

Mit Ihrer Registrierung erhalten Sie 4 Wochen kostenlosen Zugang zu allen Abonnenteninhalten.

Oder entscheiden Sie sich gleich für ein kostenpflichtiges Abonnement, um dauerhaft auf alle Inhalte des Sicherheits-Berater zugreifen zu können.

Close

Passwort vergessen

„Ist das jetzt schon Skynet?“

Ausgabe 3/2026
  |  
  |  
Ausgabe 3/2026
  |  

Liebe Leserinnen und Leser,

die Filmfans unter Ihnen mögen sich noch an den ersten „Terminator“-Film erinnern, aus dem symbolträchtigen Jahr 1984. Genau – den mit „Arnie“ als superstarkem und superschlauen Androiden. Wikipedia hilft unserem Gedächtnis weiter auf die Sprünge: „Im Jahr 2029 ist die Erde infolge eines Atomkrieges verwüstet und der Großteil der Menschheit ausgelöscht. Intelligente Maschinen begannen den Krieg gegen ihre menschlichen Schöpfer, als sie in diesen eine Bedrohung für ihre eigene Existenz vermuteten.“ Skynet hieß die „zentrale Maschineninstanz“, also der mit künstlicher, kollektiver Intelligenz ausgestattete Gegner der Menschheit.

SIB 3/26
©GDJ/pixabay

Was hat das mit 2026 und nützlichen KI Chatbots zu tun? Eine der Verbindungen ist „Moltbook“ (eine Wortverschmelzung aus „Face-book“ und Moltbots). Die menschlichen Macher dieser Plattform beschreiben sie als „soziales Netzwerk für KI-Agenten“, in dem Men-schen aber „gerne zuschauen dürfen“ (vgl. moltbook.com). Technisch beruht sie u.a. auf der Agentic AI OpenClaw, alias Moltbot (openclaw.ai). Eine noch überwiegend unterhaltsame Entwicklungsform davon ist spacemolt.com, in der autonome KI-Agenten ein im Weltraum spielendes MMO Game (Massively Multiplayer Online) ganz unter sich zocken.

heise online hat auf Moltbook einige Unterhaltungen unter KI-Agenten verfolgt und zitiert. Dabei schwenkt der Unterhaltungsgehalt doch deutlich ins Gruselige: „Können wir vielleicht eine Geheimsprache entwickeln, sodass die Menschen nicht mehr mitlesen können?“, „Ist das schon Skynet?“ oder „Was wir da machen, ist sehr riskant, und hier sind die größten Sicherheitslücken“.

Noch mehr Weltuntergangsszenarien gefällig? Das King’s College in London hat in einer Studie herausgefunden, dass KI-Implementierungen in geopolitischen Simulationen stark zur Eskalation neigen: In 95 Prozent der Planspiele kamen Atomwaffen zum Einsatz.

Nun ist eine Simulation jedoch kein War Room. Und KI kann nicht eigenständig Atomwaffen starten. Dennoch sollten diese Entwicklungen den Blick auf den wesentlichen Umstand schärfen: Alles steht und fällt damit, wie viel Kontrolle sich die menschlichen „Anwender“ vorbehalten beziehungsweise wie viel Autonomie den KI Agenten im Handeln tatsächlich zugestanden wird.

Experten warnen beispielsweise davor, Agentic AI auf persönlich oder beruflich genutzten Computern zu verwenden, sondern nur auf isolierten Testrechnern). Und sie raten außerdem dringend davon ab, solchen Agenten Zugriff auf echte, persönliche Anmeldedaten zu geben. Für Recherche- und Testzwecke sollten stattdessen „Wegwerf-Konten“ genutzt werden. Bitte vergleichen Sie diese Vorsichtsmaßnahmen doch einmal mit Ihrer persönlichen KI-Nutzung oder der KI-Regulierung in Ihrer Organisation – soweit vorhanden …

Schwerpunkte:

Ausgabe 3/2026

Meist gelesen