sicherheits-berater
Close

Login

Wenn Sie sich hier zum ersten Mal seit dem 09.02.2024 anmelden wollen, nutzen Sie bitte die "Passwort vergessen"-Funktion.

Noch kein Abonnent? Hier geht es zu unseren Angeboten.
Close

Passwort vergessen

Close

Gastregistrierung

Mit Ihrer Registrierung erhalten Sie für 4 Wochen kostenlos und unverbindlich Zugriff auf unsere Inhalte.

Editorial

Amtliche Warnung vor Deepfakes

Ausgabe 16/2022
  |  
  |  
Ausgabe 16/2022
  |  

Liebe Leserinnen und Leser,

Stimmen, Bilder oder Videos von Personen und auch Texte lassen sich mittlerweile so gut fälschen, dass das Bundesamt für Sicherheit in der Informationstechnik (BSI) davor warnt. Entsprechendes Aufklärungsmaterial des BSI sei unseren Lesern zur Lektüre empfohlen.

Was tun Sie als Prokurist, wenn Sie auf Ihrer Mailbox eine Nachricht Ihres Chefs vorfinden, Sie mögen bitte „as soon as possible“ die Zahlung eines größeren Geldbetrages auf ein bestimmtes Auslandskonto anweisen? Wenn so etwas nicht öfter vorkommt, werden Sie sich vermutlich immerhin wundern. Wenn das in Ihrem Unternehmen durchaus üblich ist, werden Sie der Anweisung womöglich folgen – und vielleicht einem Betrug aufsitzen. Denn bei der Stimme Ihres Chefs könnte es sich ebenso gut um ein Deepfake handeln, also um einen realistisch wirkendenden Medieninhalt, der mit Hilfe künstlicher Intelligenz gefälscht wurde. Dann haben Sie selbstredend ein Problem. Ein Problem haben Sie auch, wenn plötzlich ein atemberaubend perverser Pornofilm auftaucht, in dem Sie sich als Hauptdarsteller wiederfinden und mit dem Sie erpresst werden. Statt einer Mailboxansage könnten Sie auch einen E-Mail-Text Ihres Chefs erhalten. Die Technik ist mittlerweile so weit, dass Sie zumindest auf den ersten Blick nicht mehr erkennen können, ob dieser Text von einem Menschen oder von einer Maschine stammt.

Technisch ist das jedenfalls schon länger machbar. 2019 konnte das Programm DeepNude Kleider von Bildern von Frauen wegretuschieren. Im März 2022 machte ein gefälschtes Video in den sozialen Netzwerken die Runde, auf dem der ukrainische Präsident Selenskyj zu sehen war – das heißt, er war es nicht wirklich. Mit der kostenlosen App „FaceApp“ können Sie sich bzw. Ihr Gesicht auf einem Porträtfoto in Sekundenschnelle altern lassen – ein herrlicher Partyspaß, wenn man bereit ist, seine Daten dem Appbetreiber zu überlassen.

Mit der bis heute erreichten Perfektionierung von Stimmen-, Texten- und Gesichtsbildfälschungen, die noch dazu immer einfacher zu bewerkstelligen sind, entsteht ein hohes kriminelles Potenzial. Das BSI nennt als Beispiel insbesondere Fernidentifikationsverfahren, z. B. die Spracherkennung oder Videoidentifikation. Social Engineering, Desinformationskampagnen und Verleumdung: Auch das sind Bedrohungsszenarien, vor denen das BSI warnt.

All das hat dieses Amt dazu veranlasst, ein paar gut lesbare Aufklärungstexte ins Netz zu stellen: www.bsi.bund.de (Kurzlink https://bit.ly/3JbKJqZ). Das Unterhaltsame daran: In einem Video werden Deepfakes am Beispiel von Stimme und Gesicht des BSI-Präsidenten Arne Schönbohm demonstriert. Das Gute daran: Es werden auch gleich Hinweise für Gegenmaßnahmen (gegen die Fälschung) angeboten. Diese umfassen Tipps zur Prävention und zum Erkennen von Gesichts- und Stimmenmanipulationen. Sie nennen die Kryptographie als Authentifizierungsoption und diskutieren die Möglichkeit automatisierter Gegenmaßnahmen. Kurzum, einfach mal reinschauen und weitersagen.

Schwerpunkte:

Ausgabe 16/2022

Meist gelesen

Login

Noch kein Abonnent? Hier geht es zu unseren Angeboten.