sicherheits-berater
Close

Login

Wenn Sie sich hier zum ersten Mal seit dem 09.02.2024 anmelden wollen, nutzen Sie bitte die "Passwort vergessen"-Funktion.

Noch kein Abonnent? Hier geht es zu unseren Angeboten.
Close

Passwort vergessen

Close

Gastregistrierung

Mit Ihrer Registrierung erhalten Sie für 4 Wochen kostenlos und unverbindlich Zugriff auf unsere Inhalte.

Künstliche Intelligenz als Gefahr.

Risikobewertung

Picture of Bernd Zimmermann

Bernd Zimmermann

Wird die Künstliche Intelligenz die Menschheit versklaven oder gar vernichten? Ernstzunehmende Experten sehen diese Gefahr. Lesen Sie, wer und warum.

Abgesang auf die Menschheit?

Neulich habe ich einen Ingenieur, der stets zu unseren zuverlässigen Nachrichtenquellen in Sachen technische Innovation zählte, gebeten, uns seine Meinung zur Künstlichen Intelligenz zu verraten. Seine Antwort lautete: „…ich habe ANGST vor echter KI, wie sie immer mehr Rechenleistung bekommt…“ und „Wir waren noch nie so nah vor der Ausrottung.“ Da muss man erst einmal schlucken.

Nun sind die Meinungen zu dem, was KI kann, durchaus geteilt. Die einen vertreten die Ansicht, dass die Fähigkeiten der KI begrenzt sind. Gefühle und wirkliche Kreativität wird sie nie leisten können, sagen die einen. Die anderen warnen und sehen bereits eine kurz bevorstehende Apokalypse auf die Menschheit zukommen nach dem Motto „Den Geist, den wir hier aus der Flasche lassen, werden wir nicht mehr los.“

Zu letzteren zählt (nicht ganz widerspruchsfrei) z. B. Elon Musk. In einem Interview mit Foxnews sagte er kürzlich, KI besitze das Potenzial der zivilisatorischen Zerstörung. Der Interviewer Tucker Carlson zitiert ihn mit den Worten (übersetzt): „Das tiefere Problem ist nicht nur, dass die App autonom wird und uns alle in Sklaven verwandelt, sondern dass sie unser Verständnis der Realität kontrolliert und das auf eine wirklich unehrliche Weise. Sie könnte so programmiert werden, dass sie uns aus politischen Gründen anlügt.“

Tatsächlich gibt es das nicht erst seit ChatGPT und KI: Politische Propaganda hat schon immer versucht, das Verständnis der Realität zu kontrollieren. Wir erinnern uns: Das hat unter anderem dazu geführt, dass Menschen die Ankündigung eines totalen Krieges bejubelt haben. Interessant bei den Warnungen Musks: Er investiert selbst in KI – natürlich nur in die gute, was ihn aber nicht davon abhält, einen offenen Brief zu unterzeichnen, der ein sechsmonatiges Pausieren der AI-Entwicklung fordert.

Mehr als 27.000 Menschen haben diesen Brief bereits unterzeichnet (Stand: 20.4.2023). Sie halten folgende Frage für angebracht (übersetzt): „Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?“„Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten?“ So soll das halbjährige Moratorium dazu genutzt werden, das zu verhindern, das droht, wenn die Antwort „Ja“ lauten würde. Zu den Unterzeichnern gehören zahlreiche „KI-Gurus“ wie Apple-Mitgründer Steve Wozniak oder der britische KI-Forscher Stuart Russell. Auch Unternehmer wie Emad Mustaque, einer der Macher des Bildgenerierers Stable Diffusion hat unterzeichnet oder Mitarbeiter der zu Google gehörenden Forschungseinrichtung DeepMind. Der bekannte israelische Historiker und Bestsellerautor Yuval Noah Harari, der sein Geld damit verdient, apokalyptische Szenarien zu beschreiben, setzte seine Unterschrift unter den offenen Brief.

Es gibt allerdings auch ernstzunehmend Stimmen, die die Ängste für überzogen halten. Und die Warnungen vor Künstlicher Intelligenz sind nicht neu. Bereits im Jahr 2014 warnte kein Geringerer als Stephen Hawkins, dass KI das Ende der Menschheit bedeuten könnte. Er begründete das damit, dass der Mensch durch seine langsame biologische Evolution begrenzt sei, nicht mithalten könne und verdrängt werden könne.

Im September 2022 berichteten verschiedene Zeitungen über eine Oxford-Studie, deren Autoren unter Führung von Michale Cohen einen ganz interessanten Aspekt herausgearbeitet haben wollen: So soll eine fortgeschrittene KI deshalb gefährlich werden können für die Menschheit, weil diese KI in die Bereitstellung von Belohnung eingreift – sie wird gewissermaßen süchtig nach Belohnungen und setzt ihre ganze Energie dafür ein, belohnt zu werden: „Eine gute Möglichkeit für einen Agenten, die langfristige Kontrolle über seine Belohnung zu behalten, besteht darin, potenzielle Bedrohungen zu beseitigen und alle verfügbare Energie zur Sicherung seines Computers einzusetzen.“ (aus dem Englischen übersetzt). Die Autoren verweisen wiederum auf andere Wissenschaftler, die prognostizieren, dass hinreichend intelligente Agenten unsere Infrastruktur übernehmen und uns Menschen eliminieren könnten.

Ein deutscher Experte, der immer wieder auf das riesige Potenzial von KI hingewiesen hat, ist Sascha Lobo. Der SPIEGEL-Kolumnist: „Das meiste, was die KI nicht kann, kann sie noch nicht.“ Er sieht beruhigender Weise jedoch eher die Möglichkeiten, die die KI bietet. Gleiches gilt für Bill Gates, der zwar in seinem Blog ebenfalls vor den Gefahren warnt, im Prinzip aber eher fasziniert ist von den heilsamen Segnungen, die KI der Menschheit bietet kann: „Ich habe das Glück, an der PC-Revolution und der Internet-Revolution beteiligt gewesen zu sein. Genauso aufgeregt bin ich über diesen Moment. Diese neue Technologie kann Menschen überall helfen, ihr Leben zu verbessern.“ (übersetzt)

Warum KI für den Menschen gefährlich werden kann, begründet Nick Bostrom, Philosophie-Professor an der Universität Oxford, in einem n-tv-Interview beispielhaft mit einem Vergleich zwischen Gorilla und Mensch: Nicht etwa die körperliche Überlegenheit sei Ursache menschlicher Dominanz, sondern das Gehirn, das Technologien koordinieren, entwickeln und vorausschauend planen könne. Damit läge auch die Entscheidungskompetenz bei den Menschen. Eine maschinelle Superintelligenz könne an die Stelle des Menschen treten. Sie könnte uns sterben lassen.

Vermutlich wird die Frage, ob KI die Menschheit ausradiert, davon abhängen, ob eine „gute“ KI eine „böse“ KI besiegen können wird. Am Ende wird der bessere Algorithmus gewinnen. Laut einem Kommentar von Max Heinemeyer auf der Onlineplattform Security Insider konnte zumindest gezeigt werden, dass im Falle von KI-gestützten Cyberangriffen ein sogenanntes unüberwachtes ML (Machine Learning) auch gegen neuartige KI-basierte Angriffe eine schnelle KI-Abwehr sicherstellen könne.

Einigkeit herrscht offenbar bei immer mehr Forschern und Politikern, dass Künstliche Intelligenz einer Regulierung bedarf. Die Süddeutsche formulierte es so, als sie Mahner zitierte: „Die Entwicklung der KI sei an einem Punkt, an dem man noch gemeinsam eingreifen könne. Aber das müsse eben jetzt geschehen. Jetzt!“ Das war allerdings im Jahr 2018 …

Immerhin scheint sich die Politik auf EU-Ebene jetzt ernsthaft Gedanken darüber zu machen, wie sich die Gefahren der KI bannen lassen. Laut Heise online will die EU „erhebliche Pflichten für KI-Anbieter“ verbindlich machen.

Newsletterbeiträge April 2023

Risikobewertung

Datensicherheit

Umwelt

Newsletterarchiv

Anzeige
  • 9. Jahresforum Sicherheit im Ausland (SIMEDIA)
  • FeuerTrutz 2024 (Ad)
  • 4. SIMEDIA Netzwerktreffend für Site Secuirty Verantwortliche

Aktuelle Fachbeiträge

Login

Noch kein Abonnent? Hier geht es zu unseren Angeboten.