Bernd Zimmermann ist fasziniert von ChatGPT. Allerdings wurde er jetzt von diesem Chatbot herb enttäuscht.
„Ich bitte um Entschuldigung für die Verwirrung.“
ChatGPT benutze ich neuerdings gern zum Recherchieren – wohl wissend, dass alle Antworten dieses mit Künstlicher Intelligenz ausgestatteten Chatbots vor Veröffentlichung noch einmal gegengecheckt werden müssen. Dass ChatGPT gelegentlich flunkert war mir also schon klar. Heute lernte ich eine weitere Lektion, die da lautet:
Du kannst Chat GPT zum Recherchieren und zur Ideenfindung ganz hervorragend nutzen. Allerdings solltest Du, wenn Du eine Deadline für die Abgabe Deines Manuskriptes oder für die Veröffentlichung Deines Textes hast, besser darauf verzichten. Es könnte nämlich sein, dass ChatGPT einfach irgendeinen Blödsinn erfindet. Und es ist ziemlich blöd, wenn Dir das erst in letzter Sekunde auffällt.
In unserem Fall trug sich das wie folgt zu: Im Jahr 2014 hatte ich hier auf Sicherheits-Berater direkt einmal einen Beitrag über „Security-Songs zum Reinhören und Mitsingen“ veröffentlicht. Vor ein paar Tagen fiel mir dann ein, ein Update mit aktuellen Songs könne doch ganz nett sein. Also befragte ich ChatGPT nach einer Liste von Songs, deren Lyrics das Wort „Security“ enthalten. In Sekundenschnelle lieferte der Bot eine ziemlich lange Liste mit den Songtiteln und den Namen der Songschreiber, die ich mir abspeicherte: „Das kann ich dann später schnell nachrecherchieren und in Beitragsform gießen.“ Dachte ich.
Heute ging es dann darum, mir die Songs auf Youtube anzuhören, die Songtexte zu googeln und einzelne Songs zu kommentieren. Da ich alle Songtitel, die bis zum Jahr 2014 veröffentlicht worden waren, ausschließen wollte, spezifizierte ich meine Anfrage (meinen „Prompt“) entsprechend. ChatGPT lieferte daraufhin immerhin noch fünf Vorschläge, darunter „Security“ von FKA Twigs. Dass mir FKA Twigs überhaupt nichts sagt, tut hier einmal nichts zur Sache. Jedenfalls gibt es eine Künstlerin mit diesem Namen, deren Songs auf Youtube millionenfach aufgerufen worden sind. Allerdings fand ich darunter keinen Song mit dem Titel „Security“. Also hakte ich nach, woraufhin sich folgender Dialog entwickelte:
ChatGPT scheint also zwischen genauen und nützlichen Antworten zu unterscheiden. Nützlich können offenbar auch frei erfundene Antworten sein. Hellhörig geworden, fasste ich bei einem weiteren ChatGPT-Songvorschlag nach:
Auch diese Angabe war frei erfunden. Die Künstlerin existiert zwar, auch das Album „Trip“. Aber auf der Setlist war kein Songtitel „Security“ zu finden. Ich forderte ChatGPT daraufhin auf, mir die Liste der Albumsongs zu nennen, was der Bot auch tat. Ich ging davon aus, dass ihm selbst auffallen müsste, dass der ein Titel „Security“ fehlt. Leider Fehlanzeige. Stattdessen:
So war der geplante Beitrag – vor dem Hintergrund einer Deadline – leider nicht zu realisieren. Was tun? Ganz einfach: Ich besann mich auf meine eigene Kreativität und dokumentierte ersatzweise meine Erfahrung mit dem verunglückten Beitrag. Vielleicht ist das ja ebenso interessant wie der ursprünglich geplante und jetzt vorläufig verschobene Beitrag zu dem Security-Songs.
Übrigens stieß ich bei meinen Recherchen im Netz ganz ohne Chatbot auf eine Liste mit mehr als 300 (!) Songs, die das Stichwort „Surveillance“ (Überwachung, z. B. durch Videokameras) thematisieren. Auch nicht schlecht. Aber bevor ich Ihnen eine Auswahl daraus anbieten kann, muss ich die Einträge noch verifizieren …