Customer Intelligence stärkt Kundenbindungen, steigert Profitabilität und gewinnt neue Kunden.
Webshop in 5 Minuten mit Kundendatenplattform, E-Mail-Dienstleister und E-Fulfillment-Lösung verbinden.
Suchergebnisse auf der Website optimieren, um ein besseres Einkaufserlebnis zu bieten.
Spotler hilft Ihnen, Ihr Marketing erfolgreich zu gestalten. Mit fortschrittlichen Tools und Dienstleistungen optimieren Sie Ihre Strategien und entwickeln personalisierte Kampagnen. Unsere Lösungen stärken die Kundenbindung und erhöhen Konversionsraten
Online, offline, selbstständig oder in einer Schulungsgruppe? Lernen Sie auf die Art und Weise, die zu Ihnen passt.
Spotler-Kunden können sich an den Support wenden, wenn sie Fragen haben oder Vorfälle und Bugs melden möchten.
Wir helfen dir, das Beste aus unserer Software herauszuholen, mit gezielter Anleitung und einem klaren Plan zur Verbesserung.
Das Verb „generieren“ bedeutet „erzeugen“. Generative KI ist ein Sammelbegriff für alle Anwendungen der KI, die unterschiedliche Ergebnisse erzeugen oder hervorbringen können. Text, Musik, Bilder, Videos und Programmiercode – für Marketingfachleute bedeutet das in der Regel: Text, Musik, Bilder, Videos und Programmiercode.
ChatGPT ist natürlich die bekannteste generative KI-Anwendung. Doch was ist generative KI und ChatGPT, welchen Nutzen haben Unternehmen davon und wie nutzen sie es? Außerdem: Wie funktionieren große Sprachmodelle, wie steht es mit dem Datenschutz und was ist eigentlich Prompting?
Generative KI ist ein großartiges Tool für Marketingfachleute. Wenn es darum geht, schnell eine soziale Nachricht oder einen E-Mail-Inhalt zu verfassen, kann die erzeugende KI im Handumdrehen helfen. Aber auch beim Bearbeiten oder Erstellen eines Bildes ist generative KI großartig.
Generative KI kann Marketer nicht nur bei der Text- und Bildgestaltung unterstützen, sondern auch bei vielen anderen Aufgaben im Marketing. Man denke nur an den Einsatz verbesserter Personalisierungstechnologien, die Entwicklung von Kampagnen, die Erstellung von Content-Strategien und die Durchführung von Kundenanalysen.
Eine KI-Maschine führt diese Aufgaben jedoch nicht automatisch aus. Man muss ihr einen Befehl geben. Um es im Fachjargon auszudrücken: Man muss Prompt Engineering betreiben. Genau zu beschreiben, was die KI tun soll, ist eine ganz besondere Fähigkeit. Wenn Du schon einmal gehört hast, dass ein Content „mehr Schwung braucht“ oder „Ich weiß, was ich will, wenn ich es sehe“, dann weißt Du, wie wichtig es ist, dass Du die Eingabeaufforderungen präzise formulierst!
Generative KI ist der Oberbegriff für alle Anwendungen der Künstlichen Intelligenz, mit denen man Inhalte – in welcher Form auch immer – erstellen kann. ChatGPT ist eine davon. ChatGPT wird von den meisten von uns hauptsächlich zum Erstellen von Texten verwendet. Google Gemini ist eine weitere bekannte KI-Anwendung, die häufig als Textgenerator verwendet wird. In diesem Artikel werden wir uns hauptsächlich mit ChatGPT beschäftigen.
OpenAI – die Organisation, die ChatGPT auf den Markt bringt – hatte im Jahr 2015 nicht mehr als 10 Mitarbeiter. Zehn Jahre später sind es ca. 3.500. Interessantes Detail für alle Marketer: Die Marketingabteilung bei OpenAI hat 87 Mitarbeiter. Wo werden diese Vermarkter in 10 Jahren stehen? Sie planen etwas: Bis zu 123 Millionen tägliche Nutzer hatte ChatGPT Ende 2024.
Wissenswertes über generativer KI und ChatGPT:
Das folgende Beispiel erklärt‘s:
Szenario 1: Jörg geht mit seinem kaputten Fahrrad die Straße entlang. Der Reifen ist platt. Er geht zum Fahrradgeschäft an der Hauptstraße, öffnet die Tür und sagt zum Mechaniker: „Ich hab ein fettes Loch im Reifen. Ich weiß nicht, wie das kommen konnte.“
Szenario 2: Jörg fährt mit seinem kaputten Fahrrad über den Schulhof. Der Reifen seines Fahrrads ist platt. Er kommt viel zu spät in das Klassenzimmer von Frau Schmidt, sie schaut ihn fragend an und dann sagt Jörg: „Ich hab ein fettes Loch im Reifen. Ich weiß nicht, wie das kommen konnte.“
In Szenario 1 könnte der Fahrradladen Jörgs Bemerkung als eine Bitte interpretieren, das Fahrrad reparieren zu lassen. Immerhin befindet sich Jörg ja in einem Fahrradladen. Frau Verweij wird die Äußerung von Jörg in Szenario 2 kaum als Bitte um Wiedergutmachung auffassen, sondern eher als Ausrede für das Zuspätkommen.
Das heißt, dass die gleichen Wörter unterschiedlich interpretiert werden können, je nachdem, in welchem Kontext sie verwendet werden. In ChatGPT kannst Du folgendes sehen:
ChatGPT „wählt“ selbst einen Kontext, wenn Du ihn nicht explizit eingibst. In diesem einfachen Beispiel kannst Du selbst einen Chat starten und ChatGPT dabei unterstützen, den passenden Zusammenhang zu finden. Aber wenn Du ChatGPT fragst, ob es Dir bei etwas helfen kann, von dem Du weniger Ahnung hast, ist es viel schwerer, die Antwort richtig zu deuten.
Das überrascht nicht: Wer gute Prompts erstellen will, schafft zuerst Klarheit. Und das gilt nicht nur für Texte, sondern auch für jede andere Art von Ausgabe.
Schauen wir in folgendes Beispiel rein:
Walentina Tereschkowa war bekanntlich die erste Frau im Weltraum, weshalb wir diese beiden Fragen in etwa auf die gleiche Weise behandeln. Wenn Du gefragt wirst „Wer war die erste Frau im All?“, antwortest Du mit„Walentina Tereschkowa“. Auf die Frage „Wer ist Walentina Tereschkowa? (vielleicht in einem Kneipenquiz), antwortest Du wahrscheinlich eher mit „die erste Frau im Weltall“, als von ihren Jahren als Teenager in der Textilfabrik zu philosophieren.
ChatGPT behandelt beide Fragen unterschiedlich. Denke daran: Für gute Prompts musst Du möglichst spezifisch sein oder Folgefragen verwenden, damit ChatGPT herausfindet, was Du brauchst.
ChatGPT antwortet umso besser, je besser Dein Prompt oder Frage ist. GIGO (Garbage In, Garbage Out) ist ein Motto, das man sich merken sollte.
Um einen guten Prompt zu erstellen, ist es wichtig, dass Du ChatGPT genügend Kontext zur Verfügung stellst und dass Du Deine Frage spezifisch genug formulierst. Das erreichst Du mit PULI, einem fiktiven Akronym, das für Personas, Exclusions, Length und Inspiration steht.
Im Beispiel von Jörg und dem defekten Fahrrad wäre es für ChatGPT sehr hilfreich, wenn Du angibst, dass Du auf eine Antwort von der Werkstatt oder dem Professor wartest. Eine übliche Methode dafür ist, Deine Anfrage mit „Agiere als…“ zu beginnen. Hilfreich ist auch, direkt zu sagen, was Du nicht willst. Sagst Du in Deiner Anfrage, dass Du keinen Reparaturplan willst, bekommst Du auch keinen.
Besonders als Marketingexperte arbeitest Du oft mit einem bestimmten Tonfall. Beispiele dafür findest Du sicher auf Deiner Website. Du kannst diese Information (URL) immer in Deiner Anfrage angeben. Und dann kannst Du ChatGPT helfen, indem Du sagst, wie viele Wörter Du haben möchtest.
Viele Unternehmen, die generative KI in ihre Geschäftsabläufe integrieren, bieten ihren Kunden Unterstützung an. Spotler macht das gleiche. In den Editoren unserer Software, die mit einem Modul für generative KI ausgestattet sind, helfen wir den Benutzern, indem wir wichtige Prompting-Komponenten standardmäßig zur Verfügung stellen.
Der Benutzer muss sich nicht mehr daran erinnern, Dinge wie Tonfall, Übersetzungen, URL-Eingabe und maximale Wortanzahl selbst zu einem Prompt hinzuzufügen. Gestalte diese Einstellungen mit Hilfe von praktischen Menüs und das KI-Modul erledigt den Rest.
Damit Du Dir ein Bild von bekannten KI-Tools machen kannst: Nachfolgend haben wir 20 Unternehmen aufgelistet, von denen in der Marketingbranche angenommen wird, dass sie Software für generative KI anbieten.
KI-Tools gibt es nicht nur bei Spotler. Auch die folgenden 20 Webseiten sollte sich jeder Marketer einmal ansehen:
In nahezu allen Berufen und Branchen hält die künstliche Intelligenz Einzug. So nutzen Onkologen KI, um Muster in Krebszellen zu erkennen, die Transportindustrie experimentiert mit selbstfahrenden Autos und Behörden setzen KI ein, um Menschenmengen zu kontrollieren und den Verkehr zu steuern. Aber auch bei Dir wird KI eingesetzt, wenn Du Dein Smartphone per Gesichtserkennung entsperrst. Oder was ist mit Google Translate? Man kann ohne Übertreibung behaupten, dass künstliche Intelligenz in allen möglichen Lebensbereichen eingesetzt wird – sowohl im Geschäftsleben als auch im privaten Umfeld.
Wir unterscheiden oft zwischen Generative AI, Predictive AI, Conversational AI und assistierender KI, wenn wir über KI und unsere Branche (Software und SaaS) sprechen. Da wir diese KI-Technologie auch in unserer Software einsetzen, haben wir einen separaten Leitfaden zur prädiktiven erstellt.
Im Vergleich zu allen anderen Formen der KI gibt es bei der generativen KI zwei wesentliche Unterschiede. Zum einen geht die generative KI über die reine Datenanalyse hinaus. Das Ergebnis einer Eingabe ist immer ein einzigartiger Inhalt. Generative KI ermöglicht die Erstellung von Inhalten.
Nur mit einem Large Language Model (LLM) – z. Dt. großes Sprachmodell – sind viele Anwendungen der generativen KI möglich. Wenn Du mit ChatGPT Betreffzeilen für Deine Emails generieren kannst, wenn Du mit ChatGPT Zusammenfassungen von Text erstellen kannst, indem Du URL’s eingibst, oder wenn Du mit ChatGPT übersetzen kannst, dann ist dies nur möglich, weil ChatGPT ein Large Language Model (LLM) verwendet.
Die Definition fürs Fachpublikum: ChatGPT ist ein Chatbot-Dienst, der auf dem GPT-Backend von OpenAI basiert. Der Generative Pre-Trained Transformer (GPT) basiert auf einem Large Language Model (LLM), das sich aus den folgenden vier Komponenten zusammensetzt: Transformer Architecture, Tokens, Context Window und Neural Network.
Zugegeben, das ist nicht die einfachste Definition. Aber eines ist klar: Der Kern von ChatGPT ist ein großes Sprachmodell. Aber was genau ist das? Was ist ein LLM? Im Folgenden werden die wichtigsten Bestandteile eines LLM kurz und vereinfacht erklärt und mit Links zu weiterführenden Informationen versehen.
Ein LLM ist kein Wörterbuch, in dem einzelne Wörter gespeichert sind. Ein LLM ist ein Textgenerator. Ein LLM ist ein Textgenerator, d.h. ein LLM erzeugt Texte durch die Herstellung statistischer Beziehungen aus einem riesigen Berg von Daten. Und diese Daten wiederum sind Texte. Zum Verständnis all dessen ist es hilfreich, sich ein LLM als eine Art Straßenkarte vorzustellen. Auf diese Weise lassen sich alle Komponenten erklären:
Schritt 1 | Informationen sammeln. |
Schritt 2 | Token anwenden und einbetten. |
Schritt 3 | Textausdrücke gewichten |
Schritt 4 | Vorhersagen treffen |
Schritt 5 | Ausgabe erzeugen |
An dieser Stelle kommt das erste L von LLM ins Spiel: Large – groß. Ergebnisse werden nur dann erfolgreich generiert, wenn das Modell auf einer großen Datenmenge trainiert wurde. Man denke an: Texte im Internet, öffentliche Foren, vermutlich Wikipedia, eBooks und Nachrichten-Websites. Es wird Dich freuen zu hören: ChatGPT kopiert und speichert dieses Quellmaterial nicht. Das Modell verwendet die Daten nur zu Trainingszwecken. Um auf diese Trainingsdaten zuzugreifen, wird gecrawlt.
Eine bekannte Organisation, die diese Crawling-Technik anbietet, ist Common Crawl. Es ist eine kleine Non-Profit-Organisation, die wahrscheinlich die meisten Trainingsdaten der frühen ChatGPT-Versionen bereitgestellt hat. Auf der Webseite steht: The Common Crawl corpus contains petabytes of data, regularly collected since 2008.
Natürlich ist Common Crawl nicht die einzige Organisation, die diese Art von Daten anbietet. Microsoft bietet sie beispielsweise auch an. Auf der anderen Seite wollen viele Organisationen nicht, dass ihr Copyright durch KI missbraucht wird. Gegen Organisationen wie Microsoft und OpenAI hat die New York Times deshalb Klage eingereicht. Die Diskussion um den Zugriff auf Inhalte ist noch im Gange.
Spotler möchte seinen Kunden die neuesten technologischen Entwicklungen bieten. Aus diesem Grund arbeiten wir mit OpenAI zusammen, um generative KI einzusetzen. Jeder Marketer, der zum ersten Mal erlebt, wie schnell und einfach sich ein Content-Block in der Tonalität anpassen lässt, wie sich ein Facebook-Post gestalten lässt und wie sich ein Text auf Knopfdruck übersetzen lässt, ist begeistert. Aber wie steht es mit der Privatsphäre?
Wir stellen sicher, dass alle Daten vor der Übermittlung an OpenAI in unseren E-Mail- und Social-Editoren vollständig anonymisiert werden. Die Daten werden von OpenAI weder gespeichert noch für andere Zwecke verwendet als für die Funktionen, die wir mit unserem KI-Modul anbieten. Alle Daten sind sicher und entsprechen den Datenschutzbestimmungen.
Im LM von LLM: Language Model befinden wir uns ab Schritt 2. Alle Daten werden in Teile zerlegt. Mit Daten sind hier Texte gemeint. Der Text, der dem LLM vorliegt, wird in Teile zerlegt, oder Token, wie KI es nennt. Diese Token werden mit einer eindeutigen Zahlenfolge versehen. Wem das gefällt, kann das mit einem Tokenizer ausprobieren.
Hier ein völlig willkürliches Beispiel:
Der Text The King of the Netherlands is called Willem-Alexander besteht aus neun Token oder der folgenden Zahlenfolge (Token-IDs): [1923, 148872, 1164, 16760, 109217, 121853, 9406, 3179, 9330]. Als Linguist würden wir sagen, dass der eingegebene Satz aus sechs oder sieben Wörtern besteht. Token sind also nicht nur Wörter. Sie können auch Wortbestandteile oder sogar Satzzeichen sein. Wichtig ist, dass nicht jeder Tokenizer gleich funktioniert. Für die Zerlegung von Sprache in Token gibt es keinen einheitlichen linguistischen Standard.
Ein LLM liest nicht wie wir, sondern versucht, die richtigen Zahlenfolgen aneinanderzureihen. Und weil dieses gigantische Netz dem menschlichen Axon-Dendrit-Netz gleicht, bezeichnet man es auch als neuronales Netz. Die Frage ist jetzt: Woher weiß ein LLM, wie er in diesem riesigen Netzwerk die richtigen Entscheidungen treffen soll? Antwort: Durch Wort-Einbettungen.
Dazu eine kurze Erklärung: Die Wörter König und Königin kommen sehr oft zusammen vor und stehen auch in einer ganz bestimmten Beziehung zueinander. Das Gleiche gilt auch für die Beziehung zwischen den Wörtern Mann und Frau. Oder die Beziehung von Begriffen wie: bescheiden, kleinlich, erbärmlich, klein, nichtssagend und Synthese. Sie alle haben etwas mit der Bedeutung „klein“ zu tun. Wörter sind sowohl Teil einer bestimmten Bedeutung als auch Teil eines bestimmten Gebrauchs. Dass das Wort Trump oft mit Präsident und mit Kamala Harris assoziiert wird, ist zum Beispiel leicht vorstellbar.
Die oben beschriebene Beziehung wird durch die Verwendung von Vektordarstellungen in einem mehrdimensionalen Raum ausgedrückt. Jetzt wird Dein Mathe-Bug geweckt. Hier erfährst Du alles über die Word2vec-Technik.
Denke daran: LLMs „lernen“ die Beziehung zwischen Wörtern durch die Art, wie wir sie in der großen Menge an Daten benutzen, auf die sie trainiert wurden. Nehmen wir zum Beispiel an, wir stellen eine so einfache Frage wie „Was ist die Hauptstadt der Niederlande? dann muss das Modell zunächst diese Wortgruppe erkennen.
Etwas weniger logisch wäre die Frage: „What capital the is Netherlands of?“ Weil wir das nicht so schreiben und weil es sich nicht aus allen Textbeispielen ergibt, auf die das Modell bereits trainiert wurde, legt das Modell darauf eine andere Gewichtung. In der künstlichen Intelligenz heißen diese Gewichtungen Parameter.
Für die Interessierten: Hintergrundartikel über Parameter in ChatGPT.
ChatGPT-3 hatte 175 Milliarden Parameter, aber ChatGPT-4 hat bereits Billionen Parameter. Das ist eine Zahl mit 12 Nullen.
Ein weiterer Punkt ist die Verknüpfung der Eingabe (Frage) mit der gewünschten Ausgabe (Antwort). Im LLM geschieht dies durch einen Transformator. Der Transformator wird auch Pre-Trained Transformator genannt, da der ChatGPT LLM bereits mit einer großen Menge an Daten trainiert wurde. Alternativ können wir auch Post-Training verwenden.
Mit 170.000.000.000.000.000 Parametern (Oktober 2024) ist der LLM von ChatGPT in der Lage, das Ende eines Satzes vorherzusagen, wenn er die erste Hälfte erhält. Das ist etwas, was wir als menschliche Sprachverarbeiter auch sehr gut können.
Die in Schritt 2 gestellte Frage „Woher weiß ein LLM, wie er aus diesem riesigen neuronalen Netz die richtige Wahl treffen soll?“ wird nicht nur durch die Einbettung von Wörtern beantwortet. Das Modell trainiert sich auch selbst, indem es feste Muster in der Sprache erkennt. Visuell könnte man das so darstellen:
Alle Sprachen haben Beispiele dafür. Wenn Du im Englischen den Satz The cat sat on a … liest, weißt Du, dass das Wort mat folgt.
Der LLM von ChatGPT hatte in der 5. Klasse keinen Geographieunterricht bei Herrn Rob. Dennoch weiß ein LLM die Antwort Amsterdam auf die Frage Amsterdam to the question What is the capital of the Netherlands? Das ist möglich, weil die Token-IDs (die Zahlenketten) der einzelnen Wörter ähnliche Einbettungen haben, die eingestellten Parameter einen zusammenhängenden Satz erkennen und das Pre-Training schließlich gemeinsam eine Antwort erzeugt.
Ob die erzeugte Ausgabe korrekt ist, weiß der LLM übrigens nicht. LLM ist jedoch in der Lage zu „lernen“, oder genauer gesagt, andere Ergebnisse zu erzeugen. Das liegt daran, dass ein LLM ein digitales Gedächtnis hat. In der KI wird dies als Kontextfenster bezeichnet. LLM kann auf vorherige Interaktionen zugreifen und diese bei seinen Antworten berücksichtigen. Oder in der Sprache der Künstlichen Intelligenz: Ein LLM berücksichtigt alle Token innerhalb seines Kontextfensters, wenn es die Ausgabe generiert.
Das Kontextfenster von ChatGPT-4 ist 16K groß. Das sind ungefähr 8.000 Wörter. Das bedeutet, dass Du ohne Probleme den gesamten Artikel als Kontext auflisten kannst. Für etwas mehr Interpretation lies den Artikel auf CheatSheet.
Der Autor dieses Leitfadens ist Sprachwissenschaftler. Seit meinem Studium interessiere ich mich für Sprachmodelle. Die kurze Erklärung, die Du über LLM gelesen hast, kann ich selbst schreiben. Wenn ich aber noch einen Abschnitt über die Vorteile der generativen KI hinzufügen möchte, kann ich mich an ChatGPT wenden und um Hilfe bitten. Und das habe ich getan. Hier ist der Inhalt.
Von verbesserter Effizienz bis hin zu neuen kreativen Möglichkeiten bietet die generative KI Unternehmen viele Vorteile. Um sie aufzulisten:
Generative KI-Tools wie ChatGPT oder DALL-E können in kurzer Zeit Texte, Bilder oder Videos produzieren. Dadurch können Unternehmen schneller auf Markttrends reagieren. Auch bei sich wiederholenden Aufgaben, wie der Erstellung von Antworten auf häufig gestellte Fragen im Kundenservice, kann generative KI helfen.
Generative KI kann Ideen für Slogans, Inhalte in den sozialen Medien oder Themen für Blogs liefern. Sie ist eine große Hilfe, wenn Du Themen brainstormen möchtest. Außerdem kannst Du mit generativer KI Inhalte für eine Vielzahl von Formaten erstellen. KI ermöglicht eine vielseitige Ausgabe von Videos bis hin zu Infografiken.
In Chatbots und virtuellen Assistenten kommt generative KI häufig zum Einsatz. Mithilfe von generativer KI ist ein natürlicher Dialog mit Kunden, die Lösung von Problemen und die Bereitstellung von Informationen rund um die Uhr möglich. Darüber hinaus ist eine Unterstützung über mehrere Kanäle möglich. Die KI kann über verschiedene Plattformen hinweg mit den Kunden kommunizieren.
Um internationale Märkte zu erschließen, kann KI Inhalte automatisch übersetzen und an unterschiedliche Kulturen anpassen. Auf diese Weise können vor allem kleinere Unternehmen mit Hilfe von KI durch die Produktion hochwertiger Inhalte ohne große Budgets wettbewerbsfähig bleiben.
Der Einsatz von KI für Aufgaben wie das Schreiben von Texten oder das Design verringert die Notwendigkeit, große Teams oder externe Agenturen zu beschäftigen. Außerdem können Werbebudgets optimiert werden. Durch KI-gestützte A/B-Tests und verbessertes Targeting kann der Werbeerfolg sogar gesteigert werden.
Der Text über die Vorteile der künstlichen Intelligenz ist natürlich keine direkte Kopie der von ChatGPT erzeugten Ergebnisse. Es wurde dem Stil und der Struktur des vorliegenden Handbuchs angepasst. Das ist bei allen neuen Technologien so. Wir lernen, mit ihnen zu arbeiten, sie zu verbessern und an unsere Bedürfnisse anzupassen. Ein Unternehmen wie Spotler macht genau das.
Mit generativer KI können unsere Kunden ihre Effizienz und Kreativität steigern und noch besser auf die Wünsche ihrer Kunden eingehen. Unsere Kunden können nicht nur ihre Kosten senken, sondern auch ihre Wettbewerbsposition stärken und Wachstum in neuen Märkten erzielen, indem sie diese Technologie intelligent einsetzen.