Wat is generative AI?

Het werkwoord ‘genereren’ betekent ‘voortbrengen’. Generative AI is een verzamelterm voor alle AI-toepassingen waarmee je verschillende uitingen kunt genereren of voortbrengen. Voor marketeers gaat het dan meestal over: tekst, muziek, afbeeldingen, video en programmeercode.

De bekendste generative AI-toepassing is uiteraard ChatGPT. Maar wat verstaan we onder generative AI en ChatGPT, wat zijn de voordelen voor bedrijven en hoe passen zij dit toe? Daarnaast: hoe werken Large Language Models, hoe zit ’t met privacy en wat is eigenlijk prompt engineering?

Wat kun je met generative AI in marketing?

Voor marketeers is generative AI een geweldig hulpmiddel. Als je snel een goede tekst nodig hebt voor je social post of voor een contentblok in een mailing, dan helpt generative AI je daar direct mee. Maar ook als je een afbeelding wilt aanpassen of wilt maken, dan is generative AI een geweldige assistent.

Prompt engineer als nieuw marketingberoep

Generative AI is voor marketeers niet alleen behulpzaam bij het creëren van teksten en afbeeldingen, maar ook voor heel veel andere marketingtaken. Denk aan: het toepassen van betere personalisatietechnieken, het ontwikkelen van campagnes, het opzetten van contentstrategieën en het uitwerken van klantanalyses.

Ondanks alle mogelijkheden van generative AI zal het wel bekend zijn dat een AI-machine deze taken niet automatisch uitvoert. Je zult een opdracht moeten geven. Of met twee mooie Engelse buzz-woorden: je zult aan prompt engineering moeten doen. En dat wordt ongetwijfeld een nieuw marketingberoep. Iemand die een organisatie gaat helpen om generative AI-systemen beter te laten werken.

ChatGPT is een vorm van generative AI

Generative AI is de verzamelterm voor alle AI-toepassingen waarmee je content – in welke vorm dan ook – kunt creëren. ChatGPT is daar één van. De meesten onder ons gebruiken ChatGPT vooral voor het produceren van teksten. Een andere bekende AI-toepassing die vaak als tekstgenerator wordt gebruikt, is Google Gemini. In dit document lees je vooral over ChatGPT.

OpenAI – de organisatie die ChatGPT op de markt brengt – had in 2015 niet meer dan 10 medewerkers. Tien jaar later zijn dat er plusminus 3.500. Leuk detail voor alle marketeers: de marketingafdeling van OpenAI bestaat uit 87 personen. Wie doet ze dat na? En dat binnen 10 jaar? Maar wat wil je ook: ChatGPT heeft eind 2024 maar liefst 123 miljoen dagelijkse gebruikers.

Logo van OpenAI, bekend van generative AI software ChatGPT

Wat is handig om te weten voor je aan de slag gaat met generative AI?

Enkele zaken waar je rekening mee moet houden als je aan de slag gaat met generative AI en ChatGPT:

Genereren output is altijd context-afhankelijk

Context-afhankelijkheid is gemakkelijk uit te leggen met het volgende voorbeeld:

Scenario 1: Jantje loopt met zijn kapotte fiets over straat. De band van zijn fiets is lek. Hij loopt naar de fietsenmaker in de Bloemstraat, zwaait de deur van de winkel open en zegt tegen de fietsenmaker: ‘In mijn fietsband zit een groot gat. Ik weet ook niet hoe dat zo is gebeurd.’

Scenario 2: Jantje loopt met zijn kapotte fiets over het schoolplein. De band van zijn fiets is lek. Hij loopt veel te laat het lokaal van mevrouw Verweij binnen, zij kijkt hem vragend aan en dan zegt Jantje: ‘In mijn fietsband zit een groot gat. Ik weet ook niet hoe dat zo is gebeurd.’

In scenario 1 kan de fietsenmaker Jantjes opmerking opvatten als een oproep tot reparatie. Jantje staat immers in een fietsenwinkel. In scenario 2 zal mevrouw Verweij Jantjes opmerking waarschijnlijk niet opvatten als een oproep tot reparatie, maar eerder als een excuus voor de late binnenkomst. Of met andere woorden: dezelfde taaluitingen worden verschillend geïnterpreteerd afhankelijk van de context waarin de taal wordt gebruikt. In ChatGPT krijg je het volgende:

ChatGPT op de vraag wat te doen met een gat in je fietsband.

ChatGPT ‘kiest’ zelf een context als je die niet specifiek invoert. Als het gaat over dit eenvoudige voorbeeld, dan kun je zelf wel een chat starten en ChatGPT behulpzaam zijn met de juiste context. Maar vraag je ChatGPT om je te helpen met iets waar je minder verstand van hebt, dan is het veel lastiger om te begrijpen vanuit welk perspectief je het gegeven antwoord moet duiden.

Het zal je niet verbazen: wil je goede prompts maken dan moet je zelf een duidelijke context aanbrengen. En dat geldt niet alleen voor teksten, maar ook voor elke andere output die je wenst.

Geen sprake van menselijke intelligentie

Kijk eens naar het volgende voorbeeld:

Als je weet dat Valentina Teresjkova de eerste vrouw in de ruimte was, dan zouden wij al snel de constructie A is B en B is A toepassen. Op de vraag Wie was Valentina Teresjkova? geven wij het antwoord De eerste vrouw in de ruimte en op de vraag Wie was de eerste vrouw in de ruimte? zouden wij antwoorden Valentina Teresjkova. We zouden niet heel snel – en zeker niet zonder vervolgvraag – een relaas geven over haar werkzaamheden in een textielfabriek.

ChatGPT behandelt beide vragen anders. Onthoud: wil je goede prompts maken dan moet je zo specifiek mogelijk zijn of ChatGPT op weg helpen met vervolgvragen.

Houd rekening met Garbage In Garbage Out (GIGO)

Hoe beter jouw invoer of prompt hoe beter ChatGPT antwoordt. Je wilt graag GIGO voorkomen zoals een bekende computerwijsheid heet.

Hoe maak je goede prompts?

Voor een goede prompt is het van belang dat je ChatGPT voldoende context geeft en dat je voldoende specifiek bent in je vraag. Je kunt dit doen met PULI. Een verzonnen acroniem dat staat voor: Personas, Uitsluitingen, Lengte en Inspiratie.

Werk met personas en uitsluitingen

In het voorbeeld van Jantje en zijn kapotte fiets zou het ChatGPT heel erg helpen als je aangeeft dat je een reactie vanuit de fietsenmaker of de docente verwacht. Geef zo’n rol altijd aan. En wat ook heel goed werkt: geef aan wat je niet wenst. Als je in je prompt aangeeft dat je geen reparatieschema wenst, dan krijg je die ook niet.

Geef inspiratie en bepaal vooraf de lengte van de respons

Zeker als marketeer werk je vaak met een bepaalde tone-of-voice. Voorbeelden daarvan zijn ongetwijfeld op je website te vinden. Deze informatie (de URL) kun je altijd in je prompt meegeven ter inspiratie. En help ChatGPT door te zeggen hoeveel woorden je wenst.

Een uitgebreidere prompt met voorbeeld-URL

Wat zijn bekende generative AI-tools?

Veel organisaties die generative AI hebben opgenomen in hun bedrijfsprocessen helpen hun klanten met prompting. Spotler doet dat ook. In de editors van onze software waarin een generative AI-module zit, helpen wij gebruikers door belangrijke prompting-onderdelen standaard aan te bieden.

Zaken als tone-of-voice, vertalingen, invoer van URL’s en het maximaal aantal woorden hoef je niet meer zelf toe te voegen aan een prompt. Die kun je via handige menu’s wel of niet instellen en de AI-module doet de rest.

Om je een idee te geven van bekende AI-tools: hieronder hebben we twintig organisaties opgesomd die in de marketing bekend staan als aanbieders van generative AI-software.

Een klein overzicht van generative AI-tools

Er zijn momenteel al veel bedrijven die een vorm van generative AI aanbieden in hun dienstverlening. Spotler is daar één van. Wij bieden generative AI aan in Spotler Mail+, Spotler Engage en in onze chatbot-technologie Spotler Aigent . Al noemen we dat laatste liever Conversational AI.

Spotler en generative AI

Onze AI-chatbot-builder werkt met URL-invoer waardoor wij tot 40% van alle klantvragen kunnen automatiseren. Maar je kunt ook zelf dialogen opzetten. Daarnaast kan onze chatbot goed overweg met klantgegevens, wat handig is bij supportvragen.

In de editors van Spotler Mail+ en Spotler Engage hebben we belangrijke prompting-onderdelen gestandaardiseerd. En je hoeft de prompts ook niet zelf op te bouwen. Alle onderdelen zijn via handige menu’s eenvoudig in te stellen. En het is zelfs mogelijk om onze AI-module een complete social post voor je te laten schrijven.

Bekende voorbeelden van andere organisaties

Spotler is niet de enige aanbieder van AI-tooling. Elke marketeer zou ook eens een bezoek moeten brengen aan de volgende twintig sites:

  • Generative AI en tekst: Writesonic, Rytr, Mem, ContentBot.ai, QuillBot
  • Generative AI en video: Fliki, HourOne, Colossyan, Runway, Tavus
  • Generative AI en afbeeldingen: Dall·E, Vizcom, Diagram, OpenArt, Midjourney
  • Generative AI en code: GitHub, AI2SQL, Cogram, Debuild, Seek

Verschillen met andere AI-technologieën

Kunstmatige intelligentie kom je tegen in nagenoeg alle beroepen en branches. Oncologen zetten AI bijvoorbeeld in om patronen te herkennen in kankercellen, de transportsector experimenteert met zelfrijdende auto’s en overheidsinstanties gebruiken AI voor crowd en traffic control. Maar ook als je je smartphone ontgrendelt met gezichtsherkenning gebruik je AI. Of wat te denken van Google Translate. Het is niet overdreven om te zeggen dat kunstmatige intelligentie op allerlei plekken – zowel zakelijk als privé – terug te vinden is.

Als wij ons concentreren op AI en onze branche (software en SaaS), dan maken wij vaak een onderscheid in: generative AI, predictive AI, conversational AI en assistive AI. Over predictive AI hebben we een aparte guide geschreven. Simpelweg omdat we ook deze AI-technologie inzetten in onze software.

Belangrijk verschil: content creatie

Als je specifiek kijkt naar generative AI dan zijn er wel twee belangrijke verschillen met alle andere vormen van AI. Zo biedt generative AI meer dan alleen een analyse van gegevens. De output van een prompt is altijd unieke content. Met generative AI kun je content creëren.

Belangrijk verschil: inzet van een Large Language Model (LLM)

Veel toepassingen van generative AI zijn alleen mogelijk met de inzet van een Large Language Model (LLM). Als je ChatGPT onderwerpregels laat maken voor je mailing, als je samenvattingen van teksten maakt door URL’s in te voeren of je zet ChatGPT in voor vertaalwerk dan is dat alleen mogelijk doordat ChatGPT werkt met een Large Language Model (LLM).

Hoe werkt een Large Language Model?

De definitie voor de fijnproever: ChatGPT is een chatbotservice die wordt aangedreven door de GPT-backend van OpenAI. De Generative Pre-Trained Transformer (GPT) is gebaseerd op een Large Language Model (LLM), bestaande uit de volgende vier componenten: transformer architectuur, tokens, een context window en een neuraal netwerk.

Oké, niet direct de meest toegankelijke definitie. Eén ding is wel duidelijk: het kloppende hart van ChatGPT is een Large Language Model. Maar wat is dat eigenlijk? Wat is een LLM? Hieronder lees je een korte en een vereenvoudigde uitleg van de belangrijkste onderdelen van een LLM plus enkele links naar meer diepgang.

Een LLM is een optelsom van verschillende componenten

Een LLM is geen woordenboek waar losse woorden in zijn opgeslagen. Een LLM is een tekstgenerator. Of anders: een LLM produceert teksten door statistische relaties te maken uit een enorme berg data. En die data zijn ook weer teksten. Om dit allemaal te begrijpen, is het handig om een LLM voor te stellen als een stappenplan. Op die manier kunnen we ook al die verschillende componenten uitleggen:

Stap 1 Verzamelen van informatie
Stap 2 Aanbrengen van tokens en embeddings
Stap 3 Gewicht geven aan tekstuitingen
Stap 4 Maken van voorspellingen
Stap 5 Genereren van output

Stap 1: verzamelen van informatie

Hier komt de eerste L van LLM om de hoek kijken: Large. Het genereren van output lukt alleen als het model wordt en is getraind op een grote hoeveelheid bronmateriaal. Denk aan: webteksten, publieke fora, waarschijnlijk Wikipedia, ebooks en nieuwssites. Misschien goed om in de gaten te hebben: ChatGPT kopieert dit bronmateriaal niet en slaat het ook niet op. Het model gebruikt de data alleen voor trainingsdoeleinden. En de manier waarop een LLM toegang heeft tot deze trainingsdata, gaat via crawling.

Crawling en copyright

Een bekende organisatie die deze crawling-techniek aanbiedt, is Common Crawl. Het is een kleine non-profitorganisatie die zeker bij de eerste versies van ChatGPT het grootste deel van de trainingsdata leverde. Op de website staat te lezen: The Common Crawl corpus contains petabytes of data, regularly collected since 2008.

Uiteraard is Common Crawl niet de enige organisatie die dit soort datasets aanbiedt. Ook – als voorbeeld – Microsoft biedt ze aan. En het zal bekend zijn dat veel organisaties niet willen dat hun copyright wordt geschonden door AI. Om die reden startte de New York Times een rechtszaak tegen organisaties als Microsoft en OpenAI. Een discussie die nog steeds actueel is.

Hoe gaat Spotler om met privacy bij de inzet van generative AI?

Spotler wil graag dat zijn klanten gebruik kunnen maken van de laatste technologische ontwikkelingen. Om die reden werken wij bij de inzet van generative AI samen met OpenAI. Iedere marketeer die voor het eerst ziet hoe geweldig snel en eenvoudig je de tone-of-voice van een contentblok aanpast, die direct suggesties krijgt hoe je een social post voor bijvoorbeeld Facebook opstelt en die met één druk op de knop een tekst vertaalt, is enthousiast. Maar hoe zit ’t met privacy?

Generative AI in onze editors

In onze e-mail- en social-editors zorgen we ervoor dat alle data eerst volledig geanonimiseerd wordt voordat deze wordt verzonden aan OpenAI. OpenAI slaat de data ook niet op en zet deze ook niet in voor andere doeleinden dan de mogelijkheden die wij bieden via onze AI-module. Informatie blijft veilig en voldoet aan de AVG-regelgeving.

Generative AI in onze chatbot-technologie

Spotler heeft met OpenAI een glasheldere overeenkomst voor gegevensbewerking. Nogmaals: gegevens worden niet opgeslagen of ingezet voor modeltraining. Daarnaast kun je een extra beveiligingslaag toevoegen. Zodra de chatbot gevoelige informatie zoals ID-nummers of bankgegevens detecteert, dan krijgen gebruikers de opdracht om deze te herformuleren. Interacties blijven zo veilig.

Stap 2: aanbrengen van tokens en embeddings

Aanbrengen van tokens

Vanaf stap 2 zitten we in de LM van LLM: Language Model. Alle data wordt opgeknipt in stukjes. Nogmaals: met data bedoelen we tekst. De teksten die de LLM tot zijn beschikking heeft, worden opgeknipt in stukjes of zoals dat heet in AI: opgeknipt in tokens. Aan die tokens wordt een unieke getallenreeks toegevoegd. Als je het leuk vindt, dan kun je dat zelf uitproberen via een tokenizer.

Om een volstrekt willekeurig voorbeeld te geven:

Willekeurige vraag aan generative AI (LLM)

De tekst De koning van Nederland heet Willem-Alexander bestaat uit negen tokens of de volgende getallenreeks (token-id’s): [1923, 148872, 1164, 16760, 109217, 121853, 9406, 3179, 9330]. Als taalgebruikers zouden we zeggen dat de ingevoerde zin uit zes of zeven woorden bestaat. Tokens zijn dus meer dan alleen woorden. Het kunnen ook delen van woorden zijn of zelfs leestekens. Goed om te weten: niet elke tokenizer werkt op dezelfde manier. Er bestaat geen eenduidige taalkundige norm voor het opknippen van taal in tokens.

Een LLM kan niet lezen zoals wij dat doen, maar probeert de juiste getallenreeksen achter elkaar te zetten. En omdat dit enorme netwerk lijkt op de menselijke overdracht tussen axonen en dendrieten, heet het ook wel een neuraal netwerk. De vraag is vervolgens: hoe weet een LLM uit dat enorme netwerk de juiste keuzes te maken? Antwoord: via word embeddings.

Aanbrengen van embeddings

Een korte uitleg: de woorden koning en koningin komen vaak samen voor en hebben ook een duidelijke relatie. Net zoals de relatie tussen de woorden man en vrouw. Of de samenhang tussen woorden als: bescheiden, pietepeuterig, schamel, gering, nietig en summier. Ze hebben allemaal iets te doen met de betekenis klein. Woorden zijn ingebed in een bepaalde betekenis én in een bepaald gebruik. Zo is het prima voor te stellen dat het woord Trump vaak samengaat met president en met Kamala Harris.

Inzet vectortechniek

Bovenstaande samenhang wordt uitgedrukt met vectorweergaven in een multidimensionale ruimte. Als nu je wiskundeknobbel wordt getriggerd, leer dan alles over de Word2vec-techniek.

Stap 3: gewicht geven aan tekstuitingen

Onthoud: de samenhang tussen woorden ‘leert’ een LLM door de wijze waarop wij ze gebruiken en de grote hoeveelheid data waarop de LLM wordt getraind. Stel dat wij iets simpels vragen als Wat is de hoofdstad van Nederland? dan zal het model eerst deze reeks woorden moeten herkennen.

Minder logisch zou zijn: Wat hoofdstad de is Nederland van? Hieraan hecht het model een ander gewicht. Simpelweg omdat wij het zo niet intikken en omdat het niet volgt uit alle tekstvoorbeelden waarop het model al getraind is. In AI heten die gewichten parameters. Voor de liefhebbers: achtergrondartikel over parameters in ChatGPT.

Voor het idee: ChatGPT-3 maakte gebruik van 175 miljard parameters, maar ChatGPT-4 is al gevorderd tot biljoenen parameters. Dat is een getal met 12 nullen.

Daarnaast moet de gegeven input (de vraag) nog gekoppeld worden aan de gewenste output (het antwoord). In LLM wordt dat mogelijk gemaakt door een transformer. En omdat de LLM van ChatGPT al getraind is met een grote hoeveelheid data, heet de transformer ook wel Pre-Trained. Of anders: wij doen de post-training.

Stap 4: maken van voorspellingen

Met 170.000.000.000.000 parameters (oktober 2024) is het prima voor te stellen dat de LLM van ChatGPT een voorspellende waarde heeft. Iets wat wij als menselijke taalverwerkers ook prima kunnen. Stel dat iemand tegen je zegt Zich de kaas van het brood laten…, dan weten wij voor 100% zeker dat op deze woordenreeks het woord eten volgt.

De vraag uit stap 2 Hoe weet een LLM uit dat enorme neurale netwerk de juiste keuze te maken? heeft niet alleen als antwoord word embeddings. Het model traint zichzelf ook door vaste patronen in taal te herkennen. Visueel zou je dat als volgt kunnen laten zien:

Het Nederlands heeft veel van dit soort vaste patronen. Bijvoorbeeld Hij geeft zich… een compliment of Hij vindt dat … bijster ingewikkeld. In het Engels zie je telkens het voorbeeld The cat sat on a … en dan weten alle Engelstaligen dat het woord mat volgt.

Stap 5: genereren van output

De LLM van ChatGPT heeft niet in groep 5 topografieles gehad van meester Rob. Toch weet een LLM het antwoord Amsterdam te geven op de vraag Wat is de hoofdstad van Nederland? Een LLM is daartoe in staat omdat de token-id’s (de getallenreeksen) van de afzonderlijke woorden vergelijkbare embeddings hebben, de ingestelde parameters een coherente zin herkennen en de pre-training uiteindelijk gezamenlijk een antwoord genereren.

De LLM heeft overigens geen idee of de gegeneerde output klopt. De LLM kan wel ‘leren’ of iets preciezer: andere output opleveren. Een LLM heeft namelijk een digitaal geheugen. In AI heet dat een context window. De LLM kan eerdere interacties naar voren halen en met deze gegevens rekening houden bij het geven van antwoorden. Of meer AI-ig: bij het genereren van output houdt een LLM rekening met alle tokens binnen zijn context window.

Context window is 16K groot

De context window van ChatGPT-4 is 16K groot. Zo’n 8.000 woorden. Of anders: je kunt met gemak dit volledige artikel als context opvoeren. Voor iets meer duiding, lees het artikel op CheatSheet.

Welke voordelen biedt generative AI bedrijven?

De schrijver van deze guide is taalkundige. Ik heb al sinds mijn studiejaren interesse voor taalmodellen. De korte uitleg die je net hebt gelezen over een LLM kan ik zelf opzetten en uitwerken. Maar wil ik daaraan een deel toevoegen over de voordelen van generative AI, dan kan ik prima ChatGPT om hulp vragen. Wat ik dan ook heb gedaan. Komt ‘ie:

Generative AI biedt bedrijven veel voordelen, variërend van verbeterde efficiëntie tot nieuwe creatieve mogelijkheden. Om ze op te sommen:

Efficiëntie en tijdsbesparing

Generatieve AI-tools zoals ChatGPT of DALL·E kunnen in korte tijd teksten, afbeeldingen of video’s produceren, waardoor bedrijven sneller kunnen inspelen op markttrends. Daarnaast helpt generative AI met repetitieve taken zoals het genereren van klantservice-antwoorden op veelgestelde vragen.

Vergroot creativiteit

Generative AI kan ideeën aandragen voor slogans, social media-content of blogonderwerpen. Het is een geweldige hulp als je wilt brainstormen over onderwerpen. En je kunt met generative AI content maken voor verschillende formats. Van video’s tot infographics, AI maakt veelzijdige output mogelijk.

Verbeterde klantenservice

Generative AI wordt veel toegepast in chatbots en virtuele assistenten. Met generatieve AI kun je natuurlijke gesprekken voeren met klanten, problemen oplossen en informatie verstrekken en dat altijd 24/7. Verder is sprake van multichannel-ondersteuning. AI kan consistent klanten te woord staan op verschillende platformen.

Toegang tot nieuwe markten

AI kan content automatisch vertalen en aanpassen aan verschillende culturen, waardoor bedrijven internationale markten kunnen bereiken. Op deze wijze kunnen vooral kleinere bedrijven met AI competitief blijven door hoogwaardige content te produceren zonder grote budgetten.

Kostenbesparing

Het inzetten van AI voor taken zoals copywriting of design vermindert de noodzaak van grote teams of externe bureaus. Verder kun je er advertentiebudgetten mee optimaliseren. Met AI-gegenereerde A/B-testen en verbeterde targeting kun je namelijk het rendement op advertenties verhogen.

Conclusie

Natuurlijk is het tekstdeel over de voordelen van generative AI niet een directe kopie van de gegenereerde output van ChatGPT. Het is aangepast om aan te sluiten op de schrijfstijl en opbouw van deze guide. En zo is het met alle nieuwe technologieën. We verbeteren er onze werkzaamheden mee en we passen ze aan aan onze wensen en voorwaarden. Een organisatie als Spotler doet precies dat.

Generative AI biedt onze klanten een krachtige manier om efficiënter te werken, creatiever te zijn en beter in te spelen op de behoeften van hun eigen klanten. Door deze technologie slim in te zetten, kunnen onze klanten niet alleen kosten besparen, maar ook hun concurrentiepositie versterken en groei realiseren in nieuwe markten.

Go to top