Vad är generativ AI?

Det svenska ordet ”generera” betyder att frambringa. Generativ AI är en samlingsterm för alla AI-tillämpningar som kan skapa olika typer av innehåll. För marknadsförare handlar det vanligtvis om att skapa texter, musik, bilder, videor och kod.

Den mest kända generativa AI-tillämpningen är självklart ChatGPT. Men vad är generativ AI och ChatGPT, vilka fördelar har det för företag och hur använder de det? Dessutom, hur fungerar Large Language Models (LLM), hur påverkar detta integritet och vad är prompt engineering?

Vad kan du göra med generativ AI i marknadsföring?

För marknadsförare är generativ AI ett fantastiskt verktyg. Om du snabbt behöver en bra text till ett socialt inlägg eller ett innehållsblock i ett mejlutskick kan generativ AI hjälpa dig direkt. Även för att anpassa eller skapa bilder är generativ AI en utmärkt assistent.

Prompt engineering som nytt yrke inom marknadsföring

Generativ AI är inte bara användbart för att skapa texter och bilder utan kan också stödja många andra marknadsföringsuppgifter. Det kan till exempel användas för bättre personaliseringstekniker, kampanjutveckling, innehållsstrategier och kundanalyser.

Det är dock viktigt att komma ihåg att en AI-maskin inte utför dessa uppgifter automatiskt. Du måste ge den instruktioner, eller som det heter på engelska: “prompt engineering”. Detta blir sannolikt ett nytt yrkesområde inom marknadsföring – någon som hjälper organisationer att använda generativa AI-system på ett mer effektivt sätt.

ChatGPT som en form av generativ AI

Generativ AI är ett samlingsbegrepp för alla AI-tillämpningar som kan skapa innehåll i olika format. ChatGPT är en av dem och används framförallt för att generera texter. En annan känd textgenerator är Google Gemini. Detta dokument fokuserar främst på ChatGPT.

OpenAI – organisationen som lanserade ChatGPT – hade 10 anställda år 2015. Tio år senare är det ungefär 3 500. En rolig detalj för alla marknadsförare: OpenAIs marknadsföringsavdelning består av 87 personer. Det är en rätt stabil tillväxt på bara 10 år! Men vad annat kan man vänta sig: i slutet av 2024 hade ChatGPT 123 miljoner dagliga användare.

Logotyp för OpenAI, känt för sin programvara för generativ AI ChatGPT

Vad bör du veta innan du börjar använda generativ AI?

Några saker att tänka på när man kommer igång med generativ AI och ChatGPT:

Det som genereras är alltid beroende av kontext

Generativ AI tolkar information beroende på kontext. Till exempel:

Scenario 1: Erik med en trasig cykel går till cykelverkstaden och säger: ”Mitt däck har ett stort hål.” I detta fall tolkas uttalandet som en förfrågan om reparation.

Scenario 2:  Erik med samma cykel kommer för sent till skolan och säger samma sak till sin lärare. Det tolkas då som en ursäkt.

ChatGPT försöker själv avgöra vilken kontext som är relevant om du inte anger det tydligt. Detta kan vara utmanande om du själv inte är insatt i ämnet. Med andra ord: ju mer och tydligare information du ger, desto bättre blir resultatet.

I scenario 1 kan cykelreparatören tolka Eriks kommentar som en uppmaning till reparation. Erik befinner sig trots allt i en cykelaffär. I scenario 2 kommer fru Verweij troligen inte att tolka Eriks kommentar som en uppmaning till reparation, utan snarare som en ursäkt för den sena ankomsten. Med andra ord: samma språkbruk tolkas olika beroende på sammanhanget där språket används. I ChatGPT får du följande:

ChatGPT on what to do with a hole in your bike tyre.

ChatGPT ”väljer” själv en kontext om den inte anges specifikt. När det gäller detta enkla exempel kan du själv starta en chatt och hjälpa ChatGPT med rätt kontext. Men om du ber ChatGPT om hjälp med något du har mindre kunskap om, blir det mycket svårare att förstå utifrån vilket perspektiv det givna svaret ska tolkas.

Så igen: om du vill skapa bra prompts måste du själv ge en tydlig kontext. Och detta gäller inte bara för texter, utan även för all annan typ av output som du önskar.

Ingen mänsklig intelligens

ChatGPT tolkar inte som människor gör. Om du till exempel frågar ”Vem var Valentina Teresjkova?” kan AI:n svara med information om hennes karriär inom textilindustrin om du inte specificerar att du menar hennes roll som den första kvinnan i rymden. Var så tydlig som möjligt när du skapar prompts. Så om du i stället delar upp det:

Garbage In Garbage Out (GIGO)

Kvaliteten på AI:s svar beror på hur bra din input eller prompt är. Dålig input ger dåliga resultat.

Hur skapar jag bra prompts?

En bra prompt innehåller tydlig kontext och specifika frågor. Du kan använda metoden PULI:

  • Personas – Specificera roller eller perspektiv.
  • Uteslutningar – Ange vad du inte vill ha med.
  • Längd – Ange hur långt svaret ska vara.
  • Inspiration – Ge exempel eller URL:er för att ange ton och stil.

Arbeta med personas och undantag

I exemplet med Erik och hans trasiga cykel skulle det hjälpa ChatGPT mycket om du anger att du förväntar dig ett svar från cykelreparatören eller läraren. Ange alltid en sådan roll. Och något som också fungerar mycket bra: specificera vad du inte vill ha. Om du i din prompt anger att du inte önskar ett reparationsschema, så kommer du inte heller att få ett.

Ge inspiration och bestäm svarets längd i förväg

Som marknadsförare arbetar du ofta med en specifik tone-of-voice. Exempel på detta finns förmodligen på din webbplats. Denna information (till exempel en URL) kan du alltid inkludera i din prompt som inspiration. Hjälp dessutom ChatGPT genom att ange hur många ord du önskar i svaret.

Vilka välkända generativa AI verktyg finns på marknaden?

Många organisationer som har integrerat generativ AI i sina affärsprocesser hjälper sina kunder med prompting. Spotler gör det också. I redigeringsverktygen i vår programvara, som innehåller en generativ AI-modul, hjälper vi användarna genom att erbjuda viktiga delar av prompting som standard.

Saker som tone-of-voice, översättningar, inmatning av URL:er och det maximala antalet ord behöver du inte längre lägga till själv i en prompt. Dessa kan enkelt ställas in via smidiga menyer, och AI-modulen tar hand om resten.

Spotlers tillvägagångssätt: Spotler gör det enklare genom att integrera AI-funktioner som tone-of-voice, översättningar och ordbegränsningar som standard. Detta gör att användarna kan ställa in prompts på ett fokuserat och effektivt sätt utan att behöva ange allt manuellt.

Spotler och generativ AI

Vår AI-chatbot-byggare fungerar med URL-inmatning, vilket gör att vi kan automatisera upp till 40 % av alla kundfrågor. Men du kan också skapa egna dialoger. Dessutom hanterar vår chatbot kunddata väl, vilket är praktiskt för supportfrågor.

I redigeringsverktygen Spotler Mail+ och Spotler Engage har vi standardiserat viktiga promptkomponenter. Du behöver inte ens skapa dessa prompts själv. Alla komponenter kan enkelt ställas in via praktiska menyer. Det är till och med möjligt att låta vår AI-modul skriva ett helt inlägg för sociala medier åt dig.

Kända exempel från andra organisationer

Spotler är inte den enda leverantören av AI-verktyg. Varje marknadsförare borde också ta en titt på följande tjugo webbplatser:

  • Generativ AI och text: Writesonic, Rytr, Mem, ContentBot.ai, QuillBot
  • Generativ AI och video: Fliki, HourOne, Colossyan, Runway, Tavus
  • Generativ AI och bilder: Dall·E, Vizcom, Diagram, OpenArt, Midjourney
  • Generativ AI och kod: GitHub, AI2SQL, Cogram, Debuild, Seek

Skillnader mot annan AI-teknologi

Artificiell intelligens (AI) stöter du på i nästan alla yrken och branscher. Onkologer använder till exempel AI för att identifiera mönster i cancerceller, transportsektorn experimenterar med självkörande bilar, och myndigheter använder AI för att hantera folksamlingar och trafik. Även när du låser upp din smartphone med ansiktsigenkänning använder du AI. Eller tänk på Google Translate. Det är ingen överdrift att säga att artificiell intelligens återfinns överallt – både i arbetslivet och privat.

Om vi fokuserar på AI inom vår bransch (programvara och SaaS), gör vi ofta en åtskillnad mellan:

  • Generativ AI
  • Prediktiv AI
  • Konversations-AI
  • Assistiv AI

Vi har skrivit en separat guide om prediktiv AI , eftersom vi också använder denna AI-teknologi i vår programvara.

Viktig skillnad: innehållsskapande

När det gäller generativ AI finns det två viktiga skillnader jämfört med andra typer av AI. Generativ AI gör mer än att bara analysera data; resultatet av en prompt är alltid unikt innehåll. Med generativ AI kan du skapa innehåll.

Viktig skillnad: användning av ett Large Language Model (LLM)

Många tillämpningar av generativ AI är endast möjliga tack vare användningen av ett Large Language Model (LLM). Om du låter ChatGPT skapa ämnesrader för dina e-postutskick, sammanfatta texter genom att ange URL:er, eller använda ChatGPT för översättningsarbete, är detta möjligt eftersom ChatGPT arbetar med ett Large Language Model (LLM).

Hur fungerar en Large Language Model (LLM)?

Definitionen för finsmakaren: ChatGPT är en chattbotservice som drivs av GPT-backenden från OpenAI. Generative Pre-Trained Transformer (GPT) är baserad på ett Large Language Model (LLM), som består av följande fyra komponenter: transformerarkitektur, tokens, ett kontextfönster och ett neuralt nätverk.
Okej, inte direkt den mest lättillgängliga definitionen. En sak är dock tydlig: det pulserande hjärtat av ChatGPT är ett Large Language Model. Men vad innebär det egentligen?

Vad är en LLM? Här är en kort och förenklad förklaring av de viktigaste delarna av ett LLM samt några länkar för mer djupgående information.

Ett LLM är en sammanställning av olika komponenter

Ett LLM är inte ett ordlexikon där enskilda ord lagras. Ett LLM är en textgenerator. Eller med andra ord: ett LLM producerar texter genom att skapa statistiska relationer från en enorm mängd data. Och denna data är också texter. För att förstå detta kan det vara bra att tänka på ett LLM som en handlingsplan. På det sättet kan vi förklara alla de olika komponenterna:

Steg 1 Informationsinsamling  – Modellen tränas på stora dataset
Steg 2 Tokenisering  – Text delas upp i små delar som kallas tokens.
Steg 3 Embeddings – Tokens får betydelse och relationer med varandra
Steg 4 Viktsättning – Modellen lär sig vilka kombinationer av ord som är mest sannolika
Steg 5 Outputgenerering – Modellen förutsäger och genererar text baserat på tidigare steg

Steg 1: Samla information

Här kommer den första L:en i LLM in i bilden: Large. Att generera output fungerar endast om modellen har tränats på en stor mängd källmaterial. Tänk på: webbtexter, offentliga forum, troligtvis Wikipedia, e-böcker och nyhetssajter. Kanske bra att veta: ChatGPT kopierar inte detta källmaterial och lagrar det inte heller. Modellen använder datan endast för träningssyften. Och sättet som ett LLM får tillgång till dessa träningsdata är via crawling.

Crawling och upphovsrätt

En välkänd organisation som erbjuder denna crawling-teknik är Common Crawl. Det är en liten ideell organisation som förmodligen levererade större delen av träningsdata till de tidigaste versionerna av ChatGPT. På deras webbplats står det: ”The Common Crawl corpus contains petabytes of data, regularly collected since 2008.”

Självklart är Common Crawl inte den enda organisationen som erbjuder denna typ av dataset. Även – som exempel – Microsoft erbjuder sådana dataset. Det är också välkänt att många organisationer inte vill att deras upphovsrätt kränks av AI. Av denna anledning inledde New York Times en rättsprocess mot organisationer som Microsoft och OpenAI. En debatt som fortfarande är aktuell.

Hur hanterar Spotler integritetsfrågor när generativ AI används?

Spotler vill att deras kunder ska kunna dra nytta av den senaste tekniska utvecklingen. Av den anledningen samarbetar vi med OpenAI när vi använder generativ AI. Varje marknadsförare som för första gången ser hur otroligt snabbt och enkelt det är att justera tonfallet i ett innehållsblock, som får omedelbara förslag på hur man ställer in ett socialt inlägg för till exempel Facebook och som översätter en text med en knapptryckning, är entusiastisk. Men hur är det med integriteten?

Generativ AI i våra redigeringsverktyg

I våra e-post- och sociala redaktörer ser vi till att alla uppgifter först anonymiseras helt innan de skickas till OpenAI. OpenAI lagrar eller distribuerar inte heller uppgifterna för andra ändamål än de funktioner som vi tillhandahåller genom vår AI-modul. Informationen förblir säker och överensstämmer med sekretessbestämmelserna.

Generativ AI i vår chatbot-teknologi

Spotler har ett kristallklart avtal med OpenAI för databehandling. Återigen, data lagras inte eller används för modellträning. Dessutom kan du lägga till ett extra lager av säkerhet. Så snart chatboten upptäcker känslig information som ID-nummer eller bankuppgifter, instrueras användarna att omformulera den. Interaktionerna förblir därmed säkra.

Steg 2: tillämpning av tokens och embeddings

Tillämpning av tokens

Från och med steg 2 befinner vi oss i LM-delen av LLM: Language Model. All data delas upp i små delar. Återigen, med data menar vi text. Texterna som LLM har tillgång till delas upp i små bitar, eller som det kallas inom AI: delas upp i tokens. Dessa tokens tilldelas en unik sekvens av siffror. Om du tycker det är intressant kan du prova detta själv via en tokenizer. För att ge ett helt slumpmässigt exempel:

Random question to generative AI (LLM)

Texten Kungen av Nederländerna heter Willem-Alexander består av nio tokens eller följande sekvens av siffror (token-id:n): [1923, 148872, 1164, 16760, 109217, 121853, 9406, 3179, 9330]. Som språkbrukare skulle vi säga att den inmatade meningen består av sex eller sju ord. Tokens är alltså mer än bara ord. De kan också vara delar av ord eller till och med skiljetecken. Bra att veta: inte alla tokenizers fungerar på samma sätt. Det finns ingen entydig språklig standard för att dela upp språk i tokens.

Ett LLM kan inte läsa som vi gör, utan försöker sätta rätt sekvenser av siffror i rätt ordning. Och eftersom detta enorma nätverk liknar den mänskliga överföringen mellan axoner och dendriter kallas det för ett neuralt nätverk. Frågan är då: hur vet ett LLM att göra rätt val från detta enorma nätverk? Svaret: genom word embeddings.

Tillämpning av embeddings

En kort förklaring: orden kung och drottning förekommer ofta tillsammans och har en tydlig relation. På samma sätt som relationen mellan orden man och kvinna. Eller sambandet mellan ord som: blygsam, obetydlig, enkel, liten, ringa och knapp. De har alla något att göra med betydelsen liten. Ord är inbäddade i en viss betydelse och i ett visst användningssammanhang. Det är till exempel lätt att föreställa sig att ordet Trump ofta förekommer tillsammans med president och Kamala Harris.

Användning av vektorteknik

Ovanstående samband uttrycks med hjälp av vektorrepresentationer i ett flerdimensionellt rum. Om din matematiska nyfikenhet väcks kan du läsa mer om tekniken Word2vec.

Steg 3: ge vikt åt textuttryck

Kom ihåg: sambandet mellan ord lär ett LLM genom hur vi använder dem och den stora mängd data som modellen tränas på. Om vi till exempel frågar något enkelt som Vad är Nederländernas huvudstad? måste modellen först känna igen denna sekvens av ord.

Mindre logiskt skulle vara: Vad huvudstad de är Nederländerna av? Modellen skulle tilldela denna sekvens en annan vikt, helt enkelt för att vi inte skriver så och för att det inte följer av alla textexempel som modellen redan har tränats på. Inom AI kallas dessa vikter för parametrar.

För entusiasterna : bakgrundsartikel om parametrar i ChatGPT.

För att sätta det i perspektiv: ChatGPT-3 använde sig av 175 miljarder parametrar, medan ChatGPT-4 redan har avancerat till biljontals parametrar – ett tal med 12 nollor.

Dessutom måste den givna inmatningen (frågan) kopplas till önskad utmatning (svaret). I LLM möjliggörs detta av en transformer. Och eftersom ChatGPT:s LLM redan är tränad på en stor mängd data kallas transformern även Pre-Trained. Eller annorlunda uttryckt: vi gör efterträningen.

Steg 4: göra förutsägelser

Med 170 000 000 000 000 parametrar (oktober 2024) är det lätt att föreställa sig att LLM i ChatGPT har ett förutsägande värde. Något som vi som mänskliga språkbehandlare också kan göra bra. Anta att någon säger till dig Zich de kaas van het brood laten…, då vet vi till 100 % att ordet eten följer denna ordsekvens.

Frågan från steg 2: Hur vet ett LLM att göra rätt val från det enorma neurala nätverket? har inte bara svaret word embeddings. Modellen tränar sig också själv genom att känna igen fasta mönster i språket. Visuellt skulle du kunna visa det på följande sätt:

Steg 5: generera output

LLM i ChatGPT har inte haft geografiundervisning i klass 5 av lärare Rob. Ändå vet ett LLM svaret Amsterdam på frågan Vad är Nederländernas huvudstad? Ett LLM kan göra detta eftersom token-id:n (de numeriska sekvenserna) för de enskilda orden har liknande embeddings, de inställda parametrarna känner igen en sammanhängande mening och pre-träningen genererar tillsammans ett svar.

LLM har dock ingen aning om huruvida den genererade outputen är korrekt. LLM kan dock lära sig eller mer precist: generera annan output. Ett LLM har nämligen ett digitalt minne. Inom AI kallas detta ett context window. LLM kan hämta tidigare interaktioner och ta hänsyn till dessa data när det ger svar. Eller mer AI-liknande: vid generering av output tar ett LLM hänsyn till alla tokens inom sitt context window.

Context window är 16K stort

ChatGPT-4:s context window är 16K stort. Ungefär 8 000 ord. Eller med andra ord: du kan utan problem använda hela den här artikeln som kontext.

Vilka fördelar erbjuder generativ AI för företag?

Författaren till denna guide är språkvetare. Jag har varit intresserad av språkmodeller sedan mina studieår. Den korta förklaringen om ett LLM som du just har läst kan jag själv skapa och utveckla. Men om jag vill lägga till en del om fördelarna med generativ AI, kan jag utan problem be ChatGPT om hjälp. Och det har jag gjort. Här kommer det:

Generativ AI erbjuder företag många fördelar, allt från förbättrad effektivitet till nya kreativa möjligheter. För att sammanfatta dem:

Effektivitet och tidsbesparing

Generativa AI-verktyg som ChatGPT eller DALL·E kan producera texter, bilder eller videor på kort tid, vilket gör det möjligt för företag att snabbt reagera på marknadstrender. Dessutom hjälper generativ AI till med repetitiva uppgifter, såsom att skapa kundservice-svar på vanliga frågor.

Ökar kreativiteten

Generativ AI kan bidra med idéer för slogans, innehåll till sociala medier eller bloggtopics. Det är ett utmärkt verktyg för brainstorming av ämnen. Dessutom kan du med hjälp av generativ AI skapa innehåll för olika format. Från videor till infografik – AI möjliggör mångsidiga lösningar.

Förbättrad kundservice

Generativ AI används ofta i chatbots och virtuella assistenter. Med generativ AI kan du föra naturliga samtal med kunder, lösa problem och ge information – och det dygnet runt. Dessutom erbjuder AI stöd för flera kanaler, vilket innebär att kunder kan få konsekvent service på olika plattformar.

Tillgång till nya marknader

AI kan automatiskt översätta och anpassa innehåll till olika kulturer, vilket gör det möjligt för företag att nå internationella marknader. På detta sätt kan särskilt mindre företag förbli konkurrenskraftiga genom att producera innehåll av hög kvalitet utan att behöva stora budgetar.

Besparingar

Användningen av AI för uppgifter som copywriting eller design minskar behovet av stora team eller externa byråer. Dessutom kan du optimera annonsbudgetar med hjälp av AI. Med AI-genererade A/B-tester och förbättrad målgruppsinriktning kan du öka avkastningen på annonser.

Slutsats

Naturligtvis är textavsnittet om fördelarna med generativ AI inte en direkt kopia av den genererade outputen från ChatGPT. Det har anpassats för att passa skrivstilen och strukturen i den här guiden. Och så är det med all ny teknik. Vi förbättrar våra arbetsprocesser med den och anpassar den efter våra önskemål och krav. En organisation som Spotler gör precis detta.

Generativ AI erbjuder våra kunder ett kraftfullt sätt att arbeta mer effektivt, vara mer kreativa och bättre tillgodose behoven hos sina egna kunder. Genom att använda denna teknik smart kan våra kunder inte bara spara pengar utan också stärka sin konkurrenskraft och uppnå tillväxt på nya marknader.

Go to top