RAG, MCP, skills, context injection, tools, agenter — ord som flyter rundt overalt. Her får du den korteste veien til å faktisk forstå hva de betyr, hvordan de henger sammen, og når du bruker hva.
Alle begrepene nedenfor er biter av dette bildet. Les det én gang, glem det, og la detaljkortene under feste det.
En LLM er en matematisk modell trent på enorme mengder tekst. Den er god på å forstå og generere språk, resonnere, oppsummere og kode — men den har ingen hukommelse mellom samtaler og ingen tilgang til verden utenfor det den er trent på, med mindre du gir den det.
GPT-4, Claude, Gemini, Llama — alle er LLM-er. De skiller seg i størrelse, treningsdata og spesialiseringer, men er grunnleggende sett det samme: en modell som tar tekst inn og genererer tekst ut.
Prompten er alt du sender til modellen: spørsmål, instruksjon, eksempler, kontekst. En god prompt definerer hvem modellen er (systemmelding), hva oppgaven er, og i hvilken form du vil ha svaret.
Systemprompt er den skjulte instruksen som settes av utvikleren — den styrer personlighet, begrensninger og fokus. Brukerprompt er det du skriver selv i samtalen.
Context window er den totale mengden tekst modellen kan holde i «arbeidsminnet» på én gang — din samtalehistorikk, systemprompten, dokumenter du laster opp, og svar fra tools. Måles i tokens (ca. ¾ ord per token).
Moderne modeller har store context windows (100k–1M+ tokens), men mer data betyr ikke alltid bedre svar. Modellen er ofte bedre med presis, relevant info enn med massevis av støy.
Context injection er å hente kjent, strukturert data fra systemer (database, API, ERP) og sette det direkte inn i prompten. Du trenger ikke søke — du vet nøyaktig hva som er relevant og henter det.
Et godt eksempel: du har tusenvis av sider med teknisk dokumentasjon — alt for mye til å dytte inn i konteksten på én gang. Men brukeren oppgir et serienummer. Da gjør du et presist oppslag på det serienummeret, henter de relevante feltene, og injiserer bare det. Stor datamengde, men en nøkkel som gir deg nøyaktig riktig bit.
Typisk for: sensordata, kundeinfo, ordrehistorikk, produktdata, live-verdier. Det er enklere enn RAG teknisk sett — men krever at du har kontroll på dataarkitekturen.
RAG kombinerer semantisk søk med en LLM. Dokumenter brytes ned i mindre biter og lagres i en vektordatabase — en spesialisert database som lagrer tekst som matematiske tall (vektorer) slik at den kan finne innhold basert på mening, ikke bare nøkkelord. Når du spør om noe, finner systemet de mest relevante bitene og gir dem til modellen som kontekst.
Nøkkelordet er semantisk søk — i motsetning til vanlig tekstsøk som leter etter nøyaktige ord, forstår vektorsøk meningen. «Hva er driftskostnaden?» finner tekst om «løpende utgifter» selv om ordene ikke matcher.
Tools er funksjoner du definerer som modellen kan kalle når den trenger det. Du beskriver hva verktøyet gjør (i tekst), og modellen avgjør når og om det skal brukes. Resultatet kommer tilbake til modellen, som fortsetter resonnementet.
Eksempler: søk på nett, hent data fra en database, skriv til en fil, send en e-post, kjør kode. Tools er det som gjør en LLM til noe som faktisk kan handle — ikke bare snakke.
MCP er en åpen protokoll introdusert av Anthropic i 2024, og nå en åpen standard som hele bransjen samler seg rundt. Den definerer hvordan AI-modeller kommuniserer med eksterne systemer — en MCP-server eksponerer tools og data i et standardformat som enhver MCP-kompatibel modell kan bruke.
Praktisk effekt: i stedet for å skrive custom integrasjon for hvert system, bygger du (eller bruker ferdiglagde) MCP-servere. Claude, Cursor, Windsurf og andre bruker nå MCP som standardmåte å koble til Slack, GitHub, databaser og mer.
En agent er en LLM i en løkke: den får et mål, planlegger stegene, bruker tools for å utføre dem, ser på resultatet, justerer planen og fortsetter — til målet er nådd. Den handler selvstendig, uten at du godkjenner hvert steg.
Det som skiller en agent fra en vanlig chatbot er autonomi og handlingsevne. En chatbot svarer. En agent gjør.
En skill er en gjenbrukbar kompetanseblokk: en bestemt måte å løse en oppgave på, med tilhørende instrukser, eksempler og kanskje spesifikke tools. Du definerer skill-en én gang, og kan gi den til ulike agenter.
Typisk skill: «Analyser Strava-data slik», «Svar alltid på norsk i denne tonen», «Slå alltid opp priser i dette systemet før du svarer». Skills gjør agenter konsistente og pålitelige — ikke avhengige av at brukeren husker å si det riktige.
Et Project i Claude.ai er en kontainerisert kontekst: du laster opp dokumenter, skriver instruksjoner (systemprompt), og alle samtaler i prosjektet bygger på dette felles grunnlaget.
Praktisk for: kodeprosjekter der modellen alltid kjenner kodebasen, kundekommunikasjon der tonen er fast, analyseoppgaver der bakgrunnsdata alltid er tilgjengelig. En enkel måte å slippe å forklare konteksten fra scratch hver gang.
Her er hvordan alle begrepene spiller sammen — og hvilken rolle agenten og LLM-en spiller i hvert steg.