Hurtigguide · Praktisk AI · 5 min lesing

AI-ordboken
med analogier

RAG, MCP, skills, context injection, tools, agenter — ord som flyter rundt overalt. Her får du den korteste veien til å faktisk forstå hva de betyr, hvordan de henger sammen, og når du bruker hva.

Hopp til begrep
✦ Se et eksempel som bruker alle begrepene
Overblikk

Slik henger alt sammen

Alle begrepene nedenfor er biter av dette bildet. Les det én gang, glem det, og la detaljkortene under feste det.

🧠
LLM
Hjernen som resonnerer
←→
📋
Context window
Alt modellen kan «se» akkurat nå
↑   konteksten fylles av disse   ↑
✍️
Prompt
Din instruksjon
+
💉
Context injection
Kjent data hentes direkte
+
🔍
RAG
Ukjent data søkes opp
+
🎯
Skills / Project
Fast kunnskap og instruksjoner
↓   for å handle bruker agenten   ↓
🔧
Tools
Enkelthandlinger
via
🔌
MCP
Standardprotokoll for tools
styrt av
🤖
Agent
Planlegger og handler
Kort versjon: Du skriver en prompt. En LLM leser den i sitt context window, beriket med data fra context injection eller RAG. Hvis den har tools tilgjengelig (gjerne via MCP) og kan planlegge og handle selvstendig, kaller vi den en agent.
🧠
Grunnbegrep
LLM — Large Language Model
Selve «hjernen» som alt annet bygger rundt
Grunnmur
📚
Analogien
En ekstremt belest konsulent som har lest alt — hele internett, alle bøker, all kode. Men de husker ingenting fra forrige møte med mindre du minner dem på det.

En LLM er en matematisk modell trent på enorme mengder tekst. Den er god på å forstå og generere språk, resonnere, oppsummere og kode — men den har ingen hukommelse mellom samtaler og ingen tilgang til verden utenfor det den er trent på, med mindre du gir den det.

GPT-4, Claude, Gemini, Llama — alle er LLM-er. De skiller seg i størrelse, treningsdata og spesialiseringer, men er grunnleggende sett det samme: en modell som tar tekst inn og genererer tekst ut.

✍️
Grunnbegrep
Prompt
Instruksjonen du gir modellen
Daglig bruk
📝
Analogien
En arbeidsoppgave til en ny kollega. Jo tydeligere briefing, jo bedre resultat. «Skriv noe» er ikke en brief. «Skriv en kort e-post til kunden på 3 punkter med vennlig tone» — det er en brief.

Prompten er alt du sender til modellen: spørsmål, instruksjon, eksempler, kontekst. En god prompt definerer hvem modellen er (systemmelding), hva oppgaven er, og i hvilken form du vil ha svaret.

Systemprompt er den skjulte instruksen som settes av utvikleren — den styrer personlighet, begrensninger og fokus. Brukerprompt er det du skriver selv i samtalen.

Gjør dette
Vær spesifikk på format og lengde
Gi eksempler når du kan
Fortell modellen hvem den er
Unngå dette
Vage åpne spørsmål uten kontekst
Anta at modellen «vet» hva du mener
En lang uklar vegg av tekst
📋
Grunnbegrep
Context window
Alt modellen kan «se» akkurat nå
Viktig å forstå
🖥️
Analogien
En whiteboard i møterommet. Alt som er skrevet på tavlen er tilgjengelig. Det som ikke er der, finnes ikke for modellen. Når tavlen er full, må noe vekk for å få plass til mer.

Context window er den totale mengden tekst modellen kan holde i «arbeidsminnet» på én gang — din samtalehistorikk, systemprompten, dokumenter du laster opp, og svar fra tools. Måles i tokens (ca. ¾ ord per token).

Moderne modeller har store context windows (100k–1M+ tokens), men mer data betyr ikke alltid bedre svar. Modellen er ofte bedre med presis, relevant info enn med massevis av støy.

💉
Dataflyt
Context injection
Du vet nøyaktig hva modellen trenger — og putter det rett inn
Enkel teknikk
📊
Analogien
Du møter legen og sier: «Her er alle mine blodprøvesvar fra de siste 5 årene» — og leverer dem direkte. Du vet nøyaktig hva som er relevant. Ingen søk nødvendig, bare hent og lever.

Context injection er å hente kjent, strukturert data fra systemer (database, API, ERP) og sette det direkte inn i prompten. Du trenger ikke søke — du vet nøyaktig hva som er relevant og henter det.

Et godt eksempel: du har tusenvis av sider med teknisk dokumentasjon — alt for mye til å dytte inn i konteksten på én gang. Men brukeren oppgir et serienummer. Da gjør du et presist oppslag på det serienummeret, henter de relevante feltene, og injiserer bare det. Stor datamengde, men en nøkkel som gir deg nøyaktig riktig bit.

Typisk for: sensordata, kundeinfo, ordrehistorikk, produktdata, live-verdier. Det er enklere enn RAG teknisk sett — men krever at du har kontroll på dataarkitekturen.

🔗
Kan kombineres: Context injection og RAG utelukker ikke hverandre — de er komplementære. Et vanlig mønster er å bruke context injection for det strukturerte (serienummer → produktdata) og RAG for det ustrukturerte (semantisk søk i tilhørende manualer og feilrapporter). MCP gjør dette skalerbart: i stedet for å hardkode hvert oppslag bygger du en MCP-server som eksponerer lookupene som tools agenten kan kalle selv.
Bruk dette når
Data er strukturert og kjent på forhånd
En nøkkel (ID, serienr.) gir deg riktig bit
Du trenger live-verdier fra systemer
Kombiner med RAG når
Dokumentmassen er for stor for kontekst
Noe er strukturert, noe er fritekst
Brukeren stiller åpne spørsmål i tillegg
🔍
Dataflyt
RAG — Retrieval Augmented Generation
Søk opp det relevante, gi det til modellen, la den svare
Populær teknikk
🏛️
Analogien
En forsker med tilgang til et gigantisk bibliotek. Når du stiller et spørsmål, finner de de mest relevante bøkene og leser dem raskt — og svarer deg basert på det de akkurat leste, ikke det de husker fra studiene.

RAG kombinerer semantisk søk med en LLM. Dokumenter brytes ned i mindre biter og lagres i en vektordatabase — en spesialisert database som lagrer tekst som matematiske tall (vektorer) slik at den kan finne innhold basert på mening, ikke bare nøkkelord. Når du spør om noe, finner systemet de mest relevante bitene og gir dem til modellen som kontekst.

Nøkkelordet er semantisk søk — i motsetning til vanlig tekstsøk som leter etter nøyaktige ord, forstår vektorsøk meningen. «Hva er driftskostnaden?» finner tekst om «løpende utgifter» selv om ordene ikke matcher.

Bruk dette når
Stor dokumentmasse (tusenvis av sider)
Brukeren stiller åpne spørsmål
Du vil bygge en intern kunnskapsbase
Ikke riktig når
Data er strukturert og søkbart direkte
Du trenger 100% presisjon (RAG kan hallusinere)
Data oppdateres i sanntid
🔧
Handling
Tools (verktøy)
Funksjonene modellen kan kalle for å gjøre ting i verden
Nødvendig for agenter
🧰
Analogien
En konsulent med tilgang til verktøykassen: en kan slå opp i CRM, en kan sende e-post, en kan lese kalender. Modellen bestemmer selv hvilket verktøy som passer — og kaller det.

Tools er funksjoner du definerer som modellen kan kalle når den trenger det. Du beskriver hva verktøyet gjør (i tekst), og modellen avgjør når og om det skal brukes. Resultatet kommer tilbake til modellen, som fortsetter resonnementet.

Eksempler: søk på nett, hent data fra en database, skriv til en fil, send en e-post, kjør kode. Tools er det som gjør en LLM til noe som faktisk kan handle — ikke bare snakke.

🔌
Protokoll
MCP — Model Context Protocol
Standardplugg som kobler AI til alle systemer
Ny standard
🔌
Analogien
USB-C for AI. Før USB-C hadde alle enheter sine egne ladere. MCP er den universelle standarden som gjør at én AI kan kobles til alle systemer — i stedet for å bygge en-til-en-integrasjoner hele veien.

MCP er en åpen protokoll introdusert av Anthropic i 2024, og nå en åpen standard som hele bransjen samler seg rundt. Den definerer hvordan AI-modeller kommuniserer med eksterne systemer — en MCP-server eksponerer tools og data i et standardformat som enhver MCP-kompatibel modell kan bruke.

Praktisk effekt: i stedet for å skrive custom integrasjon for hvert system, bygger du (eller bruker ferdiglagde) MCP-servere. Claude, Cursor, Windsurf og andre bruker nå MCP som standardmåte å koble til Slack, GitHub, databaser og mer.

Bruk MCP når
Du vil gjenbruke integrasjoner på tvers av verktøy
Du bygger for produksjon og trenger stabilitet
Teamet ditt skal dele integrasjoner
Enklere alternativ når
Du bare trenger én enkelt funksjon raskt
Det er et lite eksperiment eller prototype
Henger med Tools Agent
🤖
Arkitektur
AI-agent
En LLM som planlegger, handler og itererer på egenhånd
Avansert
👷
Analogien
En prosjektleder du kan si «sett opp møtet» til — og som da faktisk gjør det: sjekker kalenderne, foreslår tidspunkter, sender invitasjonene, og forteller deg når det er gjort. Ikke bare forklarer deg hvordan.

En agent er en LLM i en løkke: den får et mål, planlegger stegene, bruker tools for å utføre dem, ser på resultatet, justerer planen og fortsetter — til målet er nådd. Den handler selvstendig, uten at du godkjenner hvert steg.

Det som skiller en agent fra en vanlig chatbot er autonomi og handlingsevne. En chatbot svarer. En agent gjør.

⚠️
Merk: Mer autonomi betyr mer risiko. En agent som kan sende e-post og slette filer, kan gjøre store feil. Start alltid med menneskelig godkjenning på kritiske steg — det kalles gjerne «human in the loop», altså at et menneske må si ok før agenten går videre med handlinger som ikke kan angres.
Henger med Tools MCP Skills RAG
🎯
Agentdesign
Skills
Innebygd ekspertise du gir agenten én gang — og bruker alltid
Agentbygging
🎓
Analogien
Fagbrev. En elektriker med fagbrev trenger ikke instrueres om hvordan de skifter en sikring — de vet det allerede. Skills er det du lærer agenten én gang, slik at du slipper å forklare det igjen og igjen.

En skill er en gjenbrukbar kompetanseblokk: en bestemt måte å løse en oppgave på, med tilhørende instrukser, eksempler og kanskje spesifikke tools. Du definerer skill-en én gang, og kan gi den til ulike agenter.

Typisk skill: «Analyser Strava-data slik», «Svar alltid på norsk i denne tonen», «Slå alltid opp priser i dette systemet før du svarer». Skills gjør agenter konsistente og pålitelige — ikke avhengige av at brukeren husker å si det riktige.

Henger med Agent Project Prompt
📁
Brukerfunksjon
Project (f.eks. i Claude.ai)
En vedvarende kontekst og hukommelse på tvers av samtaler
Praktisk tip
🗂️
Analogien
En fast mappe på pulten til din personlige assistent. Alt du har delt om dette prosjektet — dokumenter, preferanser, notater — er der neste gang du åpner den. Du slipper å gjenfortelle historien fra bunnen.

Et Project i Claude.ai er en kontainerisert kontekst: du laster opp dokumenter, skriver instruksjoner (systemprompt), og alle samtaler i prosjektet bygger på dette felles grunnlaget.

Praktisk for: kodeprosjekter der modellen alltid kjenner kodebasen, kundekommunikasjon der tonen er fast, analyseoppgaver der bakgrunnsdata alltid er tilgjengelig. En enkel måte å slippe å forklare konteksten fra scratch hver gang.

Sett opp et project når
Du jobber med samme tema over tid
Du har faste dokumenter eller instrukser
Flere i teamet bruker samme assistent
Ikke nødvendig når
Det er en enkeltoppgave uten oppfølging
Du eksperimenterer fritt uten fast struktur
Praktisk eksempel

Alt på én gang — en IT-helpdesk-agent

Her er hvordan alle begrepene spiller sammen — og hvilken rolle agenten og LLM-en spiller i hvert steg.

Trigger — ny ticket inn i systemet
Ticket #4471 · Fra: maria.hansen@bedrift.no
"Skjermen min blafrer. Veldig irriterende, klarer ikke jobbe ordentlig."
💉
Context injection — skjer automatisk, før LLM-en leser noe som helst
Systemet ser avsenderens e-post og slår opp i IT-registeret — ingen LLM involvert ennå. Henter strukturert data direkte: Maria Hansen, Økonomi, Dell XPS 15 (SN-48291), kjøpt mars 2023, under garanti. Én tidligere ticket for 8 måneder siden — batteriproblem, løst. Alt dette legges klart til konteksten.
🧠
LLM + Agent — leser ticket og kontekst, planlegger neste steg
LLM-en får nå inn alt på én gang: ticketmeldingen, maskininfo og historikk. Agenten — som er LLM-en i en løkke med verktøy — vurderer: "Jeg vet hvilken maskin det er, men ikke hvilken skjerm det gjelder. Det er avgjørende for løsningen. Jeg bør søke i kunnskapsbasen for å forstå problemet bedre." Beslutning: kall RAG-verktøyet.
🔍
RAG — agenten kaller søket selv
Agenten kaller RAG-verktøyet med søkestrengen "skjerm blafrer Dell XPS 15". Søket returnerer relevante biter fra IT-kunnskapsbasen: problemet er svært vanlig på denne modellen, men årsaken er helt forskjellig for intern skjerm (grafikkdriver eller løst flatbåndkabel) vs. ekstern skjerm (HDMI-kabel eller driverkonflikt). Resultatet legges tilbake i konteksten.
🧠
LLM + Agent — resonnerer med ny kunnskap, aktiverer skill
LLM-en har nå ticket, maskininfo og søkeresultater i konteksten. Den resonnerer: "Jeg kan ikke gi riktig svar uten å vite hvilken skjerm. Skill-en sier jeg alltid skal innhente manglende info, og at ekstern skjerm alltid starter med kabeltest." Skill-en definerer tone, prioritering og hva slags svar som skal gis. Beslutning: formuler svar og post på ticketen via MCP.
🔌
Tools via MCP — poster svar direkte i ticketsystemet
Agenten kaller ticketsystemet via MCP-verktøyet og poster svaret. Ingen copy-paste, ingen manuell handling — MCP er broen mellom LLM-en og systemet.
Svar på ticket #4471 ● Postet av IT-agent
Hei Maria!

Jeg har sett på saken din. Blafring på skjerm kan ha forskjellige årsaker avhengig av hvilken skjerm det gjelder, så jeg trenger litt mer info for å gi deg riktig hjelp:

Er det den innebygde skjermen på laptopen som blafrer, eller en ekstern skjerm du har koblet til?

Hvis det er en ekstern skjerm: Start med å teste en ny HDMI-kabel — dette løser problemet i over 40% av tilfellene og tar bare et minutt å sjekke.

Hvis det er den innebygde skjermen: Svar på denne ticketen, så undersøker jeg videre og booker deg inn til en tekniker hvis det trengs.

Hører fra deg! 👋
🤖
Agent — venter på svar, løkken fortsetter
Agenten er ikke ferdig — den venter på Marias svar. Når hun svarer, trigges en ny runde: ny context injection med oppdatert tickethistorikk, eventuelt nytt RAG-søk på riktig skjermtype, og et nytt svar med konkret løsning eller eskalering til menneskelig tekniker. Det er dette som er agentløkken — ikke ett enkelt svar, men en kjede av vurderinger og handlinger helt til problemet er løst.
Hva skjedde akkurat her?
Maria sendte én uformell melding — ingen serienummer, ingen tekniske detaljer. Context injection hentet maskindataene hennes før LLM-en leste en eneste linje. LLM-en leste alt og bestemte at den trengte mer kunnskap. Agenten kalte RAG selv og fikk tilbake det den trengte. Med skills som styrte tone og logikk formulerte den et presist svar — og sendte det direkte via MCP. Ingen IT-ansatt løftet en finger.