Installer Ollama
Last ned fra offisiell side og verifiser at lokal server svarer før du bygger videre.
ollama run llama3.2
Guider • Oppskrifter • Eksempler
En oppdatert samling guider for april 2026: fra modellvalg og ytelse til API-integrasjon, RAG og robuste agent‑workflows med sikkerhet i praksis.
Last ned fra offisiell side og verifiser at lokal server svarer før du bygger videre.
ollama run llama3.2
Hold oversikt over hva du har lastet ned og frigjør plass.
ollama list
ollama rm <modell>
Start med en mindre modell, mål svartid, og oppgrader modell eller maskinvare når flaskehalsen er dokumentert.
Velg modell etter bruksområde og tilgjengelig maskinvare. Her er et praktisk overblikk over aktuelle modeller (mars 2026):
| Modell | Størrelse | Egner seg for |
|---|---|---|
llama3.2
|
3B | Rask chat, CPU-vennlig |
mistral
|
7B | Generell assistent, god balanse |
gemma3:4b
|
4B | Effektiv, Google-modell |
phi4 |
14B | Høy kvalitet, lite VRAM |
qwen2.5-coder:7b
|
7B | Kode og tekniske oppgaver |
deepseek-r1:8b
|
8B | Resonering, steg-for-steg |
nomic-embed-text
|
— | Embeddings til RAG |
# Eksempel: lag en konfigurert modell med fast systemprompt
# (bruk Modelfile og bygg etter Ollama-dokumentasjonen)
Du kan integrere med alt som kan gjøre HTTP-kall.
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2",
"prompt": "Skriv en funksjon som validerer e-postadresser i JavaScript."
}'
Del dokumenter i passende biter (ikke for store, ikke for små) og behold metadata.
Gjør tekst til vektorer, og bruk en indeks for rask relevans-søk.
Legg inn kontekst + kildeliste i prompt. Be om svar med referanser.
Agent‑mønsteret kombinerer en LLM med et sett verktøy og en planleggingssløyfe. For å lykkes må du begrense hva agenten kan gjøre, og bygge inn verifikasjon.
Oppgave: “Les en loggfil, finn feil, lag en kort rapport og foreslå tiltak.”
Verktøy: fil-lesing (kun lese), regex‑søk, oppsummering, eksport til Markdown.