FAQ • LLM • Ollama • Lokal AI
FAQ: Vanlige spørsmål om Ollama, LLM og KI‑agenter
Kort og konkret – med fokus på praktisk bruk, sikkerhet og hva som er realistisk å forvente av lokale modeller.
Spørsmål og svar
Hva er forskjellen på en LLM og en chatbot?
LLM er selve språkmodellen. En chatbot er et grensesnitt og en samtalelogikk rundt modellen – ofte med minne, verktøy, moderering og integrasjoner.
Trenger jeg GPU?
Nei, men GPU/VRAM gir ofte stor forbedring. Start med en mindre modell på CPU, og oppgrader hvis du trenger mer fart.
Er lokale modeller “like gode” som sky‑modeller?
Det kommer an på oppgaven og modellen. For mange interne arbeidsflyter kan lokale modeller være svært gode, spesielt når du kombinerer med RAG og tydelige instruksjoner.
Hva er RAG, og hvorfor trenger jeg det?
RAG henter relevant informasjon fra dine dokumenter før modellen svarer. Det øker presisjon, reduserer hallusinasjoner og gir bedre sporbarhet.
Hva er en KI‑agent?
En agent er en LLM som kan bruke verktøy og følge en oppgaveflyt. Eksempler: hente data fra API, opprette saker, skrive rapporter, oppdatere dokumentasjon. God sikkerhet krever begrensede rettigheter og logging.
Hvordan holder jeg data trygt?
Kjør lokalt/privat miljø, unngå å logge sensitive data, bruk tilgangsstyring for RAG‑indekser, og sett guardrails på agent‑verktøy (whitelists, scopes, approvals).
Hva med lisens og bruk av modeller?
Modeller har ulike lisenser og vilkår. Sjekk alltid lisensen for modellen du laster ned – spesielt ved kommersiell bruk.