Context windows
Context windows (kontextfönster) är ett tekniskt begrepp som beskriver hur mycket information en språkmodell kan ”se” eller beakta vid ett givet tillfälle. Det är en grundläggande begränsning i hur språkmodeller bearbetar text.
🔍 Vad är ett kontextfönster?
Ett kontextfönster definieras i Tokens, vilket är textdelar som kan motsvara ord, delar av ord eller skiljetecken. Modellen bearbetar endast det antal tokens som ryms inom dess fönster – allt utanför ignoreras.
Exempel:
- En prompt på 4000 tokens i en modell med ett 4096-tokenfönster lämnar mycket lite utrymme för svar.
- I modeller med stora fönster (t.ex. 128k tokens) kan hela dokument eller konversationer inkluderas.
📏 Vanliga storlekar på kontextfönster
- GPT-3.5: 4k tokens
- GPT-4: 8k eller 32k tokens
- Claude 2.1: 200k tokens
- Claude 3.5: upp till 1 miljon tokens (för referensmaterial)
- Gemini 1.5: >1M tokens (experimentiell)
1 token ≈ ¾ ord på engelska text, vilket betyder att 1000 tokens ≈ 750 ord.
🧠 Varför spelar storleken roll?
- Större fönster möjliggör mer sammanhängande och informerade svar över långa texter.
- Mindre fönster kan leda till att viktig kontext kapas, vilket försämrar resultat.
Det påverkar bland annat:
- Dokumentanalys
- Flerstegsresonemang
- Kodassistans
- Minneshantering i chattgränssnitt
🧰 Hur används context windows i praktiken?
- Prompt design – hålla prompt och förväntat svar inom fönstergräns
- Trunkering – klippa bort irrelevanta delar för att spara utrymme
- Sliding window – läsa in information sekventiellt i överlappande block
- RAG-tekniker – hämta och inkludera bara relevant information dynamiskt
⚠️ Begränsningar
- Långa kontextfönster ökar kostnad och svarstid
- Inte all information i fönstret påverkar nödvändigtvis output
- Även stora modeller kan “glömma” information tidigt i kontexten
🔍 Mer information
Artiklar: