Chain of Thought
Chain of Thought (förkortat CoT) är en metod inom prompt engineering och AI-modellträning där man uppmuntrar språkmodeller att resonera steg för steg, istället för att direkt ge ett slutgiltigt svar. Tekniken förbättrar särskilt modellens förmåga att lösa komplexa uppgifter som kräver logik, matematik eller flerstegsresonemang.
🧠 Vad är Chain of Thought?
I stället för att be en modell om ett omedelbart svar, struktureras prompten så att modellen ”tänker högt”. Det innebär att modellen formulerar sina mellanliggande tankar, antaganden och beräkningar innan den ger slutsvaret.
Exempel:
Prompt:
- ”Om Lisa har tre gånger så många äpplen som Karl, och Karl har fyra äpplen, hur många har Lisa?”
Utan CoT:
- ”Tolv.”
Med CoT:
- ”Karl har 4 äpplen. Lisa har tre gånger så många. 3 × 4 = 12. Svar: 12.”
🔍 Varför fungerar det?
Chain of Thought fungerar eftersom det:
- Tvingar modellen att ”pausa” och strukturera tankegången
- Minskar risken för felslut vid komplexa frågor
- Efterliknar mänskligt resonemang
- Ger användaren insyn i modellens beräkningsväg
Metoden fungerar bäst med större modeller (t.ex. GPT-4, Claude, Gemini), då mindre modeller ofta saknar kapacitet att genomföra flerstegsresonemang.
🧪 Typer av Chain of Thought
- Manuell CoT – du formulerar exempel med steg-för-steg-resonemang
- Auto-CoT – modellen genererar själv stegvisa exempel via självförstärkning
- Few-shot CoT – prompten innehåller några exempellösningar för att visa önskad struktur
- Zero-shot CoT – prompten innehåller instruktionen: “Lös detta steg för steg”
📚 Tillämpningar
Chain of Thought används inom:
- Matematik och logikproblem
- Kodgenerering med förklaring
- Juridisk argumentation
- Diagnostik och felsökning
- AI-agenters beslutsfattande
Den är ofta integrerad i *Tool-using agents*, där varje resonemangsdel kan innebära ett verktygsanrop.
⚠️ Begränsningar
- Steg-för-steg-utfall garanterar inte korrekt slutsats
- Kan öka tokenförbrukning och latens
- Kräver noggrann promptdesign för komplexa uppgifter
🔍 Mer information
Artiklar: