Modul 1
Vad är generativ AI?
Lektion 1.1: AI genom historien
Artificiell intelligens (AI) har en fascinerande historia som sträcker sig flera decennier tillbaka i tiden. Låt oss utforska de viktigaste milstolparna:
Den tidiga AI-eran (1950-1960-talet)
AI som koncept formaliserades under en konferens vid Dartmouth College 1956. Under denna tid var fokus främst på symbolisk AI - system baserade på logiska regler och symboler. Forskare var optimistiska och förutspådde snabba framsteg.
- 1950: Alan Turing publicerar sitt berömda papper där han föreslår ”Turing-testet” för att avgöra om en maskin kan tänka
- 1956: Dartmouth-konferensen där termen ”artificiell intelligens” myntades
- 1958-1960: Tidiga framgångar med schackspelande program och bevisteorem
AI-vintern (1970-1980-talet)
Trots tidiga framgångar började man inse att AI var mycket svårare än förväntat. Finansieringen minskade och framstegen avstannade i vad som kallas ”AI-vintern”.
- Begränsningar i dåtidens datorkraft
- Problem med att hantera osäkerhet och lärande
- Överdrivna löften ledde till besvikelse
Maskininlärningens återkomst (1990-2000-talet)
Under 90-talet och framåt började fokus skifta från regelbaserade system till maskininlärning - system som lär sig från data.
- Framsteg inom neurala nätverk
- Utveckling av nya algoritmer som kunde hantera mer komplexa problem
- Datorkraften ökade enligt Moores lag
Den djupa inlärningens revolution (2010-nutid)
Omkring 2012 började djupinlärning (deep learning) visa extraordinära resultat, vilket ledde till dagens AI-explosion.
- 2012: AlexNet vinner ImageNet-tävlingen med överlägsen prestanda
- 2014: GANs (Generative Adversarial Networks) uppfinns
- 2017: Transformer-arkitekturen introduceras
- 2020-nutid: Enorma framsteg inom generativa AI-modeller som GPT, DALL-E och Stable Diffusion
Från traditionell AI till generativ AI
Traditionell AI fokuserade på att analysera befintlig data för att göra beslut eller klassificeringar:
- Identifiera objekt i bilder
- Klassificera text som positiv eller negativ
- Förutspå kundernas köpbeteende
Generativ AI representerar ett paradigmskifte där fokus ligger på att skapa nytt innehåll:
- Skriva texter som liknar mänskligt skriven text
- Generera realistiska bilder från beskrivningar
- Komponera musik eller skapa videor
- Producera programkod baserat på beskrivningar
Detta skifte har öppnat upp helt nya möjligheter och användningsområden som vi kommer att utforska under denna kurs.
Lektion 1.2: Grundläggande begrepp
För att förstå generativ AI behöver vi bekanta oss med några nyckelbegrepp:
Vad betyder "generativ"?
När vi talar om ”generativ” AI syftar vi på system som kan skapa nytt innehåll som inte existerade tidigare. Dessa system lär sig mönster från stora mängder träningsdata och kan sedan generera nya exempel som liknar, men inte exakt kopierar, originaldatan.
Detta liknar hur en mänsklig konstnär lär sig genom att studera andras konstverk, för att sedan skapa egna originella verk influerade av det de har lärt sig.
Artificiella neurala nätverk
Neurala nätverk är den underliggande teknologin som driver moderna AI-system. De är löst inspirerade av hjärnans struktur:
- Neuroner: Beräkningsenheter som tar in data, applicerar matematiska operationer och skickar vidare resultat
- Lager: Neuroner organiserade i sammankopplade lager (input, dolda lager, output)
- Vikter: Kopplingar mellan neuroner med olika styrka som justeras under träning
- Aktiveringsfunktioner: Matematiska funktioner som avgör när en neuron ”aktiveras”
När vi staplar många lager på varandra får vi djupa neurala nätverk, därav namnet ”djupinlärning”.
Träningsdata och inlärning
Generativa AI-modeller lär sig genom att exponeras för enorma mängder data:
- Språkmodeller tränas på miljarder eller biljoner ord från internet, böcker, artiklar m.m.
- Bildmodeller tränas på miljontals bilder med tillhörande beskrivningar
- Musikmodeller tränas på stora mängder musikstycken
Under träningen justerar modellen kontinuerligt sina interna parametrar för att bättre kunna förutsäga eller generera liknande innehåll. Detta sker genom en process som kallas backpropagation, där modellen:
1. Gör en förutsägelse 2. Jämför med det faktiska svaret 3. Beräknar felet 4. Justerar parametrarna för att minska felet 5. Upprepar processen miljontals gånger
Prompt engineering - konsten att kommunicera med AI
Prompting är konsten att formulera instruktioner eller frågor till en AI för att få önskat resultat. En prompt kan vara allt från en enkel fråga till en detaljerad beskrivning med exempel och begränsningar.
Exempel på prompts:
- Enkel: ”Skriv en dikt om hösten”
- Detaljerad: ”Skriv en haiku-dikt om hösten i Sverige med fokus på färgerna i naturen. Använd metaforer relaterade till förändring.”
Ju mer sofistikerad en AI-modell är, desto mer komplexa prompts kan den hantera. Vi kommer att lära oss mer om prompt engineering senare i kursen.
Praktisk övning 1: Din första generativa AI-upplevelse
Nu är det dags att prova själv! I denna övning kommer du att experimentera med en textbaserad AI.
Instruktioner
1. Gå till [https://chat.openai.com/](https://chat.openai.com/) eller valfri annan tillgänglig språkmodell 2. Skapa ett konto om du inte redan har ett 3. Prova följande prompts och observera resultaten: * "Förklara vad generativ AI är för en 10-åring" * "Skriv en kort berättelse om en robot som upptäcker känslor" * "Ge mig fem idéer för hur generativ AI kan användas inom utbildning" 4. Experimentera med att modifiera promptsen för att se hur resultaten förändras 5. Reflektera över: * Hur naturlig kändes interaktionen? * Var något i svaren överraskande? * Vilka begränsningar märkte du?
Reflektionsuppgift
Skriv ner dina tankar kring följande frågor:
- Vilket område tror du skulle kunna dra mest nytta av generativ AI i ditt liv eller arbete?
- Vilka farhågor eller frågor har du kring denna teknologi?
Vi kommer att återkomma till dessa reflektioner senare i kursen.