====== Modul 5 ====== * [[:ai:1._nyborjarniva:introduktion_till_generativ_ai|Start]] * [[:ai:1._nyborjarniva:introduktion_till_generativ_ai:Modul 1|Modul 1]] * [[:ai:1._nyborjarniva:introduktion_till_generativ_ai:Modul 2|Modul 2]] * [[:ai:1._nyborjarniva:introduktion_till_generativ_ai:Modul 3|Modul 3]] * [[:ai:1._nyborjarniva:introduktion_till_generativ_ai:Modul 4|Modul 4]] * [[:ai:1._nyborjarniva:introduktion_till_generativ_ai:Modul 5|Modul 5]] ===== Framtiden för generativ AI ===== ==== Lektion 5.1: Nuvarande trender och forskning ==== Generativ AI är ett snabbt utvecklande område med flera tydliga trender och forskningsriktningar. Låt oss utforska några av de mest betydelsefulla. === Skalning och effektivitet === En central trend inom generativ AI har varit kontinuerlig ökning av modellstorlek och komplexitet: * **Skallagens effekter**: * Större modeller har visat ständigt förbättrade förmågor * GPT-4 har över 1,7 biljoner parametrar (uppskattning) jämfört med GPT-3:s 175 miljarder * Nya förmågor ("emergent abilities") uppstår ibland vid vissa skalningströsklar * **Effektivitetsförbättringar**: * Tekniker som parameter-effektiv finjustering (PEFT) * Kvantisering för att minska modellstorlek * Distillering av stora modeller till mindre, snabbare versioner * Sparse mixture-of-experts (MoE) arkitekturer * **Beräkningsresursutmaningar**: * Enorma energibehov för träning av stora modeller * Specialiserad hårdvara för AI-beräkningar (GPU, TPU, specialiserade AI-chip) * Växande fokus på grön AI och energieffektiva arkitekturer === Multimodala modeller === En annan stark trend är utvecklingen av modeller som kan hantera flera typer av data: * **Integration av modaliteter**: * Text och bild (GPT-4V, Gemini, Claude 3) * Text, bild, ljud och video * Sensormätningar och naturligt språk * **Förbättrad förståelse mellan modaliteter**: * Bildbeskrivning och bildanalys * Visuellt resonemang och problemlösning * Kontextuell förståelse över modaliteter * **Gemensamma representationer**: * "Foundation models" tränade på flera datatyper samtidigt * Shared embedding spaces mellan modaliteter * Cross-modal transfer learning === Fokus på säkerhet och alignment === Allteftersom generativa AI-system blir kraftfullare har säkerhet och värderingsanpassning ("alignment") blivit centrala forskningsområden: * **Constitutional AI**: * Modeller tränade att följa specifika etiska riktlinjer * Självkritisk granskning av output * Iterativ förfining baserad på mänsklig feedback * **RLHF (Reinforcement Learning from Human Feedback)**: * Träning av modeller baserad på mänskliga preferenser * Finjustering för att minska skadlig output * Belöningsfunktioner som främjar hjälpsamhet och säkerhet * **Interpretability och transparency**: * Metoder för att förstå "black box"-modeller * Tekniker för att förklara modellbeslut * Verktyg för att upptäcka och mäta partiskhet === Domänspecifik specialisering === Medan generella modeller fortsätter att utvecklas ser vi också en trend mot specialisering: * **Branschspecifika modeller**: * Juridiska AI-modeller (t.ex. Harvey AI) * Medicinska modeller (t.ex. Med-PaLM) * Vetenskapliga modeller (t.ex. Galactica) * **Finjustering för specifika användningsfall**: * Anpassning av grundmodeller för specialiserade uppgifter * Domänspecifik träning för ökad precision * Skräddarsydda systempromptar för specifika roller * **Retrieval-Augmented Generation (RAG)**: * Kombination av generativa modeller med kunskapsdatabaser * Möjliggör faktakontroll och specialiserad kunskap * Reducerar risken för hallucinationer ==== Lektion 5.2: Vad kommer härnäst? ==== Även om det är svårt att förutspå exakt hur generativ AI kommer att utvecklas, finns det flera lovande riktningar och potentiella genombrott på horisonten. === Förväntad utveckling de närmaste åren === Baserat på nuvarande trender kan vi förvänta oss följande utveckling: * **Förbättrad multimodal kapacitet**: * Sömlös integration av text, bild, ljud och video * Mer sofistikerad förståelse av visuell information * Realistisk video- och 3D-generering * **Ökad långtidskontext**: * Förmåga att hantera mycket längre sammanhang (böcker, filmer, långa dialoger) * Bättre minneshantering över längre interaktioner * Mer konsekvent resonemang över tid * **Förbättrad agent-förmåga**: * AI-system som kan utföra sekvenser av handlingar * Planering och stegvis problemlösning * Integration med externa verktyg och API:er * **Mer kraftfulla lokala modeller**: * Mindre modeller som kan köras på personliga enheter * Förbättrad kapacitet för edge computing * Integritetsfokuserade lösningar utan molnberoende === Potentiella genombrott === Några områden där betydande genombrott kan ske: * **Nya arkitekturer bortom Transformers**: * Alternativa arkitekturer som kan överträffa Transformer-modeller * Hybrida modeller som kombinerar olika ansatser * Neurala arkitekturer inspirerade av nya insikter i hjärnforskning * **Självförbättrande AI**: * System som kan utvärdera och förbättra sin egen kod * Modeller som kan optimera sin egen träning * Rekursiva självförbättringsprocesser * **Theory of mind**: * Förbättrad modellering av mänskliga mentala tillstånd * Bättre förståelse för intentioner och perspektiv * Mer naturlig och empatisk interaktion * **Förbättrat resonemang**: * Integrerad symbolisk och neuronal bearbetning * Formell verifiering av resonemang * Starkare matematisk problemlösningsförmåga === Samspelet mellan människa och AI === Hur samspelet mellan människor och AI utvecklas kommer att vara avgörande: * **Nya interaktionsparadigm**: * Bortom text-prompt paradigmet * Naturliga multimodala gränssnitt * Kontinuerlig två-vägs-kommunikation * **Personalisering och anpassning**: * AI-system som lär sig användarens preferenser över tid * Modeller anpassade till specifika individers behov * Etisk och säker hantering av personlig information * **Samarbetsmodeller**: * Human-in-the-loop-system för komplexa uppgifter * AI-assistenter specialiserade på att förstärka mänsklig kreativitet * Hybrida team av människor och AI-system * **Sociala och kulturella förändringar**: * Förändrade definitioner av kreativitet och originalitet * Nya normer kring intellektuellt arbete * Anpassade utbildningssystem och arbetsmarknader === Långsiktiga spekulationer === På längre sikt (5-10+ år) finns mer spekulativa möjligheter: * **Generell artificiell intelligens (AGI)**: * System med bredare, mer mänsklik intelligens * Förmåga att lära sig nya uppgifter med minimal instruktion * Överföring av kunskap mellan olika domäner * **Radikalt transformerade kreativa processer**: * Fullständigt nya konstformer som skapas av människa-AI samarbeten * Kollektiva kreativa system med många AI-komponenter * Evolution av kulturella uttryck i oväntade riktningar * **Djupgående samhällsförändringar**: * Omdefiniering av arbete och produktivitet * Nya ekonomiska modeller baserade på AI-kapacitet * Förändrad roll för mänsklig expertis och specialisering ==== Praktisk övning 5: Framtidsscenarier ==== I denna övning kommer du att utforska potentiella framtidsscenarier för generativ AI och hur de kan påverka ett område du är intresserad av. === Instruktioner === 1. Välj ett område som intresserar dig (t.ex. utbildning, hälsovård, konst, media, affärsutveckling, etc.) 2. Skapa tre olika framtidsscenarier för hur generativ AI kan utvecklas inom detta område under de närmaste 5-10 åren: * Ett optimistiskt scenario * Ett realistiskt/balanserat scenario * Ett utmanande/problematiskt scenario 3. För varje scenario, beskriv: * Vilka teknologiska utvecklingar som skulle möjliggöra scenariot * Hur människor skulle interagera med AI i detta sammanhang * Vilka möjligheter och utmaningar som skulle uppstå * Hur samhället och branschen skulle kunna förbereda sig 4. Baserat på dina scenarier, utforma ett personligt eller professionellt projekt där du skulle kunna tillämpa generativ AI på ett meningsfullt sätt. Beskriv: * Projektets syfte och mål * Vilka AI-verktyg och tekniker du skulle använda * Hur du skulle hantera potentiella utmaningar * Förväntade resultat och effekter === Reflektionsuppgift === Efter övningen, reflektera över: * Vilka förändringar är du mest entusiastisk inför? * Vilka aspekter av AI-utvecklingen oroar dig mest? * Hur kan du personligen förbereda dig för den framtid du ser? * Vilka färdigheter tror du blir viktigast i en värld med allt kraftfullare generativ AI? ===== Kursresurser ===== ==== Rekommenderad läsning ==== === Böcker === * "AI 2041: Ten Visions for Our Future" av Kai-Fu Lee och Chen Qiufan * "The Alignment Problem" av Brian Christian * "Atlas of AI" av Kate Crawford * "Superintelligence: Paths, Dangers, Strategies" av Nick Bostrom * "You Look Like a Thing and I Love You" av Janelle Shane === Artiklar och rapporter === * "On the Opportunities and Risks of Foundation Models" (Stanford HAI) * "AI Index Report" (aktuell årgång) från Stanford University * Artiklar från distill.pub om maskininlärning och generativ AI * "State of AI Report" (aktuell årgång) === Akademiska papers === * "Attention Is All You Need" (2017) - Groundbreaking paper introducing the Transformer * "Language Models are Few-Shot Learners" (2020) - Paper introducing GPT-3 * "Training language models to follow instructions with human feedback" (2022) - RLHF paper * "Diffusion Models Beat GANs on Image Synthesis" (2021) ==== Online-resurser ==== === Tutorials och lärresurser === * [https://www.deeplearning.ai/](https://www.deeplearning.ai/) - Andrew Ng's kurser och specialiseringar * [https://learn.microsoft.com/sv-se/training/paths/generative-ai-introduction/](https://learn.microsoft.com/sv-se/training/paths/generative-ai-introduction/) - Microsoft's introduktion till generativ AI * [https://huggingface.co/learn](https://huggingface.co/learn) - Hugging Face kurser * [https://www.fast.ai/](https://www.fast.ai/) - Praktiska kurser i djupinlärning === AI-verktyg === ==== Textverktyg ==== * [https://chat.openai.com/](https://chat.openai.com/) - ChatGPT * [https://claude.ai/](https://claude.ai/) - Claude AI * [https://gemini.google.com/](https://gemini.google.com/) - Google Gemini * [https://www.perplexity.ai/](https://www.perplexity.ai/) - Perplexity AI (sökmotorbaserad) ==== Bildverktyg ==== * [https://labs.openai.com/](https://labs.openai.com/) - DALL-E * [https://www.midjourney.com/](https://www.midjourney.com/) - Midjourney (via Discord) * [https://stability.ai/](https://stability.ai/) - Stable Diffusion online verktyg * [https://playgroundai.com/](https://playgroundai.com/) - Playground AI (gratis alternativ) ==== Ljudverktyg ==== * [https://elevenlabs.io/](https://elevenlabs.io/) - ElevenLabs (text-till-tal) * [https://suno.ai/](https://suno.ai/) - Suno (text-till-musik) * [https://play.ht/](https://play.ht/) - Play.ht (röstgenerering) ==== Videoverktyg ==== * [https://runwayml.com/](https://runwayml.com/) - Runway (video) * [https://pika.art/](https://pika.art/) - Pika Labs (textprompt till video) === Communities === * [https://huggingface.co/spaces](https://huggingface.co/spaces) - Hugging Face community * [https://www.reddit.com/r/MachineLearning/](https://www.reddit.com/r/MachineLearning/) - Reddit ML community * [https://www.reddit.com/r/StableDiffusion/](https://www.reddit.com/r/StableDiffusion/) - Stable Diffusion community * [https://discord.gg/midjourney](https://discord.gg/midjourney) - Midjourney Discord * [https://discord.gg/stablediffusion](https://discord.gg/stablediffusion) - Stable Diffusion Discord ==== Webbplatser att följa ==== * [https://www.technologyreview.com/topic/artificial-intelligence/](https://www.technologyreview.com/topic/artificial-intelligence/) - MIT Technology Review * [https://venturebeat.com/category/ai/](https://venturebeat.com/category/ai/) - VentureBeat AI * [https://www.deeplearning.ai/the-batch/](https://www.deeplearning.ai/the-batch/) - The Batch newsletter * [https://www.ben-evans.com/](https://www.ben-evans.com/) - Benedict Evans analyser * [https://scale.com/blog](https://scale.com/blog) - Scale AI Blog ===== Ordlista ===== * [[kunskap:ordbok|Ordbok]] * **Artificiell intelligens (AI)** - System som kan utföra uppgifter som normalt kräver mänsklig intelligens * **Generativ AI** - AI-system som kan skapa nytt innehåll snarare än bara analysera befintligt * **Maskininlärning (ML)** - Delmängd av AI där system lär sig från data utan att programmeras explicit * **Djupinlärning** - En typ av maskininlärning som använder neurala nätverk med många lager * **LLM (Large Language Model)** - Stor språkmodell tränad på enorma mängder text * **Prompt** - Instruktionen eller frågan som ges till en AI för att generera ett svar * **Prompt engineering** - Konsten att utforma effektiva prompts för att få önskade resultat från AI * **Token** - Den minsta enheten som språkmodeller processar (ofta delar av ord) * **Embedding** - Numerisk representation av text, bilder eller andra data i en vektorrymd * **Fine-tuning** - Process där en förtränad modell specialiseras för en specifik uppgift * **Transfer learning** - Användning av kunskap från en tränad modell för att förbättra en annan * **Transformer** - Neurala nätverksarkitekturen som används i moderna språkmodeller * **Attention mechanism** - Nyckelkomponent i transformers som avgör vilka delar av input som är viktigast * **GAN (Generative Adversarial Network)** - System där två neurala nätverk tävlar för att förbättra bildgenerering * **Diffusionsmodell** - Typ av generativ modell som gradvis omvandlar brus till strukturerat innehåll * **Multimodal AI** - AI-system som kan hantera flera typer av data (text, bild, ljud, etc.) * **RLHF (Reinforcement Learning from Human Feedback)** - Träningsmetod där mänsklig feedback används för att förbättra modeller * **Hallucination** - När AI genererar felaktig information som låter övertygande * **Alignment** - Att säkerställa att AI-system handlar i enlighet med mänskliga värderingar och intentioner * **RAG (Retrieval-Augmented Generation)** - Teknik där AI kombinerar information från externa källor med egen generering * **Temperatur** - Parameter som styr slumpmässigheten i AI:ns output * **Top-p/nucleus sampling** - Teknik för att kontrollera kreativiteten i genererade texter * **Iterativ generering** - Process där AI:s output successivt förfinas genom flera steg ----