
Prompt engineering er kunsten at formulere spørgsmål og instruktioner, som en Large Language Model (LLM) kan forstå og reagere optimalt på. På dette kursus lærer du, hvordan du strukturerer og tilpasser dine prompts, så du får AI-svar, der er relevante, præcise og formateret, som du ønsker det.
Vi gennemgår, hvordan man arbejder med system-, user- og assistant-prompts, og hvordan disse kan kombineres for at styre AI’ens rolle og tone. Du får indsigt i effektive promptstrategier som few-shot prompting (give modellen eksempler) og chain-of-thought prompting (lede modellen til at tænke trinvist).
Derudover lærer du at styre output ved hjælp af formatinstruktioner, temperaturindstillinger og tokens, samt hvordan du kan teste og iterere dine prompts for at optimere resultaterne.
Undervisningen er praktisk og cases-baseret, så du går fra kurset med en række anvendelige teknikker, du kan bruge med det samme – uanset om du arbejder med tekstgenerering, analyse, opsummering eller kreative AI-opgaver.
Efter kurset kan du:
Målgruppen er alle der arbejder med AI-værktøjer baseret på LLM’er, og som ønsker at forbedre kvaliteten af deres resultater – fx udviklere, dataanalytikere, kommunikationsmedarbejdere og AI-interesserede.
Det ligger os meget på sinde, at du finder det kursusforløb, der skaber størst værdi for dig og din arbejdsplads. Tag fat i vores kursusrådgivere, de sidder klar til at hjælpe dig!
