
Dette kursus er for dig, der allerede har arbejdet med LLM’er og Python og gerne vil bygge videre med flere muligheder og metoder. Fokus er på at udnytte egne data, koble værktøjer sammen og lære teknikker til at forbedre kvalitet og styring af AI-udvikling.
Vi starter med udvidet prompt engineering, hvor du lærer at bruge dynamiske og kontekstuelle prompts, role prompting, memory-styring og token-budgettering til at få mere præcist og relevant output.
Derefter arbejder vi med retrieval-augmented generation (RAG), hvor AI’en kombinerer søgning i dine egne dokumenter med tekstgenerering. Du lærer at strukturere og indeksere dokumenter, bruge embeddings og similarity search, samt integrere med værktøjer som fx FAISS, Chroma, LlamaIndex og andre.
Vi ser også på, hvordan man kan bygge AI-pipelines med LangChain og n8n, der kan samle forskellige værktøjer, databaser og API’er i simple workflows – med mulighed for multi-step processer og styring af samtaleforløb.
En del af kurset handler om evaluering og kvalitetssikring af LLM-output – herunder metoder til human og automatisk evaluering, måling af relevans, samt logging og A/B-test.
Til sidst kigger vi på, hvordan man kan gøre løsningerne mere driftssikre, med fokus på privacy, fallback-strategier, brugerfeedback og forberedelse på compliance.
Efter kurset kan du:
Se hvordan du kan kombinere dokument-søgning med tekstgenerering, så AI’en kan bruge dine egne data.
Byg AI-flows, hvor forskellige værktøjer og trin kan kobles sammen – fx gennem pipelines i LangChain eller workflow-værktøjer som n8n
Lær metoder til at vurdere, om en LLM’s output er brugbart og relevant.
Få indblik i, hvordan du kan gøre dine AI-løsninger mere driftsklare og sikre.
Det ligger os meget på sinde, at du finder det kursusforløb, der skaber størst værdi for dig og din arbejdsplads. Tag fat i vores kursusrådgivere, de sidder klar til at hjælpe dig!
