
Integration af LLM API’er med Python
Beskrivelse
Mange af de mest avancerede LLM’er som GPT, Claude og LLaMA er tilgængelige via API’er, der gør det muligt at integrere deres funktionalitet direkte i dine egne programmer og webapplikationer. På dette kursus lærer du, hvordan du arbejder med LLM API’er i Python – fra de første kald til fuld integration i små, praktiske løsninger.
Vi starter med en introduktion til API-adgang til LLM’er, herunder brugen af OpenAI, Azure OpenAI og Hugging Face API. Du lærer at bruge Python SDK’er, opsætte sikker adgang med API-nøgler og miljøvariabler, samt håndtere fejlsituationer og timeouts, så dine løsninger bliver robuste.
Derefter arbejder vi med at integrere LLM’er i egne Python-projekter – fx som chatbots, generative skriveassistenter eller kodehjælpere. Vi gennemgår, hvordan integration kan laves i frameworks som Streamlit og Flask, samt hvordan løsninger kan køres direkte i terminalen. Du lærer også at tilpasse løsninger til brugerinput og kontekst, så output bliver mere relevant og brugbart.
Undervisningen er hands-on, og du får selv bygget små applikationer undervejs.
Efter kurset kan du:
- Bruge API’er til at tilgå LLM’er fra OpenAI, Azure og Hugging Face
- Arbejde med Python SDK’er og sikre API-adgang
- Håndtere fejlsituationer og timeouts i API-kald
- Bygge simple Python-applikationer med LLM-integration
- Tilpasse AI-output til brugerinput og kontekst
Moduloversigt
- Modul 1API-brug og integration
- Hvad er en LLM API, og hvordan bruges den
- API-adgang til OpenAI, Azure og Hugging Face
- Python SDK’er og sikker adgang
- Fejlhåndtering og timeout-strategier
- Modul 2LLM i egne Python-løsninger
- Chatbot, generativ skriveassistent eller kodehjælper
- Integration med Streamlit, Flask eller terminal
- Tilpasning til brugerinput og kontekst
Er du i tvivl?
Det ligger os meget på sinde, at du finder det kursusforløb, der skaber størst værdi for dig og din arbejdsplads. Tag fat i vores kursusrådgivere, de sidder klar til at hjælpe dig!
