Een man met bril volgt een training bij Startel.
Klassikale / virtuele training

Large Language Models (LLM)

  • Advanced
  • 1 dag
  • Nederlands

In de training Large Language Models (LLM) zul je ontdekken hoe Large Language Models (LLM's) jou de mogelijkheid bieden om complexe, mensachtige interacties en voorspellingen te genereren op basis van enorme hoeveelheden tekstdata. LLM's ondersteunen uiteenlopende taken, zoals tekstgeneratie, samenvattingen, vertalingen en sentimentanalyse. Daarnaast laat de Transformer-architectuur toe dat deze modellen schaalbaar zijn en verschillende domein- of taalspecifieke data aankunnen, wat zorgt voor flexibiliteit in toepassing en een hoge mate van accuratesse.

9.2
  • Ervaren en gecertificeerde trainers
  • Meer dan 25 jaar ervaring in opleiden

Ontwikkel jouw ontwikkelvaardigheden in LLM's

Deze LLM training bestaat uit praktijkgerichte opdrachten, duidelijke theorie en professionele begeleiding. Zo zul je in staat zijn om de opgedane kennis en vaardigheden in praktijk te brengen.

  • Inschrijven
  • (Incompany) offerte aanvragen

    "*" geeft vereiste velden aan

    Vul hier jouw naam in*
    Vermeld eventuele specifieke wensen en het aantal deelnemers.
    Wij zijn dé IT-opleider van het noorden
    • Train bij ons in Drachten of op jouw eigen locatie.
    • Klanten geven ons een 9.2
    • Erkende trainers.
    • Ontvang een certificaat na deelname!

    Kom je er niet uit?
    Laat ons je helpen!

    Contact opnemen

    Pieter Fokkema op de foto.
    x
  • Download brochure

    "*" geeft vereiste velden aan

    Brochure downloaden
    Vul hier al je gegevens in om de brochure te downloaden.
    Wij zijn dé IT-opleider van het noorden
    • Train bij ons in Drachten of op jouw eigen locatie.
    • Klanten geven ons een 9.2
    • Erkende trainers.
    • Ontvang een certificaat na deelname!

    Kom je er niet uit?
    Laat ons je helpen!

    Contact opnemen

    Pieter Fokkema op de foto.
    x

Algemene omschrijving

Tijdens de eendaagse training Large Language Models (LLM) leer je hoe jij jouw eigen Large Language Models (LLM’s) kunt ontwikkelen, afstemmen en inzetten. In de training Large Language Models (LLM) worden zowel TensorFlow als PyTorch behandeld en hoe jij scikit-learn kunt vergelijken met deep learning-frameworks. Daarnaast zul je duiken in de wereld van Hugging Face, LoRA, tokenizers, en evaluatiemethoden zoals perplexity, BLEU, en ROUGE.

Door de training Large Language Models (LLM) te volgen zul je praktische kennis opdoen over hoe jij jouw eigen AI-modellen kunt trainen, beheren en inzetten. Je zult leren hoe jij data kunt voorbereiden, welke hulpmiddelen je nodig hebt voor embeddings- en vector databases, en hoe jij containerization en cloudplatformen in kunt zetten voor schaalbare productie. Ook wordt er stilgestaan bij Responsible AI: hoe kun je omgaan met vooroordelen, privacy en governance bij grotere modellen?

De intensieve eendaagse training Large Language Models (LLM) neemt 8 uur in beslag. Daarnaast adviseren we 6 tot 10 uur extra om met de voorbeelden te oefenen, de documentatie van frameworks als TensorFlow, PyTorch en Hugging Face te bestuderen en om jouw eigen dataset te verkennen voor een proof-of-concept.

Doelgroep

De training Large Language Models (LLM) is geschikt voor softwareontwikkelaars en data scientists (datawetenschappers) met een goede basis in Python of een andere programmeertaal, die de volgende stap willen zetten naar het trainen en beheren van eigen AI-modellen.

Dit betreft met name degenen die zijn/haar LLM’s naar een hoger niveau wil tillen, van prototype tot productie, en behoefte heeft aan diepgaande kennis over tooling, deployment (implementatie) en AI-governance.

Leerdoelen

Door de training Large Language Models (LLM) te volgen zul je de volgende kennis en vaardigheden verkrijgen:

  • Uitleggen hoe TensorFlow en PyTorch toonaangevende frameworks zijn voor LLM- en NLP-toepassingen.
  • De rol van “attention” in GPT-achtige modellen begrijpen en hoe deze worden getraind.
  • Het gebruiken van LoRA Parameter-efficiënte manieren om bestaande LLMs aan jouw domein aan te passen.
  • Het begrijpen van Byte-Pair Encoding, SentencePiece en het belang van schone, genormaliseerde data.
  • Het gebruiken van Perplexity, BLEU, ROUGE, BERTScore en het beoordelen van contextbewustzijn.
  • Pinecone, Weaviate of Qdrant integreren om eigen kennisbanken te gebruiken.
  • Het begrijpen van Hugging Face Spaces, Azure ML, AWS Sagemaker, Google Vertex AI; Docker/Kubernetes.
  • Het begrijpen van vooroordelen en privacykwesties, evenals model-monitoring en feedbackloops na productie.

Er is geen officieel examen aan de training Large Language Models (LLM) gekoppeld. De leerstof is echter een uitstekende voorbereiding op geavanceerde certificeringen, zoals het Hugging Face Transformer Engineer-traject of Deep Learning-gerelateerde examens bij cloudproviders (Azure, AWS, Google Cloud). Ook biedt de training Large Language Models (LLM) jou een stevige basis voor het implementeren van jouw eigen LLM-projecten op enterprise-niveau.

Voorkennis

Voordat je deelneemt aan de training Large Language Models (LLM), is het van belang dat jij beschikt over de volgende kennis en vaardigheden:

  • Goede kennis van Python en basiskennis van machine learning (ML).
  • Ervaring met Git, REST-API’s en virtual environments.

Daarnaast raden wij aan dat jij beschikt over eerder opgedane praktijkervaring met neurale netwerken, echter is dit niet verplicht. Als je deze ervaring (nog) niet hebt, dan raden wij aan om eerst de training AI Development met Python & OpenAI API te gaan volgen.

Onderwerpen

In de training Large Language Models (LLM) worden de volgende onderwerpen behandeld:

Installatie en opzet

  • Gebruik van virtuele omgevingen (conda of venv).
  • Installeren van tensorflow, torch, transformers, scikit-learn.

Framework-vergelijking en eerste model

  • Basismodel maken in TensorFlow vs. PyTorch.
  • Uitleg over scikit-learn (klassieke ML) vs. deep learning frameworks.

Transformer en Attention-mechanisme

  • Eenvoudige codevoorbeelden van een transformer-blok (nn.MultiheadAttention in PyTorch).
  • Praktische toepassing in Hugging Face Transformers (GPT, BERT).

Fine-tuning en LoRA

  • Full model fine-tuning vs. PEFT (Parameter-Efficient Fine-Tuning).
  • LoRA-implementatie met Hugging Face (peft.LoraConfig).

Data en tokenizers

  • Zelf datasplits maken (train/validation) met pandas of datasets.
  • Werken met Byte-Pair Encoding (BPE), SentencePiece.
  • Cleaning en normaliseren van tekst (unicode, lowercasing, special characters).

Evaluatie en metrics

  • Perplexity berekenen (math.exp(loss)).
  • BLEU, ROUGE en BERTScore voor kwaliteitsmeting.
  • Chatbot-evaluatie met conversatiescripts.

Vector Databases & RAG

  • Inleiding tot embedding-gebaseerd zoeken (FAISS, Chroma, Pinecone).
  • Retrieval-Augmented Generation (RAG) voor domeinspecifieke QA-systemen.

Deployment & Scalability

  • Hugging Face Spaces voor snelle demos.
  • Containerize je model met Docker (Dockerfile, requirements.txt).
  • Gebruik van Kubernetes, Azure ML, AWS Sagemaker, Google Vertex AI.

Responsible AI en Governance

  • Herkennen en mitigeren van bias, privacy-impact.
  • Model monitoring, feedbackloops en continuous improvement.

Beschikbare opties voor de LLM training

  • Klassikaal / virtueel

    € 699 excl. BTW

  • Incompany

    Prijs op maat

Start gegarandeerd

Trainingen met ‘start gegarandeerd’ gaan altijd door op de geplande datum.

Momenteel geen startgarantie?
Neem contact met ons op

  • Inschrijven
  • Offerte aanvragen

    "*" geeft vereiste velden aan

    Vul hier jouw naam in*
    Vermeld eventuele specifieke wensen en het aantal deelnemers.
    Wij zijn dé IT-opleider van het noorden
    • Train bij ons in Drachten of op jouw eigen locatie.
    • Klanten geven ons een 9.2
    • Erkende trainers.
    • Ontvang een certificaat na deelname!

    Kom je er niet uit?
    Laat ons je helpen!

    Contact opnemen

    Pieter Fokkema op de foto.
    x

Kies voor groei, net als deze organisaties

Ervaringen van onze deelnemers

  • Foto van klant (Jons van der Heul) die aan het werk is.

    Startel bood me de springplank naar een nieuwe carrière.

    Startel heeft veel trainingen om uit te kiezen en tussen sommige zit best wat overlap. In overleg met mij hebben ze een basispakket op maat voor me samengesteld bestaande uit drie cursussen.
    Jons van der Heul
    Lees gehele testimonial
  • Foto van klant (Edwin Schoonbeek) die een boek leest.

    Je merkt aan alles dat Startel geen statisch bedrijf is

    De droom is om Cyber Security Officer (CSO) te worden. Met deze opleidingen ontdek ik of dit beroep echt bij me past. Het fascineert me om de veiligheid in een bedrijf te waarborgen, vooral omdat we steeds meer te maken krijgen met digitale uitdagingen.
    Edwin Schoonbeek
    Lees gehele testimonial
  • Sten Numan aan het bellen in het Yelgo kantoor.

    Door onze samenwerking met Startel kunnen we onze mensen helpen om continu te groeien.

    Door onze samenwerking met Startel kunnen we onze mensen helpen om continu te groeien.
    Sten Numan
    Lees gehele testimonial
  • Foto van klant (Alex Tabak) die aan het typen is.

    De manier waarop Startel opleidt, geeft veel vertrouwen.

    Maar er zijn ook mensen die bijscholing nodig hebben. Zoals de man die ooit systeembeheerder was bij een grote universiteit en die de afgelopen tien jaar door omstandigheden thuis heeft gezeten.
    Alex Tabak
    Lees gehele testimonial
  • Foto van klant (Gerrit Meijering) die aan zijn werkplek zit.

    Startel heeft altijd een passend aanbod op onze vraag.

    Startel ken ik al heel lang. Toen zij nog op hun vorige locatie in Roden zaten, en ik nog bij mijn vorige werkgever werkte, volgde ik al cursussen en trainingen bij ze.
    Gerrit Meijering
    Lees gehele testimonial
Bekijk alle testimonials