Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Computable Awards
    • Nieuws
    • Winnaars
    • Partner worden
    • Inzending indienen
    • Inzendingen
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
    • Magazine
    • Adverteren in het magazine
  • Nieuwsbrief

Hoe meet je llm-prestaties? Plus 7 andere vragen over grote taalmodellen

06 maart 2026 - 17:006 minuten leestijdAchtergrondData & AI
Pim van der Beek
Pim van der Beek

Large language models (llm’s) zijn in korte tijd uitgegroeid tot de motor achter generatieve ai‑toepassingen. Toch blijft de technologie voor veel organisaties een zwarte doos. Wat doet een llm precies, hoe werkt het, en waarom praten leveranciers niet langer over het aantal parameters? In dit artikel zetten we acht belangrijke vragen en antwoorden over llm’s op een rij.

1. Wat is een llm (large language model)?
Een llm is een vorm van kunstmatige intelligentie die getraind is om menselijke taal te begrijpen en te genereren. Het model leert patronen te herkennen in enorme hoeveelheden tekst en kan daardoor vragen beantwoorden, teksten schrijven, vertalen, redeneren en samenvatten. In essentie is een llm een ai‑systeem dat taal verwerkt en produceert op een manier die dicht in de buurt komt van menselijke communicatie.

2. Hoe werkt een llm?
Een llm wordt getraind op gigantische hoeveelheden tekst. Bijvoorbeeld uit boeken, websites, artikelen, code en andere bronnen. Tijdens die training leert het model onder meer patronen herkennen in taal, voorspellen welk woord logisch volgt op een ander woord, context interpreteren en specifieke taken uitvoeren via het fijn slijpen van het systeem.

Onder de motorkap draait een llm op een neuraal netwerk: een computermodel, geïnspireerd op de werking van het menselijk brein, dat patronen leert te herkennen door miljoenen voorbeelden te analyseren. Dat gebeurt zonder expliciet geprogrammeerde regels. Het neurale netwerk is meestal gebaseerd op de transformer‑architectuur dat, geïntroduceerd in 2017, uitblinkt in het verwerken en analyseren van sequentiële data zoals tekst doordat het de context van woorden in een zin beter begrijpt dan eerder gebruikte architecturen. Zo’n netwerk bestaat uit miljoenen tot miljarden parameters. Dat zijn interne waarden die bepalen hoe het model taal interpreteert en verbanden legt. (zie ook vraag over parameters).

3. Voor welke toepassingen wordt een llm gebruikt?
Llm’s zijn vooral bekend van de inzet bij generatieve ai. Ofwel ai om iets te creëren  of te genereren, zoals het schrijven van teksten, e‑mails, scripts, samenvattingen, vertalingen en het genereren van code en creatieve content zoals slogans of verhalen. Maar de inzet van llm’s reikt veel verder. Er zijn ook niet‑generatieve toepassingen zoals classificatie, bijvoorbeeld spamdetectie, informatie‑extractie, zoals namen of juridische termen herkennen, semantisch zoeken, vraag‑antwoord‑systemen, conversatie‑interfaces zoals Copilot. De technologie is dus breder inzetbaar dan alleen voor het genereren van tekst.

4. Zijn er ook sector‑specifieke llm’s?
Ja, domeinspecifieke llm’s zijn sterk in opkomst. Bijvoorbeeld medische llm’s. Deze modellen worden getraind op medische literatuur, richtlijnen en patiëntinformatie. Ze ondersteunen onder meer triage, medische documentatie en klinische besluitvorming. Vanwege privacy‑ en veiligheidsrisico’s zijn ze vrijwel altijd gesloten systemen.

Ook zijn er bijvoorbeeld juridische llm’s. Deze modellen zijn getraind op wetboeken, jurisprudentie en contracten. Ze worden gebruikt voor contractanalyse, wetsinterpretatie en juridische zoekmachines. Ook hier geldt dat de onderliggende data vaak auteursrechtelijk beschermd zijn, waardoor de modellen niet openbaar beschikbaar zijn.

5. Wat zijn de meest gebruikte llm’s wereldwijd?
De markt wordt gedomineerd door een handvol grote spelers. Denk aan: GPT‑4 en GPT‑4.1 van OpenAI, Gemini 1.5 en 2.0 van Google, Claude 3 van Anthropic, Llama 3 (een opensource-llm van Meta) en Mistral‑modellen, dat zijn open-source-modellen van Mistral AI.

6. Wat is een parameter van een llm?
Een parameter is een numerieke waarde in het neurale netwerk die bepaalt hoe het model taal verwerkt. Tijdens training worden deze waarden voortdurend aangepast. Je kunt ze zien als de interne knoppen waarmee het model leert: welke woorden belangrijk zijn, hoe zinnen samenhangen, hoe betekenis wordt opgebouwd. Een llm met bijvoorbeeld 70 miljard parameters beschikt dus over 70 miljard van dit soort interne waarden.

7. Waardoor zijn parameter‑aantallen steeds minder relevant?
De industrie is de afgelopen jaren fundamenteel veranderd. Waar vroeger voor parameters gold: ‘hoe meer, hoe beter’, is dat nu niet meer het geval. Dat komt door een drietal ontwikkelingen. Allereerst is de werkwijze van llm’s verandert. Moderne modellen zoals GPT‑4, Claude 3 en Gemini gebruiken zogenoemde mixture of experts‑architecturen. Daarbij heeft het model weliswaar enorme aantallen parameters, maar wordt per opdracht of bevraging (token) slechts een klein deel geactiveerd. Het totale aantal parameters zegt daardoor weinig over de daadwerkelijke rekenkracht of kwaliteit.

Ook komt de kwaliteitsverbetering van llm’s vooral uit verbeteredetrainingsdata, betere filtering, instructie-tuning, voortdurend leren van nieuwe inzichten (reinforcement learning) en optimalisatie van de architectuur. Kleinere modellen kunnen daardoor grotere modellen op specifieke taken verslaan. Een derde verandering is de opkomst van multimodale modellen. Moderne llm’s  bestaan uit modules. Modellen zoals Gemini 2.0 en GPT‑4.1 bestaan uit meerdere gespecialiseerde componenten: taal, beeld, audio, geheugen en tool‑interfaces. Eén enkel parametergetal is dan niet meer representatief.

Anders dan opensource-aanbieders delen commerciële partijen als OpenAI, Google en Anthropic bewust geen parameter‑aantallen meer. Omdat het weinig zegt over kwaliteit van het llm en doordat architecturen complexer zijn geworden.

8. Hoe kun je dan wél onderscheid maken in prestaties van llm’s?
Dat gebeurt via benchmarks. Dat zijn gestandaardiseerde tests die meten wat een model daadwerkelijk kan. Voorbeelden zijn: MMLU dat een indruk geeft van de algemene kennis en het niveau van redeneren van het llm. Bij de inzet van een llm voor het schrijven van of software-ontwikkeling wordt bijvoorbeeld SWE-bench Verified gebruikt. Het is een belangrijke standaard voor de evaluatie van van llm’s op bestaande, complexe software-engineering-taken die gedeeld worden op ontwikkelaarsplatform GitHub. Deze test is belangrijk nu door ai-agents steeds vaker code wordt gegenereerd.

AIME 2025 (American Invitational Mathematics Examination) is één van de zwaarste wiskundige benchmarks om het redeneervermogen van llm’s te testen. Om modellen te vergelijken wordt anno 2026 ook veel gekeken naar de Artificial Analysis Intelligence Index. Deze staat bekend om zijn multi-dimensionale vergelijkingen zoals prestatie versus snelheid en kosten.

GPT-NL
Nederland ontwikkelt eigen llm’s om minder afhankelijk te zijn van Amerikaanse aanbieders en beter aan te sluiten op Nederlandse taal, cultuur en wetgeving. Projecten als GPT‑NL (een initiatief van TNO, NFI, SURF en andere publieke partners), Bloom‑NL en het Europese OpenGPT‑X richten zich op soevereiniteit, privacy en publieke data. Beschikbaarheid varieert: sommige modellen zijn open, andere zijn alleen beschikbaar voor de publieke sector en wetenschap.

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Agentic AI in de praktijk

    Hoe autonome AI werkprocessen fundamenteel verandert

    Computable.nl

    Ontdek hoe je de kracht van private cloud kunt ontgrendelen

    De toekomst van serverbeheer. Nieuwe eisen aan prestaties en beveiliging.

    Computable.nl

    Trek AI uit de experimenteerfase

    Een gids over AI als strategisch instrument en op welke manier je écht waarde toevoegt aan je organisatie.

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Meer lezen

    Cloud & Infrastructuur

    Kort: Opnieuw Big Mac voor Capgemini, Odin koopt Proxsys (en meer)

    Cloud & Infrastructuur

    Van mobiel naar megatech: MWC26 trekt 105.000 bezoekers en 2.900 exposanten

    Innovatie & Transformatie

    Van ai-experiment naar succesvolle use-case (maar waar begin je?)

    Data & AI

    Zelfs röntgenfoto’s nu in Oracle’s nieuwe vector-database

    Data & AI

    Brein en bytes in perfecte harmonie: Advanced Neural Control won Computable Award 2025

    Governance & Privacy

    AI-Impactbarometer op rood: AP eist snelle actie kabinet

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2026 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs