HomeOver onsFunctiesPrijzenBlog
InloggenContact
Kennisbank

Wat is een Large Language Model (LLM)? - Uitleg & Betekenis

Een large language model (LLM) is een AI-model getraind op enorme hoeveelheden tekst dat mensachtige taal kan begrijpen en genereren. Leer hoe LLM's werken.

Definitie

Een Large Language Model (LLM) is een AI-model gebaseerd op diepe neurale netwerken dat is getraind op miljarden woorden tekst. LLM's kunnen mensachtige tekst begrijpen, genereren, vertalen en samenvatten. Bekende voorbeelden zijn GPT-4, Claude en Gemini.

Technische Uitleg

LLM's zijn gebaseerd op de transformer-architectuur, geïntroduceerd in het paper "Attention is All You Need" (2017). Ze bestaan uit miljoenen tot biljoenen parameters die worden geoptimaliseerd tijdens het trainingsproces op grote tekstcorpora. De training verloopt in fases: pre-training op ongelabelde data (next-token prediction), gevolgd door fine-tuning en alignment via RLHF (Reinforcement Learning from Human Feedback). Inference vereist aanzienlijke rekenkracht en wordt geoptimaliseerd via technieken als quantisatie, caching en batching. Context windows variëren van duizenden tot honderdduizenden tokens.

Hoe Refront Dit Gebruikt

Refront integreert LLM's als de motor achter de AI-agents. Het model analyseert ticketbeschrijvingen, genereert codeoplossingen via de Cursor MCP-integratie, schrijft projectsamenvattingen en stelt offertes op. Door retrieval-augmented generation (RAG) te combineren met LLM's levert Refront contextbewuste antwoorden op basis van projectspecifieke data.

Voorbeelden

  • •Een LLM analyseert een ticketbeschrijving en genereert automatisch een gestructureerd plan met technische taken.
  • •De Refront AI-agent gebruikt een LLM om code te genereren die een specifieke bug oplost op basis van de foutmelding.
  • •Een LLM vat een uitgebreid klantgesprek samen in drie kernpunten die als tickets worden aangemaakt.

Gerelateerde Begrippen

prompt-engineeringragfine-tuningai-agent

Lees ook

  • Wat is Prompt Engineering?
  • Wat is RAG?
  • Wat is Fine-tuning?
  • AI-functies van Refront

Veelgestelde Vragen

Wat is het verschil tussen GPT en een LLM?

GPT (Generative Pre-trained Transformer) is een specifiek LLM ontwikkeld door OpenAI. "LLM" is de overkoepelende term voor alle grote taalmodellen, waaronder GPT, Claude, Gemini, Llama en andere. GPT is dus een voorbeeld van een LLM.

Hoe weet een LLM wat het juiste antwoord is?

Een LLM "weet" niet letterlijk wat juist is. Het voorspelt het meest waarschijnlijke volgende woord op basis van patronen geleerd uit trainingsdata. De kwaliteit hangt af van de training, de instructies (prompts) en eventuele fine-tuning op specifieke taken.

Kunnen LLM's hallucineren?

Ja, LLM's kunnen plausibel klinkende maar feitelijk onjuiste informatie genereren, ook wel hallucinatie genoemd. Technieken zoals RAG en grounding helpen dit te verminderen door het model te koppelen aan geverifieerde databronnen.

Klaar om te starten?

Probeer Refront gratis en ontdek hoe AI je workflow automatiseert.

Gratis proberenBekijk prijzen

Gerelateerde Pagina's

KennisbankWat is Prompt Engineering? - Uitleg & BetekenisPrompt engineering is de kunst van het formuleren van effectieve instructies voor AI-modellen om de gewenste output te verkrijgen. Leer hoe prompt engineering werkt.KennisbankWat is RAG (Retrieval-Augmented Generation)? - Uitleg & BetekenisRAG (Retrieval-Augmented Generation) combineert informatieophaling met AI-tekstgeneratie voor nauwkeurigere antwoorden. Leer hoe RAG werkt.KennisbankWat is Fine-tuning? - Uitleg & BetekenisFine-tuning is het proces van het verder trainen van een bestaand AI-model op domeinspecifieke data om betere prestaties te behalen. Leer hoe fine-tuning werkt.KennisbankWat is Machine Learning? - Uitleg & BetekenisMachine learning is een tak van kunstmatige intelligentie waarbij systemen leren van data zonder expliciet geprogrammeerd te worden. Leer hoe machine learning werkt.VoorbeeldenAI Ticket Resolutie — Hoe Refront Issues Automatisch OplostOntdek hoe Refront AI gebruikt om supporttickets automatisch te categoriseren, prioriteren en op te lossen. Verkort responstijden en maak je development team vrij.VoorbeeldenAI-Gestuurde Bug Triage — Classificeer en Routeer Issues DirectZie hoe Refront's AI automatisch binnenkomende bugrapporten classificeert op type, ernst en getroffen component — en ze in seconden naar de juiste developer routeert.

Refront is een workflow automatiseringsplatform gebouwd om teams te helpen werk om te zetten in opgeloste taken van begin tot eind.

© 2026 MG Software B.V. Alle rechten voorbehouden.

IntegratiesSlackGitHubAzure DevOpsStripeCursor
HulpbronnenKennisbankVergelijkingenOplossingenTemplatesVoorbeeldenDirectoryLocatiesTools
HomeFunctiesOver OnsContactPrijzenBlog