Wat is een Large Language Model (LLM)? - Uitleg & Betekenis
Een large language model (LLM) is een AI-model getraind op enorme hoeveelheden tekst dat mensachtige taal kan begrijpen en genereren. Leer hoe LLM's werken.
Definitie
Een Large Language Model (LLM) is een AI-model gebaseerd op diepe neurale netwerken dat is getraind op miljarden woorden tekst. LLM's kunnen mensachtige tekst begrijpen, genereren, vertalen en samenvatten. Bekende voorbeelden zijn GPT-4, Claude en Gemini.
Technische Uitleg
LLM's zijn gebaseerd op de transformer-architectuur, geïntroduceerd in het paper "Attention is All You Need" (2017). Ze bestaan uit miljoenen tot biljoenen parameters die worden geoptimaliseerd tijdens het trainingsproces op grote tekstcorpora. De training verloopt in fases: pre-training op ongelabelde data (next-token prediction), gevolgd door fine-tuning en alignment via RLHF (Reinforcement Learning from Human Feedback). Inference vereist aanzienlijke rekenkracht en wordt geoptimaliseerd via technieken als quantisatie, caching en batching. Context windows variëren van duizenden tot honderdduizenden tokens.
Hoe Refront Dit Gebruikt
Refront integreert LLM's als de motor achter de AI-agents. Het model analyseert ticketbeschrijvingen, genereert codeoplossingen via de Cursor MCP-integratie, schrijft projectsamenvattingen en stelt offertes op. Door retrieval-augmented generation (RAG) te combineren met LLM's levert Refront contextbewuste antwoorden op basis van projectspecifieke data.
Voorbeelden
- •Een LLM analyseert een ticketbeschrijving en genereert automatisch een gestructureerd plan met technische taken.
- •De Refront AI-agent gebruikt een LLM om code te genereren die een specifieke bug oplost op basis van de foutmelding.
- •Een LLM vat een uitgebreid klantgesprek samen in drie kernpunten die als tickets worden aangemaakt.
Gerelateerde Begrippen
Veelgestelde Vragen
Wat is het verschil tussen GPT en een LLM?
GPT (Generative Pre-trained Transformer) is een specifiek LLM ontwikkeld door OpenAI. "LLM" is de overkoepelende term voor alle grote taalmodellen, waaronder GPT, Claude, Gemini, Llama en andere. GPT is dus een voorbeeld van een LLM.
Hoe weet een LLM wat het juiste antwoord is?
Een LLM "weet" niet letterlijk wat juist is. Het voorspelt het meest waarschijnlijke volgende woord op basis van patronen geleerd uit trainingsdata. De kwaliteit hangt af van de training, de instructies (prompts) en eventuele fine-tuning op specifieke taken.
Kunnen LLM's hallucineren?
Ja, LLM's kunnen plausibel klinkende maar feitelijk onjuiste informatie genereren, ook wel hallucinatie genoemd. Technieken zoals RAG en grounding helpen dit te verminderen door het model te koppelen aan geverifieerde databronnen.
Klaar om te starten?
Probeer Refront gratis en ontdek hoe AI je workflow automatiseert.