HomeOver onsFunctiesPrijzenBlog
InloggenContact
Kennisbank

Wat is RAG (Retrieval-Augmented Generation)? - Uitleg & Betekenis

RAG (Retrieval-Augmented Generation) combineert informatieophaling met AI-tekstgeneratie voor nauwkeurigere antwoorden. Leer hoe RAG werkt.

Definitie

RAG (Retrieval-Augmented Generation) is een AI-architectuurpatroon dat de kracht van informatieophaling combineert met de generatieve capaciteiten van een taalmodel. In plaats van puur te vertrouwen op de trainingsdata van het model, haalt RAG relevante documenten op uit een externe kennisbron en gebruikt deze als context voor het genereren van nauwkeurigere antwoorden.

Technische Uitleg

Een RAG-pipeline bestaat uit drie stappen: indexeren (documenten worden omgezet naar embeddings en opgeslagen in een vector database), ophalen (de gebruikersvraag wordt omgezet naar een embedding en de meest relevante documenten worden opgehaald via similarity search) en genereren (de opgehaalde documenten worden als context meegegeven aan het LLM). Chunking-strategieën bepalen hoe documenten worden opgedeeld. Re-ranking verbetert de relevantie van opgehaalde resultaten. Hybride zoeksystemen combineren dense retrieval (embeddings) met sparse retrieval (BM25/keyword search) voor betere recall.

Hoe Refront Dit Gebruikt

Refront gebruikt RAG om AI-agents toegang te geven tot projectspecifieke kennis. Wanneer een agent een ticket oppakt, worden relevante documenten, eerdere tickets en codebase-informatie opgehaald om de context te verrijken. Dit resulteert in nauwkeurigere en projectrelevantere output dan een generiek LLM zou leveren.

Voorbeelden

  • •De AI-agent zoekt in de projectdocumentatie via RAG om een ticket op te lossen op basis van bestaande architectuurbeslissingen.
  • •RAG haalt eerdere vergelijkbare tickets op zodat de AI kan leren van hoe het team deze eerder heeft opgelost.
  • •Bij het genereren van een offerte gebruikt RAG historische projectdata om realistische tijdschattingen te geven.

Gerelateerde Begrippen

large-language-modelvector-databaseprompt-engineeringai-agent

Lees ook

  • Wat is een Vector Database?
  • Wat is een LLM?
  • Wat is Prompt Engineering?
  • AI-functies van Refront

Veelgestelde Vragen

Waarom is RAG beter dan alleen een LLM gebruiken?

Een LLM kan alleen antwoorden op basis van zijn trainingsdata, die verouderd of onvolledig kan zijn. RAG voegt actuele, domeinspecifieke informatie toe als context, waardoor de antwoorden nauwkeuriger, relevanter en minder vatbaar voor hallucinatie zijn.

Wat is het verschil tussen RAG en fine-tuning?

Fine-tuning past de gewichten van het model permanent aan op nieuwe data, terwijl RAG de data dynamisch ophaalt tijdens het genereren van een antwoord. RAG is flexibeler omdat de kennisbron eenvoudig kan worden bijgewerkt zonder het model opnieuw te trainen.

Welke soorten documenten kunnen worden gebruikt in een RAG-systeem?

RAG kan werken met vrijwel elk tekstformaat: documenten, wiki-pagina's, code, e-mails, ticketbeschrijvingen, chat-logs en meer. De documenten worden eerst omgezet naar embeddings en opgeslagen in een vector database.

Klaar om te starten?

Probeer Refront gratis en ontdek hoe AI je workflow automatiseert.

Gratis proberenBekijk prijzen

Gerelateerde Pagina's

KennisbankWat is een Vector Database? - Uitleg & BetekenisEen vector database is een database geoptimaliseerd voor het opslaan en doorzoeken van hoog-dimensionale vectoren. Leer hoe vector databases werken in AI-systemen.KennisbankWat is een Large Language Model (LLM)? - Uitleg & BetekenisEen large language model (LLM) is een AI-model getraind op enorme hoeveelheden tekst dat mensachtige taal kan begrijpen en genereren. Leer hoe LLM's werken.KennisbankWat is Prompt Engineering? - Uitleg & BetekenisPrompt engineering is de kunst van het formuleren van effectieve instructies voor AI-modellen om de gewenste output te verkrijgen. Leer hoe prompt engineering werkt.KennisbankWat is Fine-tuning? - Uitleg & BetekenisFine-tuning is het proces van het verder trainen van een bestaand AI-model op domeinspecifieke data om betere prestaties te behalen. Leer hoe fine-tuning werkt.VoorbeeldenAI Ticket Resolutie — Hoe Refront Issues Automatisch OplostOntdek hoe Refront AI gebruikt om supporttickets automatisch te categoriseren, prioriteren en op te lossen. Verkort responstijden en maak je development team vrij.VoorbeeldenAI-Gestuurde Bug Triage — Classificeer en Routeer Issues DirectZie hoe Refront's AI automatisch binnenkomende bugrapporten classificeert op type, ernst en getroffen component — en ze in seconden naar de juiste developer routeert.

Refront is een workflow automatiseringsplatform gebouwd om teams te helpen werk om te zetten in opgeloste taken van begin tot eind.

© 2026 MG Software B.V. Alle rechten voorbehouden.

IntegratiesSlackGitHubAzure DevOpsStripeCursor
HulpbronnenKennisbankVergelijkingenOplossingenTemplatesVoorbeeldenDirectoryLocatiesTools
HomeFunctiesOver OnsContactPrijzenBlog