In dit artikel
1 Wat is Prompt Engineering?
Prompt Engineering is de vaardigheid om effectieve instructies (prompts) te schrijven voor AI-modellen, met name Large Language Models (LLMs). Het is de interface tussen menselijke intentie en AI-output.
TL;DR
Prompt engineering is niet "gewoon vragen stellen" — het is het strategisch formuleren van input om de beste output te krijgen. Net zoals programmeren regels heeft, heeft prompting patronen en best practices.
Een prompt kan variëren van een simpele vraag ("Wat is de hoofdstad van Nederland?") tot complexe instructies met context, voorbeelden, en output-specificaties.
2 Waarom is het belangrijk?
Dezelfde LLM kan radicaal verschillende resultaten geven afhankelijk van hoe je vraagt. Een goed ontworpen prompt kan:
Voorbeeld: Dezelfde vraag, ander resultaat
"Schrijf iets over klimaat"
→ Vaag, ongestructureerd antwoord
"Je bent een klimaatwetenschapper. Schrijf een samenvatting van 150 woorden over de 3 grootste oorzaken van klimaatverandering, met percentages. Schrijf in zakelijke toon voor een bedrijfsrapport."
→ Gefocust, geformatteerd, bruikbaar
3 Anatomie van een goede prompt
Een effectieve prompt bevat doorgaans deze componenten:
Role / Persona
Geef het model een identiteit of expertise.
"Je bent een ervaren data scientist..."
Context
Achtergrond-informatie die nodig is.
"Gegeven deze dataset: [data]..."
Instructie / Task
De specifieke taak of vraag.
"Analyseer de trends en geef 3 aanbevelingen..."
Output Format
Hoe het antwoord eruit moet zien.
"Geef output als JSON met keys: title, summary, score"
Constraints
Beperkingen of randvoorwaarden.
"Maximaal 200 woorden. Geen technisch jargon."
4 Prompting Technieken
Direct een vraag stellen zonder voorbeelden. Werkt voor eenvoudige taken.
// Prompt:
"Classificeer dit review als positief of negatief: 'Geweldig product, snelle levering!'"
Geef enkele voorbeelden van input → output paren. Het model leert het patroon.
// Prompt:
"Classificeer reviews:
'Super blij mee!' → positief
'Kapot aangekomen' → negatief
'Precies wat ik zocht' → positief
'Prima kwaliteit voor de prijs' → ?"
Vraag het model om zijn denkproces te tonen. Verhoogt accuracy bij complexe problemen.
// Prompt:
"Een winkel heeft 50 appels. Ze verkopen 23 's ochtends en krijgen 12 nieuwe binnen. Hoeveel hebben ze nu?
Denk stap voor stap."
Definieer gedrag dat voor alle berichten geldt (bij API-gebruik).
// System:
"Je bent een Nederlandse klantenservice agent voor een webshop. Antwoord altijd beleefd, bondig, en in het Nederlands. Als je iets niet weet, zeg dat eerlijk."
5 Best Practices
Wees specifiek
Vage prompts geven vage antwoorden. Definieer exact wat je wilt.
Geef context
Hoe meer relevant context, hoe beter het model kan afstemmen op je behoefte.
Specificeer output format
JSON, markdown, bullet points — zeg expliciet hoe je het wilt.
Gebruik delimiters
Scheid secties met """ of ### om structuur aan te geven.
Itereer
Prompt engineering is experimenteel. Test, evalueer, verbeter.
Veelgemaakte fouten
- Te lange prompts met irrelevante informatie
- Tegenstrijdige instructies geven
- Verwachten dat het model "weet" wat je bedoelt
- Geen voorbeelden bij ambigue taken
6 Praktijkvoorbeelden
📝 Code Review Prompt
Je bent een senior software engineer die code reviews doet.
Analyseer de volgende code op:
1. Bugs en potentiële fouten
2. Security vulnerabilities
3. Performance issues
4. Code style en best practices
Code:
"""
{code_here}
"""
Geef je feedback in dit format:
- 🐛 Bugs: [lijst]
- 🔒 Security: [lijst]
- ⚡ Performance: [lijst]
- 💅 Style: [lijst]
- ✅ Positief: [wat is goed?]
📊 Data Extraction Prompt
Extract de volgende informatie uit de tekst en geef output als JSON:
- bedrijfsnaam
- contactpersoon
- email
- telefoonnummer (null indien niet gevonden)
Tekst:
"""
{input_text}
"""
Output alleen valide JSON, geen uitleg.
7 Tools & Resources
OpenAI Prompt Guide
Officiële documentatie met best practices
Anthropic Prompt Library
Geteste prompts voor veelvoorkomende taken
LangChain Hub
Community-driven prompt repository
Playground Tools
ChatGPT, Claude, Gemini playgrounds voor testen
De toekomst van prompting
Naarmate modellen slimmer worden, zal prompt engineering evolueren. Technieken als constitutional AI, self-consistency, en tree-of-thought worden steeds relevanter. De basisprincipes — duidelijkheid, context, structuur — blijven echter cruciaal.
Gerelateerde artikelen
Hulp nodig bij prompt engineering?
Van system prompts voor chatbots tot complexe extraction pipelines — wij ontwerpen en optimaliseren prompts voor productie.
Neem contact op