De afgelopen maanden heb ik meer tools gebouwd dan in de twintig jaar daarvoor. Zonder team. Zonder development budget. Gewoon ik, een laptop, en Claude Code en Cursor.
Vibe coding. Het werkt. Ik bouw scanners, dashboards, monitorsystemen en assessment tools. Als iemand die nooit eerder een regel code schreef die in productie draaide. Het voelt als een superkracht.
Maar er zit een addertje onder het gras. En dat addertje wordt door bijna niemand benoemd.
De belofte klinkt simpel
De pitch van vibe coding is verleidelijk. Je hebt een idee. Je beschrijft wat je wilt. De AI schrijft de code. Je deployt naar Vercel of een andere hosting. Klaar. Tool live. Volgende idee.
Voor een bepaald type tool klopt (opent in nieuw venster) dat verhaal ook. Wil je een mooie rekentool? Een quiz? Een converter? Dan ben je binnen een uur klaar. De AI genereert perfecte React componenten, schrijft foutloze CSS en levert iets op waar je een jaar geleden een team van drie developers voor nodig had.
Maar zodra je tool iets nuttigs moet doen met actuele informatie, verandert het verhaal.
Het moment dat het duur wordt
Ik merkte het toen ik een stock screener bouwde. Het idee was simpel: toon aandelen die voldoen aan bepaalde waarderingscriteria. Het probleem: die koersdata moet ergens vandaan komen.
Dus ga je naar een financial data API. En dan zie je de prijzen. Honderd dollar per maand. Tweehonderd. Vijfhonderd. Voor de echt goede data met historische fundamentals zit je op duizend dollar per maand. En dan heb je alleen de data. Je moet hem nog verwerken, opslaan en serveren.
Hetzelfde geldt voor weer-data, real-time verkeersinformatie, medische databases, juridische bronnen. Alles wat actueel en betrouwbaar moet zijn, kost geld. Vaak veel geld.
En dat is het punt waar de meeste vibe coders stoppen. Ze hebben een briljant idee. Ze kunnen het bouwen. Maar ze kunnen het niet voeden.
De tweede muur: AI kost ook geld
Dan is er nog een tweede kostenpost die vaak over het hoofd wordt gezien. Veel tools gebruiken een LLM onder de motorkap. Een chatbot, een analysefunctie, een samenvattingstool. Allemaal leuk. Allemaal draaiend op een API van OpenAI, Anthropic of Google.
En die API's zijn niet gratis.
Elke keer dat een gebruiker een vraag stelt, betaal je. Elke analyse kost tokens. Elke samenvatting kost geld. Bij tien gebruikers per dag merk je het niet. Bij duizend gebruikers per dag merk (opent in nieuw venster) je het.
Ik heb het zelf meegemaakt. Een tool gebouwd die via de Claude API een schadeformulier beoordeelt. Werkt prachtig. Maar elke beoordeling kost tokens. En als dat er duizenden per maand worden, tikt dat door.
De AI maakt het bouwen goedkoop. Maar het draaien is een ander verhaal.
De derde uitdaging: LLM's weten niet alles
Er is nog iets. De grote taalmodellen zijn knap, maar ze zijn niet actueel. Ze hebben een kennisgrens. En die grens merk je precies op het moment dat je een tool bouwt die betrouwbare, actuele informatie moet geven.
Ik werk in de verzekeringswereld. Probeer maar eens aan een LLM te vragen wat de huidige polisvoorwaarden zijn van een specifieke verzekeraar. Of wat de premie is voor een bestelautoverzekering met een bepaald schadeverleden. Het model doet zijn best. Het geeft je een antwoord dat er geloofwaardig uitziet. Maar het is niet betrouwbaar.
En dat is gevaarlijk. De output ziet er overtuigend uit. Je moet al expert zijn om te zien dat het antwoord niet klopt.
De echte moat: je eigen data
En hier wordt het interessant. Want er is een categorie bouwers voor wie dit verhaal er heel anders uitziet.
Dat zijn de mensen en bedrijven die over eigen data beschikken.
Als je twintig jaar aan klantdata hebt (opent in nieuw venster). Als je duizenden polisvoorwaarden in een database hebt staan. Als je historische schadedata, conversiepercentages, marktinformatie of specialistische kennis hebt opgebouwd. Dan verandert de hele vergelijking.
Want dan hoef je geen dure API af te nemen. Dan ben je zelf de bron.
En hier komt het mooie: met een vector database kun je die eigen data doorzoekbaar en bruikbaar maken voor AI. Je bouwt je eigen kennisbank die een LLM kan raadplegen. Niet de algemene kennis van het internet. Maar jouw specifieke, actuele, betrouwbare data.
Dat kost tijd om op te bouwen. Dat klopt. Je moet je data opschonen, structureren, embeddings maken, een retrieval systeem inrichten. Dat is niet iets wat je in een middag doet.
Maar als je het eenmaal hebt, heb je iets wat niemand anders kan nabouwen door even te vibe coden.
De nieuwe scheidslijn
Ik zie een nieuwe scheidslijn ontstaan in de wereld van AI tools.
Aan de ene kant heb je tools die iedereen kan bouwen. Mooie interfaces, slimme UX, aangedreven door publieke API's en generieke LLM kennis. Die tools worden een commodity. Er zijn er straks duizenden van. Ze lijken op elkaar. Ze kosten hetzelfde. Ze concurreren op design en marketing.
Aan de andere kant heb je tools die gebouwd zijn op unieke data. Op domeinkennis die niet te googelen is. Op jarenlang opgebouwde expertise die nu, voor het eerst, schaalbaar wordt gemaakt door AI.
Die tweede categorie is waar de waarde zit.
De paradox van vibe coding
En zo ontstaat er een paradox.
Vibe coding democratiseert het bouwen (opent in nieuw venster). Iedereen kan nu een tool maken. De technische drempel is weg. Dat is fantastisch en ik ben er oprecht enthousiast over.
Maar juist omdat iedereen kan bouwen, verschuift de waarde. Van technische vaardigheid naar inhoudelijke kennis. Van kunnen coderen naar iets te weten hebben dat de moeite van het coderen waard is.
De vraag is niet meer: kun je het bouwen?
De vraag is: heb je data die het bouwen waard is?
Wat betekent dit voor jou?
Als je een bedrijf runt, kijk dan eens anders naar je data. Die klantendatabase waar niemand naar omkijkt. Die Excel sheets met tien jaar aan marktinformatie. Die interne kennisbank die stof verzamelt.
Dat is geen achterstallig onderhoud. Dat is je toekomstige voordeel.
Begin met het structureren ervan. Kijk naar vector databases. Experimenteer met retrieval augmented generation. Je hoeft geen AI expert te zijn. Met de tools van vandaag kun je dit stap voor stap opbouwen.
En als je een professional bent die al twintig jaar in een bepaald vakgebied werkt? Dan heb je iets dat geen enkel LLM heeft. Actuele, specifieke, domeingebonden kennis. Die kennis schaalbaar maken met AI is misschien wel de beste investering die je dit jaar kunt doen.
De tools om te bouwen zijn er. De AI om het slim te maken is er. Het enige dat niet te kopiëren is, ben jij. En je data.
Dat is je moat.
