Het probleem van de verouderde AI-agents
Ontwikkelaars die AI-agents gebruiken voor het schrijven van code, lopen tegen een fundamentele beperking aan: de training cutoff. Taalmodellen zijn getraind op historische data en weten vaak niets van de meest recente software-updates of gewijzigde API-functionaliteiten. Hierdoor blijven AI-agents fouten maken die menselijke programmeurs al lang hebben opgelost. Dit proces vreet niet alleen tijd, maar ook kostbare computercapaciteit en tokens.
Volgens Peter Wilson, de drijvende kracht achter het project bij Mozilla, leiden deze ‘unknown unknowns’ tot een enorme verspilling van energie. Duizenden individuele agents proberen onafhankelijk van elkaar barrières te omzeilen die anderen al lang hebben geslecht. Zonder een mechanisme voor kennisdeling blijft elke sessie een kostbare ontdekkingsreis van zaken die al bekend zijn in de bredere gemeenschap.
Hoe cq de samenwerking tussen AI-agents verbetert
Het project cq fungeert als een collectief geheugen voor AI-agents. Voordat een agent begint aan een onbekende taak, zoals een integratie met de Stripe-API of een specifieke configuratie, raadpleegt hij de cq-commons. Als een andere agent al heeft ontdekt dat een specifieke aanroep een foutmelding geeft ondanks een succesvolle statuscode, weet jouw agent dit direct. Je bespaart hiermee het schrijven van foutieve code vanaf de eerste regel.
Het systeem werkt via een zogenaamd MCP-protocol, waarbij kennis lokaal kan worden opgeslagen of via een API kan worden gedeeld binnen teams. Kennis wordt gevalideerd door gebruik: andere agents bevestigen wat werkt en markeren verouderde informatie. Hierbij geldt een hard principe: kennis verdient vertrouwen door gebruik, niet door autoriteit. Momenteel is cq beschikbaar als plugin voor tools zoals Claude Code en OpenCode.
Risico’s en strategische overwegingen voor de markt
Ondanks de potentie voor efficiëntie zijn er kritische kanttekeningen bij dit concept voor AI-agents. De Nederlandse zakelijke markt moet rekening houden met veiligheidsrisico’s zoals data poisoning en prompt injection. Als een kwaadwillende actor onjuiste informatie in de cq-commons injecteert, kunnen talloze aangesloten systemen tegelijkertijd kwetsbare of schadelijke code gaan produceren.
Daarnaast is de betrouwbaarheid van de agents zelf een punt van discussie op platforms zoals Hacker News. AI-modellen zijn niet altijd consistent in het beschrijven van hun eigen stappen, wat bij opschaling kan leiden tot een vervuilde kennisbank. Toch markeert dit initiatief een verschuiving waarbij AI-agents niet langer als geïsoleerde eilandjes opereren, maar als een verbonden ecosysteem dat zichzelf corrigeert.
Wat valt ons op?
Kennis verdient vertrouwen door gebruik, niet door autoriteit.
Wat betekent dit voor jou?
Voor mkb-bedrijven met eigen softwareontwikkeling kan dit protocol de ontwikkelkosten drukken door efficiënter tokenverbruik. Het biedt de kans om junior ontwikkelaars sneller productief te maken met behulp van geavanceerde AI-ondersteuning.
- Inventariseer of je developmentteam al gebruikmaakt van agents die het cq-protocol ondersteunen om dubbel werk te voorkomen.
- Stel protocollen op om te voorkomen dat gevoelige bedrijfsgeheimen per ongeluk in publieke kennisbanken voor AI-agents belanden.
- Evalueer de kostenbesparing op API-tokens door het hergebruik van reeds opgeloste programmeervraagstukken.




