Reading Time: 8 minutes
AI verandert softwareontwikkeling in hoog tempo. Ontwikkelaars gebruiken tools zoals GitHub Copilot, Codex, Claude en andere AI-assistenten om sneller code te schrijven. Het doel is duidelijk: meer output in minder tijd. Maar wat vaak ontbreekt, is een eerlijk gesprek over de keerzijde. Is het wel echt beter, als AI-tools worden ingezet zonder duidelijke afspraken of aanpassingen in processen?
Dit artikel gaat niet over de vraag óf organisaties generatief AI moeten gebruiken. Die vraag is al beantwoord. Het gaat over de vraag hoe dit het beste wordt ingezet. Want ondoordacht AI-gebruik leidt niet tot de versnelling die iedereen verwacht. Het leidt tot nieuwe risico’s, gemiste kansen en hogere kosten.
Hoe AI vandaag in de SDLC wordt gebruikt
In veel organisaties ziet het AI-gebruik er ongeveer hetzelfde uit. Individuele ontwikkelaars experimenteren met tools. Het ene team gebruikt Copilot, het andere team werkt met Claude of Codex. Sommige teams hebben lokale afspraken gemaakt, andere niet. Weer een ander team is ermee gestopt omdat ze het te lastig vinden. Er is geen organisatiebrede aanpak, geen gedeelde kennis over wat werkt en wat niet.
Dit is begrijpelijk. AI-coding-tools zijn nieuw en ontwikkelen zich snel. Teams willen niet achterblijven en gaan zelf aan de slag. Maar deze aanpak heeft een prijs. Zonder centrale regie en kennisdeling ontstaat fragmentatie. Elk team doet het op zijn eigen manier. Teams vinden elk opnieuw het wiel uit. Goede werkwijzen worden niet gedeeld en fouten worden onnodig herhaald.
Wat vaak ontbreekt is aandacht voor vakmanschap. AI-tools maken het makkelijker om code te genereren, maar ze maken het niet makkelijker om goede software te ontwerpen. Dat vraagt nog steeds om kennis, ervaring en kritisch denkvermogen. Zonder investeringen in deze vaardigheden groeien junior ontwikkelaars niet in hun vakmanschap.
Het resultaat is dat AI wel wordt gebruikt, maar niet optimaal. De potentiële voordelen blijven liggen. En erger: er ontstaan nieuwe risico’s waar niemand zicht op heeft.
AI als bron van nieuwe risico’s
Wanneer AI-tools zonder duidelijke kaders worden ingezet, ontstaan risico’s op verschillende niveaus. Het begint bij de kwaliteit van de code. AI-gegenereerde code kan er goed uitzien, maar verborgen problemen bevatten. Zonder de juiste controles komen deze problemen pas later aan het licht. Soms pas in productie.
Daarnaast is er het risico van kennisverval. Als ontwikkelaars code accepteren zonder deze volledig te begrijpen, neemt de collectieve kennis van de codebase af. Dit maakt onderhoud en doorontwikkeling moeilijker en duurder.
En dan zijn er de security-risico’s. AI-tools hebben instructies en context nodig om nuttige suggesties te geven. Dit betekent dat gevoelige code, configuraties of zelfs credentials via deze tools kunnen lekken. Zonder harde afspraken over wat wel en niet mag worden gedeeld, is dit risico reëel.
Verkeerd versnellen vergroot ook het risico op gebruikersgemak.. AI-modellen zijn getraind op grote hoeveelheden code, waarvan de interface en manier van werken sterk verschillen. Zonder goede instructies, werken nieuwe interfaces of APIs niet lekker of consequent met bestaande functionaliteiten.
Deze risico’s ontstaan niet door AI zelf, maar door de manier waarop AI wordt ingezet. Zonder goede engineeringcultuur, gedegen pipelines en harde security gates ontstaan gaten. Het vraagt om een hoger niveau van vakmanschap en echte kennis over hoe deze tools werken.
De echte waarde zit niet in snellere code
Een veelgehoorde aanname is dat het voordeel van AI zit in meer code schrijven met minder mensen. Dit is een misvatting. De echte waarde van AI in softwareontwikkeling zit niet in het produceren van meer regels code. Het zit in het sneller leveren van businesswaarde.
Dit onderscheid is belangrijk. Meer code is geen doel op zich. Sterker nog, meer code betekent vaak meer onderhoud, meer complexiteit en meer potentiële bugs. Het is niet belangrijk hoeveel code een team kan produceren, maar hoe snel een organisatie waarde kan leveren aan klanten en gebruikers.
Dit vraagt om een andere kijk op AI-adoptie. Het gaat niet alleen om tools voor ontwikkelaars. Het gaat om het verbeteren van de hele waardeketen: van idee tot productie, van backlog tot klantwaarde. En dat vraagt om samenwerking tussen IT en business.
Veel bedrijven hebben nog een sterke focus op planning en het opleveren van releases. AI vraagt om een andere mindset. De mindset die veel kleinere bedrijven nog wel hebben: nauwe samenwerking tussen business en IT om de waarde voor gebruikers, klanten en de organisatie te optimaliseren. Niet meer code schrijven, maar sneller waarde leveren.
Waarom samenwerking met business onmisbaar is
Veel organisaties benaderen AI-adoptie als een puur technisch vraagstuk. De IT-afdeling experimenteert met tools, evalueert opties en rolt uit wat werkt. Maar deze aanpak mist een cruciaal element: de verbinding met businessdoelen.
De kracht van AI wordt pas zichtbaar wanneer de hele keten wordt geoptimaliseerd. Dit betekent niet alleen sneller coderen, maar ook sneller specificeren, sneller testen en sneller feedback verwerken. En dat kan alleen als IT en business samen optrekken.
CIOs die de echte waarde van AI willen pakken, moeten daarom verder kijken dan tooling alleen. Ze moeten samen met business stakeholders investeren in het verbeteren van de gehele waardeketen. Dit vraagt om tijd, budget en commitment van beide kanten.
Compliance en privacy: randvoorwaarden, geen blokkade
Een veelgehoord argument om AI-adoptie te vertragen is het risico op het gebied van privacy, dataveiligheid en compliance. Deze zorgen zijn terecht. Maar ze zijn geen reden om AI niet te gebruiken. Ze zijn randvoorwaarden die moeten worden ingeregeld.
Het verschil is belangrijk. Randvoorwaarden kun je organiseren. Je kunt afspraken maken over welke data wel en niet via AI-tools mag worden verwerkt. Je kunt policies opstellen, tooling selecteren die aan eisen voldoet en medewerkers trainen in veilig gebruik.
Organisaties die compliance en privacy als blokkade zien, lopen het risico om stil te blijven staan terwijl de markt door beweegt. De vraag is niet óf je AI veilig kunt gebruiken, maar hoe je dit organiseert.
Wat dit vraagt van leiderschap
De risico’s van onvolwassen AI-gebruik zijn geen technische problemen. Het zijn organisatorische uitdagingen. En die vragen om leiderschap.
CIO’s en engineering leaders moeten zicht krijgen op hoe AI vandaag binnen hun organisatie wordt gebruikt. Ze moeten het gesprek aangaan over wat wel en niet acceptabel is. Ze moeten investeren in het verhogen van het vakmanschap, zodat teams AI-tools op een verantwoorde en effectieve manier kunnen inzetten.
Dit vraagt om een cultuur waarin leren centraal staat. Waarin teams kennis delen over wat werkt en wat niet. Waarin fouten worden gezien als leermomenten, niet als falen. En waarin de organisatie als geheel vooruitgang boekt, niet alleen individuele teams.
Bewustwording als eerste stap
AI-adoptie zonder grip creëert nieuwe problemen. Problemen die niet direct zichtbaar zijn, maar die zich opstapelen. Denk aan kwaliteit van code, security-risico’s, en gemiste kansen om sneller businesswaarde te leveren.
De eerste stap naar doordacht AI-gebruik is bewustwording. Weten waar je staat. Begrijpen welke risico’s je loopt. En erkennen dat de voordelen van AI alleen binnen bereik komen als je bereid bent te investeren in de juiste randvoorwaarden.
Wij nodigen je uit om kritisch te kijken naar de huidige situatie. Want pas als je weet waar je staat, kun je bepalen waar je naartoe wilt.
Boek een video-call met Peter Koning


