De 90% achter AI: engineering for reliability

Leo Simons & Julian Hessels
maart 27, 2026 · 3 min lezen Engels

AI is volwassen geworden, nu moet het worden ge-engineered

Artificial intelligence is een beslissend decennium ingegaan. Het is niet langer beperkt tot innovatieteams of verkennende proofs of concept, maar wordt steeds meer ingebed in de dagelijkse digitale infrastructuur van ondernemingen. AI raakt nu aan workflows, customer journeys, financiële analyses, operationele processen en software delivery. Daarmee is het verschoven van een optionele capability naar een structurele afhankelijkheid.

Deze verschuiving vereist een ander gesprek op bestuursniveau. De centrale vraag verandert van "Wat kan AI doen?" naar "Hoe zorgen we ervoor dat AI voorspelbaar, transparant en onder menselijke controle functioneert wanneer beslissingen er het meest toe doen?" De enterprise-adoptie van AI vraagt om architecturale helderheid en verantwoorde integratie. De technologie is volwassen geworden. Onze verantwoordelijkheid daaromheen moet dat ook.

Wat we waarnemen is niet simpelweg een technologische verschuiving, maar het ontstaan van een production gap. Een kleine groep organisaties industrialiseert AI structureel en bedt het in de kernoperaties in. De meerderheid blijft in pilot mode. De kloof tussen deze twee groepen wordt in de loop der tijd steeds groter, in kostenbasis, snelheid, kennisopbouw en besluitvormingskwaliteit. AI-volwassenheid is niet langer een kwestie van experimenteren, maar van concurrentiepositionering.

Onze mission-critical achtergrond geeft ons een duidelijke positie: AI is geen silver bullet. Het is een enabler waarvan de waarde overwegend wordt bepaald door de engineering, governance en operationele integriteit die eronder zit. Wij noemen dit perspectief de 90% achter AI: een herinnering dat betrouwbare AI veel minder wordt gedefinieerd door de kracht van de modellen dan door de betrouwbaarheid van de systemen eromheen.


De volgende fase van enterprise AI

AI is niet langer een verzameling pilots of innovatie-experimenten. Het is een structureel onderdeel van ons bedrijf geworden dat invloed heeft op customer experience, continuïteit, compliance en operational excellence. De vraag is niet langerwat AI kan doen, maar hoe we in control blijven terwijl intelligentie onderdeel wordt van onze kerninfrastructuur.

Zoals Jensen Huang (CEO Nvidia) recentelijk opmerkte, zal elk bedrijf binnenkort twee fabrieken exploiteren: één die producten of diensten produceert, en één die intelligentie produceert. De tweede fabriek is geen metafoor. Het is een ge-engineerde infrastructuur voor data, modellen, orchestration en control. Organisaties die AI als een project behandelen, bouwen experimenten. Organisaties die het als een fabriek behandelen, bouwen capability.

Deze verschuiving is zichtbaar in alle sectoren: organisaties die succesvol zijn, zijn diegenen die AI niet als experiment behandelen, maar als infrastructuur die discipline, governance en transparantie vereist.


Voorspelbare prestaties

AI belooft versnelling, inzicht en nieuwe mogelijkheden. Maar naarmate het verweven raakt met beslissingen die invloed hebben op klantvertrouwen, omzet en compliance, wordt de betrouwbaarheid de bepalende factor voor succes. Wanneer AI faalt, is de impact niet langer geïsoleerd. Het wordt operationeel, financieel en reputatiegerelateerd.

De governance-first benadering van Europa benadrukt explainability, accountability, lineage, security en sovereignty. In plaats van innovatie te vertragen, biedt dit duidelijkheid en helpt het organisaties om AI verantwoord op te schalen in plaats van experimenteel.

Deze verschuiving lijkt op eerdere transformaties in mission-critical IT. Betrouwbaarheid wordt de frontier van concurrentievermogen. Control wordt een ontwerpprincipe. En AI begint te verschuiven van een spannende capability naar een betrouwbaar onderdeel van enterprise-architectuur.

Naarmate het tempo van automatisering versnelt, worden betrouwbaarheid, transparantie en menselijk gezag de basis van vertrouwen. In alle industrieën zien we hetzelfde patroon: succes komt niet van het hebben van de meeste AI, maar van het zorgen dat AI voorspelbaar functioneert wanneer de stakes het hoogst zijn.

Ondernemingen die nalaten governance, oversight en engineering discipline in AI-systemen in te bouwen, stellen zichzelf bloot aan operationele, compliance- en reputatierisico's die niet langer beheersbaar blijven.

De 90% achter AI

AI van prototype naar productie brengen vereist engineering discipline. Systemen moeten observable, testbaar, uitlegbaar en altijd onder menselijk toezicht zijn. Naarmate AI-systemen evolueren naar meer autonoom gedrag, worden governed memory en gecontroleerd state management even cruciaal. Zonder duidelijke grenzen rond wat een AI-systeem kan onthouden, wijzigen of triggeren, kunnen kleine afwijkingen zich opstapelen over workflows en samenwerkende agents. Enterprise reliability hangt daarom niet alleen af van modelnauwkeurigheid, maar van gedisciplineerde controle over state, permissions en escalation paths.

Dit is de essentie van de 90% achter AI: de data foundations, software design practices, governance-structuren, integration patterns en security-maatregelen die gezamenlijk bepalen hoe AI zich gedraagt.

Data die je kunt vertrouwen is het anker. Je moet weten waar het vandaan komt, hoe het is behandeld en of er onderweg iets is veranderd. Die helderheid zorgt ervoor dat elk resultaat kan worden uitgelegd, verdedigd en verbeterd. Kwaliteit is niet iets dat je achteraf controleert, het is een dagelijkse standaard, geen regel die ergens in documentatie begraven ligt.

Dezelfde discipline geldt voor de AI-modellen zelf. Ze hebben duidelijke versies nodig, constante monitoring, real-world testing en de mogelijkheid om snel terug te schakelen als er iets misgaat. Visibility mag niet optioneel zijn; systemen moeten gedrag zichtbaar maken, niet verondersteld. En governance moet ingebouwd zijn in hoe dingen werken, door transparantie en reversibility, in plaats van als extra bureaucratie te worden toegevoegd.

En bovenal moet menselijk oversight absoluut blijven. AI versterkt menselijk oordeelsvermogen en kan, waar passend, opereren binnen duidelijk gedefinieerde grenzen onder menselijk toezicht. Duidelijke escalation paths, role-based accountability en human-in-the-loop principes zorgen ervoor dat verantwoordelijkheid bij mensen ligt, niet bij modellen. Zo wordt intelligentie infrastructuur in plaats van risico.


Onz
e richting: reliability by design

We richten ons bewust op de 90% achter AI – de engineering, governance en menselijk oversight die betrouwbare uitkomsten garanderen.

Onze aanpak is eenvoudig en strategisch:

  • Gebruik AI waar het meetbare business value creëert
  • Houd mensen in the loop bij alle belangrijke beslissingen
  • Bescherm onze data, onze klanten en onze integriteit
  • Schaal wat werkt, verantwoord en zichtbaar

Deze principes weerspiegelen onze interne waarden: helderheid van doel, verantwoord datagebruik, transparantie, risicobewustzijn en continue verbetering.

Deze afstemming zorgt ervoor dat naarmate AI-capabilities evolueren, de controle bij ons blijft, niet bij het systeem.


Waarom
Narrow AI werkt voor de enterprise

Het afgelopen decennium stond in het teken van monolithische, general-purpose modellen: krachtige maar ondoorzichtige systemen die probeerden veel problemen tegelijk op te lossen. In business-critical contexten introduceert afhankelijkheid van monolithische, general-purpose modellen ambiguiteit, onverklaarbaarheid en operationeel risico dat veel ondernemingen niet bereid zijn te accepteren. Zelfs wanneer krachtige general-purpose modellen worden gebruikt, begrenzen ondernemingen ze steeds vaker binnen domeinspecifieke boundaries, policy layers en orchestration frameworks om accountability en operational control te waarborgen.

Ondernemingen bewegen richting narrow, domeinspecifieke AI-systemen – niet omdat general models capability missen, maar omdat organisaties control nodig hebben. Domeingerichte AI opereert binnen duidelijke taken en gedefinieerde grenzen. Dat maakt het gemakkelijker om te besturen, te valideren, uit te leggen en af te stemmen op regelgevende frameworks zoals de EU AI Act. In die zin gedraagt het zich meer als enterprise software: testbaar, observable en accountable.

General models zoals Claude worden op schaal ingezet, maar vaak binnen beperkte use cases. Zelfs krachtige foundation models vereisen context, guardrails en orchestration layers om enterprise-ready te worden. Ruwe capability alleen staat niet gelijk aan operational reliability. Op schaal heeft AI een harnas nodig.

Dit is geen terugtrekking uit general intelligence. Het is architecturale discipline. Ondernemingen leren dat adoptie minder afhangt van modelbreedte en meer van helderheid van scope, accountability en integratie in bestaande systems of record en control.

In de komende zes maanden kan de balans verschuiven qua tooling en vendor positioning, maar de onderliggende enterprise-logica zal waarschijnlijk niet veranderen: organisaties zullen general models blijven combineren met domeinspecifieke lagen die ze begrenzen, contextualiseren en operationaliseren.

Net als bij IT-modernisering is de winnende architectuur zelden de krachtigste op zichzelf. Het is degene die kan worden bestuurd, geschaald en vertrouwd.

Het scaling-probleem is het echte probleem

Veel organisaties slagen erin AI in één enkele use case te deployen. Een chatbot werkt. Een document analyzer werkt. Een coding assistant werkt. De fout is aan te nemen dat dit succes automatisch overdraagbaar is naar het volgende domein.

Huidige AI agents redeneren voor elke taak vanuit nul. Context wordt herhaaldelijk gereconstrueerd. Succesvolle procedures worden niet opgeslagen als herbruikbare runbooks. Token-verbruik escaleert. Kosten stijgen. Latency neemt toe. En onvoorspelbaarheid wordt de verborgen belasting van schaal.

Zonder gedeelde knowledge infrastructure blijft AI een verzameling eilanden in plaats van een samenhangende enterprise capability.

Modulariteit in plaats van monolieten

In plaats van te vertrouwen op één groot model, verschuiven organisaties richting multi-agent systems bestaande uit veel kleinere, gespecialiseerde componenten. Elke agent voert één taak transparant uit, met expliciete inputs, outputs en verantwoordelijkheden.

Geïnspireerd door benaderingen zoals het 12-Factor Agents framework, maakt deze modulaire intelligentie het mogelijk dat systemen evolueren zonder fragiel te worden. Agents kunnen onafhankelijk worden geüpgraded, vervangen of geversioned. Falen blijft lokaal. Grenzen blijven duidelijk. Menselijk oversight blijft intact.

Dit is AI ontworpen voor hoe ondernemingen daadwerkelijk werken: distributed, federated, supervised en resilient. Naarmate agent-based architecturen volwassen worden, wordt orchestration net zo belangrijk als modelprestaties. Agents voeren steeds vaker taken uit, roepen tools aan en coördineren met andere systemen. Dit vereist runtime governance: expliciete permissions, scoped memory, continue observability van acties en de mogelijkheid om capabilities onmiddellijk in te trekken of te herroepen. Zonder deze controlelaag schaalt autonomie risico sneller dan waarde.


De cognitive backbone: shared intelligence op
schaal

Het schalen van AI vereist meer dan modulaire agents. Het vereist een shared cognitive backbone: een gelaagde knowledge infrastructure die domeinentiteiten (ontology) formaliseert, de actuele operationele staat (context graph) en gestandaardiseerde bedrijfsdefinities (semantic layer).

Boven op deze backbone bevinden zich herbruikbare runbooks – bewezen procedures die agents kunnen uitvoeren zonder elke beslissing opnieuw van de grond af te berekenen. In plaats van elke taak te improviseren, leert het systeem structureel.

Het resultaat is niet alleen lager token-verbruik en latency, maar samengestelde organisationele intelligentie. Elke uitvoering versterkt het systeem in plaats van een geïsoleerde interactie te blijven.

Wanneer intelligentie infrastructuur wordt, moet control bewust zijn. Observability, lineage en explainability transformeren ondoorzichtige automatisering in transparant digitaal teamwork. Deze systemen gedragen zich als co-engineers – zichtbaar, inspecteerbaar en afgestemd op beleid. Niets loopt uit de hand. Alles draait onder governance.


Governance
als asset

Europese AI-volwassenheid wordt gedefinieerd door een governance-first mindset. Regelgeving zoals de EU AI Act, NIS2 en GDPR is geen rem op innovatie maar een framework dat vertrouwen institutionaliseert. Het creëert duidelijkheid over hoe "goede AI" eruitziet: uitlegbaar, reversible, accountable en onder menselijk toezicht.

Dit regelgevende fundament sluit van nature aan bij onze aanpak. Ons werk brengt AI engineering, risk en compliance, security en digital sovereignty samen om systemen te creëren die controlled by design en reversible by architecture zijn. Bewijs vervangt claims. Observability vervangt aannames. Compliance wordt een enabler in plaats van een obstakel.

Organisaties die deze aanpak omarmen, krijgen een strategisch voordeel. Ze bouwen AI die bestand is tegen toetsing, zich aanpast onder druk en met vertrouwen schaalt.


Van pilots
naar productie: hoe waarde wordt gecreëerd

AI creëert waarde wanneer het veilig te schalen is. De meest succesvolle organisaties volgen een gedisciplineerd pad: een pad dat experimenteren in evenwicht brengt met governance en engineering.

Interne productiviteit versnelt als eerste. Tools zoals GitHub Copilot en Claude Code verkorten development cycles, verminderen cognitive load en stellen teams in staat zich te richten op werk met hogere waarde. Deze voordelen schalen verder door governed, low-code AI-omgevingen die veilige experimentatie mogelijk maken binnen enterprise guardrails.

Klantgerichte en domeinspecifieke AI-oplossingen volgen. Of het nu gaat om code modernization, financiële inzichten, customer operations of legacy transformation, waarde ontstaat wanneer AI is ingebed in architecturen die gebouwd zijn voor lineage, explainability en auditability.

Risk, compliance, security en sovereignty spelen een versnellende rol in plaats van een beperkende. Digital sovereignty elimineert niet de tradeoffs tussen capability, kosten en control, maar zorgt ervoor dat die tradeoffs bewust worden gemaakt, niet standaard worden geërfd. Met duidelijke exit strategies, model portability en sovereign deployment-opties behouden organisaties vrijheid van handelen en vermijden ze de lock-in die eerdere technologiegolven teisterde.

AI-waarde wordt meetbaar, niet alleen door productiviteit maar door lagere kosten van falen, verbeterde resilience, minder incidenten, betere audit-uitkomsten en snellere moderniseringscycli. Betrouwbaarheid transformeert van een risicobeperkende exercitie naar een groei-asset.

Organisaties die AI structureel industrialiseren ervaren meetbare verschuivingen:

  • Lagere token- en compute-kosten door herbruikbare procedures
  • Lagere incidentfrequentie door deterministic orchestration
  • Snellere cycle times in engineering en operations
  • Verbeterde audit-uitkomsten door ingebouwde traceability
  • Minder vendor lock-in door model portability

Na verloop van tijd stapelen deze effecten zich op. AI houdt op een cost center-experiment te zijn en wordt een structurele margin enhancer.

Drie pijlers van control

Naarmate AI onderdeel wordt van enterprise-architectuur, versterken drie pijlers elkaar:

  • Resilience – continuïteit waarborgen, zelfs wanneer systemen degraderen.
  • Sovereignty – vrijheid van keuze waarborgen naarmate afhankelijkheden evolueren.
  • Reliability – vertrouwen waarborgen naarmate besluitvorming wordt geaugmenteerd.

Deze pijlers delen hetzelfde DNA: distributed readiness, reversibility en engineering discipline. Ze definiëren het verschil tussen organisaties die AI deployen en organisaties die het controleren.


Control is de
architectuur

Onze mission-critical ervaring geeft ons een uniek perspectief. We hebben twee decennia besteed aan het zorgen dat levenskritieke, financiële en high-integrity systemen voorspelbaar presteren, veilig falen en onder menselijk commando blijven. We brengen diezelfde filosofie naar AI.

We ontwerpen AI-systemen als ge-engineerde, observable, governed componenten – niet als black-box ambities. We bouwen met sovereignty in gedachten, zodat klanten control behouden in cloud, on-premise, air-gapped en hybride omgevingen waar dat nodig is. We ontwerpen voor reversibility, zodat beslissingen die vandaag worden genomen organisaties morgen niet vastzetten. En we zorgen ervoor dat intelligentie menselijk gezag ondersteunt in plaats van ondermijnt.

De mate van autonomie die aan AI wordt verleend, moet altijd proportioneel zijn aan de gecertificeerde betrouwbaarheid. Systemen die adviseren, tolereren onzekerheid. Systemen die autonoom uitvoeren, vereisen verifieerbare controls, drift detection en escalation mechanisms. Die kalibratie is geen technisch detail. Het is een governance-beslissing op bestuursniveau.

In een wereld waar intelligentie door alles heen loopt, is control geen beleid maar de architectuur. En betrouwbaarheid is geen feature, het is de voorwaarde voor vertrouwen, waarde en leiderschap.

De vraag voor leiderschap is niet langer of AI zal volwassen worden. Dat zal het. De vraag is of jouw organisatie architecturaal volwassen wordt voordat concurrentienadeel structureel wordt.

AI is volwassen geworden. Het wordt onderdeel van het enterprise-landschap. Degenen die het engineeren om betrouwbaar te functioneren onder druk zullen het volgende tijdperk van digitaal leiderschap definiëren.

Wij bouwen AI op dezelfde manier als alles wat mission-critical is:

met discipline, transparantie en de mensen aan het roer.