Ga naar inhoud

Toetsingscriteria & AI-Native Principes

Doel

Deze pagina beschrijft de vijf kernprincipes die een AI-native aanpak onderscheiden van traditionele softwareontwikkeling, en de toetsingscriteria om te bepalen of een project onder deze principes valt.


1. Wanneer is dit van toepassing?

Een project valt onder de AI-native aanpak zodra het voldoet aan minstens twee van deze drie voorwaarden:

Voorwaarde Beschrijving
Materiële impact Het systeem beïnvloedt productie-outputs, beslissingen of klantinteracties.
Contextgestuurd gedrag Inputs die het gedrag sturen (prompts, RAG-bronnen, fine-tuning data) worden actief beheerd en geversioneerd.
Niet-deterministisch De output is probabilistisch — dezelfde input kan verschillende resultaten opleveren.

Zodra gekwalificeerd, gelden de vijf principes hieronder als leidraad voor governance, ontwikkeling en monitoring.


2. De Vijf AI-Native Principes

Principe 1 — Gedragssturing boven modelkeuze

Het gedrag van een AI-systeem wordt primair bepaald door specificaties, prompts en harde grenzen — niet door welk model eronder draait. Investeer in helder gedefinieerd verwacht gedrag vóór je investeert in modeloptimalisatie.

In de praktijk:

  • Schrijf een Goal Card vóór je een model kiest.
  • Definieer Harde Grenzen als ononderhandelbare randvoorwaarden.
  • Behandel prompts als geversioneerde artefacten, niet als wegwerp-experimenten.

Principe 2 — Proportionele governance

De zwaarte van controle, validatie en documentatie moet in verhouding staan tot het risico van het systeem. Een interne samenvattingstool vraagt om een lichtere aanpak dan een klantgericht beslissysteem.

In de praktijk:

  • Gebruik de Risicoclassificatie om het niveau te bepalen (Kritiek → Laag).
  • Fast Lane voor minimaal risico; volledig traject voor hoog risico.
  • Pas de bewijslast aan per Gate Review — niet elke gate vraagt dezelfde diepgang.

Principe 3 — Bewijs boven aannames

Elke claim over prestatie, veiligheid of waarde moet onderbouwd zijn met meetbare resultaten. Intuïtie en demo's zijn geen bewijs; gestructureerde tests en validatierapporten wel.

In de praktijk:

  • Stel een Golden Set samen vóór ontwikkeling.
  • Valideer op drie niveaus: syntactisch (werkt het?), gedragsmatig (doet het wat verwacht?), doelgericht (helpt het de gebruiker?).
  • Documenteer resultaten in een Validatierapport.

Principe 4 — Mens in de regie

AI-systemen opereren binnen door mensen bepaalde kaders. Bij hogere Samenwerkingsmodi (gedelegeerd, autonoom) worden de kaders strikter, niet losser.

In de praktijk:

  • Elke modus heeft expliciete escalatiecriteria en een noodstop.
  • De Guardian heeft vetorecht bij overschrijding van harde grenzen.
  • Human-in-the-loop is standaard; human-on-the-loop alleen na expliciete goedkeuring.

Principe 5 — Continue validatie

AI-gedrag verandert over tijd door datadrift, modelupdates en veranderende context. Validatie is daarom geen eenmalige activiteit maar een doorlopend proces.

In de praktijk:


3. Gerelateerde Modules