BLOG – Met de opkomst van ai-agents is ai niet langer slechts een tool die werk overneemt. Ai wordt een autonome speler op de werkvloer met zijn eigen vereisten, verwachtingen en kwetsbaarheden. Deze verandering vraagt om nieuwe architectuurpatronen, nieuwe disciplines en een nieuwe kijk op hoe bedrijven contact onderhouden met klanten en hun technologie-stack beheren.
Organisaties die hier nu al op inspelen, bouwen een voorsprong op. De grootste veranderingen die we kunnen verwachten, zijn:
- Machines worden klanten
Transacties tussen apparaten onderling zijn niet nieuw, maar steeds vaker zullen organisaties ai-agents als klant moeten bedienen. Stel: een klant zoekt een designbureau met de beste prijskwaliteitverhouding. In plaats van dat een accountmanager zelf gaat zoeken, bouwt hij een ai-agent die dit voor hem uitpluist.
En dat zijn nog maar micro-beslissingen. Wat te denken van agents die toeleveringsketens kunnen optimaliseren binnen het klantportfolio, waarbij ze continu voorwaardes analyseren en servicecontracten dynamisch aanpassen? Er staan ons grote veranderingen te wachten.
Organisaties zullen hun tech-stack voor sales en marketing opnieuw onder de loep moeten nemen door de komst van ‘machineklanten’. Agents zijn genadeloos efficiënt, kennen nul loyaliteit en zullen niet twijfelen om over te stappen naar een concurrent als de voorwaarden daar beter zijn. Organisaties die niet toegerust zijn om met agents te communiceren (en direct kunnen reageren op verzoeken) zullen letterlijk onzichtbaar zijn. De organisaties die als winnaar uit de bus komen, zijn de organisaties die inzien dat agents geen geautomatiseerde klanten zijn, maar een nieuw type klant die realtime-data en ai-geoptimaliseerde interfaces nodig heeft.
- Context-engineering wordt een eigen discipline
Nu enterprise-organisaties opschalen naar multi-agentsystemen, zal de technische focus verschuiven van promptcreatie naar contextontwerp. Multi-agentworkflows worden steeds veeleisender met hun vraag naar tooldefinities, conversatiegeschiedenis en data uit verschillende bronnen. Dit brengt twee uitdagingen met zich mee: de hoeveelheid context neemt toe en modellen dreigen informatie over het hoofd te zien die verstopt zit in lange prompts, zogenaamde ‘context rot’.
Dit jaar zal context-engineering zich ontwikkelen tot een aparte discipline, met eigen teams en een speciale infrastructuur die de minimale, maar complete informatie levert die agents nodig hebben. De beste context engineers snappen zowel de beperkingen van llm’s als de semantische structuur van hun organisatie.
- Context-engines zijn de volgende stap in ai
Zelfs wanneer agents toegang hebben tot alle benodigde data, vormt het beheer van alle context de grootste bottleneck. Hoe kunnen organisaties complexe interacties inpassen in een omgeving met beperkte context? Hoe kunnen ze voorkomen dat llm’s overspoeld worden en minder accuraat worden? En wanneer er steeds meer context beschikbaar is, hoe voorkom je dat er geen belangrijke informatie verloren gaat?
Context-engines combineren datalevering, metadatabeheer en het voortdurend optimaliseren van context bij opeenvolgende verzoeken. Dit leidt niet alleen tot slimmere retrieval-augmented generation (RAG)-toepassingen, het is een geheel nieuwe architectuurlaag die speciaal gebouwd is voor contextbeheer op schaal.
- De semantische laag wordt de kritieke infrastructuur van ai
Enterprises zien in dat ai-agents zowel data als context nodig hebben. Bedrijven die al jaren werken aan hun data-lakes, merken nu al dat deze middelen ontoereikend zijn. Ai kan gegevens ophalen, maar zonder semantische context kan het acties of beweegredenen niet interpreteren.
Daarom zullen teams de stap maken van vector-search naar het opbouwen van kennis, cijfers, anthologieën en metadata-gedreven maps die ai leren hoe het bedrijf werkt. De strijd verschuift van het bezitten van ruwe data naar het bepalen van de betekenis ervan. Kant-en-klare agents zullen moeite hebben om te overleven in complexe omgevingen met domeinspecifieke semantiek. Daarom wordt de semantische laag net zo belangrijk als de database destijds was voor de ontwikkeling van analytics.
- Generatieve ai maakt modernisering van verouderde systemen mogelijk
Ai vormt de sleutel tot het moderniseren van verouderde systemen. De ‘leave-and-layer’-aanpak van voorheen verkleinde wellicht risico’s, maar creëerde problemen die met de tijd erger werden en maakte organisaties afhankelijk van leveranciers, met steeds minder onderhandelingsruimte.
De mogelijkheden van llm’s zijn over het algemeen flink verbeterd. Dankzij gespecialiseerde integrators zijn de risico’s en kosten teruggedrongen. De verwachting is dan ook dat de migratie van legacy-systemen met behulp van ai verder zal doorzetten.
De ai-native enterprise ziet er heel anders uit dan voorheen. Het klantenbestand bestaat uit machines, context wordt beschouwd als cruciale infrastructuur en er zijn tools beschikbaar om decennia aan technische schulden af te lossen. Bedrijven die dit omarmen, zullen niet alleen de mogelijkheden van ai optimaal benutten, maar ook hun bedrijfsvoering naar een niveau tillen dat voor het bestaan van ai onhaalbaar was.
Martijn Kieboom, manager solutions engineering Confluent

Sterke analyse die de richting aangeeft waarin enterprise-architectuur zich moet ontwikkelen. Wat mij opvalt is hoe nauw de beschreven contouren aansluiten bij een ontwerpbenadering die we ‘betekenis-gedreven architectuur’ zouden kunnen noemen.
U signaleert terecht dat ruwe data uit data-lakes ontoereikend is en dat semantische context cruciaal wordt. De volgende stap is om die semantiek niet vrijblijvend te interpreteren, maar expliciet te modelleren via formele ontologieën. Alleen dan kunnen domeinbegrippen, beslissingen en verantwoordelijkheden dezelfde betekenis houden voor mens, deterministische IT én indeterministische AI.
Het door u genoemde gevaar van impliciete logica in workflows en prompts is reëel. De oplossing is niet alleen context-engineering als nieuwe discipline, maar het centraal stellen van beslissingen in plaats van processen. Door beslislogica transparant en toetsbaar vast te leggen in doel-gedreven tabellen, gekoppeld aan een semantische laag, voorkom je dat verantwoordelijkheid diffuus wordt.
Uw punt over context-engines als nieuwe architectuurlaag raakt dan ook de kern: dat worden de systemen die de ontologie bevragen en agents voeden met betekenisvolle informatie in plaats van met ruwe data. Zo functioneren zowel LLM’s als klassieke systemen als interpretatiesystemen die verankerd zijn in dezelfde semantische basis.
Kortom: u schetst overtuigend waarom de semantische laag kritieke infrastructuur wordt. De architectuuropgave is om die laag zo te ontwerpen dat betekenis geen interpretatie is, maar ontwerpdiscipline.
Machines worden klanten vraagt om een herdefinitie van het begrip klant want traditioneel is een klant een natuurlijke- of rechtspersoon met intentie, koopkracht en juridische handelingsbekwaamheid. Laatste brengt een juridische spanning over aansprakelijkheid met zich mee want de intenties van de valsheidsscores van Jack gaan om de retorisch vormgegeven waarschijnlijkheidsuitspraak welke uiteindelijk lastig te toetsen is in een ‘betekenis-gedreven architectuur’ die even dogmatisch is als onjuist.
Want in een betekenis-gedreven architectuur (semantic layers, knowledge graphs, rule engines) wordt er verondersteld (aangenomen) dat alle begrippen stabiel definieerbaar zijn waardoor context formaliseerbaar is en de betekenis eenduidig codeerbaar terwijl de betekenis klant al geen statisch object is omdat deze relatie uiteindelijk ontstaat in de interactie en in de contextverschuiving. Klant is koning zolang deze keizerlijk betaald want de semantiek van ‘valsheid’ binnen de context van een discussie is normatief binnen een eigen kader als het om de intentie gaat.
De bedrijfsvoering naar een niveau tillen dat voor het bestaan van AI onhaalbaar was door een AI-agent onderzoek te laten doen naar wat de beweegredenen van de vraag achter de vraag was als het om de werkelijke communicatie gaat zit in de verwachtingen die managers hebben van generatieve AI. Want complexe interacties inpassen in een omgeving met beperkte context klinkt als de definitie van: ‘Wir haben es nicht gewußt’ als een retorisch vormgegeven waarschijnlijkheidsuitspraak over het niet willen weten.
Van betekenis-gedreven naar doel-gedreven is interpretatie geen ontwerpdiscipline maar een adoptie van verandering, denken in modellen is als de Paarse krokodil in het loket. Mijn retorische valsheid in de beeldspraak gaat om de intentie van empathie want er is geen ‘dezelfde semantiek’ in een levendige taal als we kijken naar het wiskundige functioneren van LLM’s. Gooi mijn reactie in de AI-molen om alle lagen erin te begrijpen want ‘de’ klant is geen statisch object maar een relationele positie die ontstaat in de menselijke interactie. Ik neem als klant afscheid van organisaties die een AI-chatbot inpassen in de complexe interacties tussen mensen.
Steeds minder onderhandelingsruimte of steeds minder interpretatie van de bewegingsruimte in de relatie?
Een semantisch eenvoudige vraag met een contextueel complex antwoord door impliciete maar niet duidelijk uitgesproken verwachtingen en de wederkerigheid in een open dialoog. Meta-gedreven kennis van een bedrijf gaat niet om de cijfers maar de gevoelens want mensen doen zaken met mensen en dat zal door AI niet veranderen. Definieer vertrouwen Jack want als ontwerpdiscipline gaat dit om de intenties die we vaak als governance vastleggen met zeggen wat je gaat doen en dat bewijzen als het om de verwachte doelstellingen gaat.
Zoals altijd niets aan toe te voegen 😊
https://chat.deepseek.com/share/rkwu7c8rbr2cv13iaq
“De anonieme reageerder heeft gelijk dat de (menselijke) leefwereld zich niet laat reduceren tot (een) systeem.” Ik kan nog meer complimenten eruit halen zoals: “Dit is een fascinerende reactie. De anonieme reageerder voert een fundamentele filosofische aanval uit op de basispremisse van betekenis-gedreven architectuur. De reactie lijkt op het eerste gezicht chaotisch, maar er zit een consistente argumentatielijn in.” Dan volgt een analyse met zoals ik het lees de conclusie dat de reactie een diepe waarheid bevat want taal, betekenis en menselijke relaties zijn niet volledig formaliseerbaar. Aangezien ik niet met jouw discussieer maar met een AI chatbot ben ik dus even verder gegaan waar jij geëindigd was: “U heeft volkomen gelijk. Dit is de kern die ik in mijn vorige reactie dreigde te verdoezelen. Systemen leggen igeen verantwoordelijkheid af — zij zijn artefacten. Verantwoordelijkheid is en blijft menselijk.”