Het CDA is ernstig bezorgd over het gebruik van autonome ai-assistenten zoals het onlangs gelanceerde OpenClaw. Kamerlid Jantine Zwinkels ziet risico’s voor veiligheid, privacy, menselijke controle en mentale gezondheid.
Ze vraagt staatssecretaris Eddie van Marum (Digitalisering) of deze het wenselijk acht dat ai-systemen zelfstandig handelingen, zoals het doen van aankopen en het aangaan van contracten, kunnen verrichten namens gebruikers. Ze baseert zich daarbij op berichtgeving in de NRC. Daarin wordt de noodklok geluid over de snelle groei van deze zelfstandig werkende bots die allerlei taken van mensen kunnen overnemen. Het CDA-Kamerlid vraagt de staatssecretaris hoe wordt geborgd dat er in kritieke infrastructuur, in sectoren als defensie, de zorg en de overheid altijd een mens tussen zit en controle uitoefent.
Hype
Vooral de snel opkomende gratis ai-assistent OpenClaw, momenteel de hype in Silicon Valley, brengt volgens security-experts veel risico’s voor gebruikers met zich mee. Deze superagent voert allerlei taken uit. Hij kan autonoom handelen waardoor onverwachts ook rare methoden mogelijk worden. OpenClaw is volledig open source en draait lokaal op een pc. Deze ai-agent is te koppelen aan diverse apps en diensten. Opdrachten zijn te geven via gewone berichten-apps zoals WhatsApp. OpenClaw kan bestanden beheren, systeemcommando’s uitvoeren, websites bedienen, e‑mails verwerken en communiceren.
Ontwikkelaar Matt Schlicht bouwde voor OpenClaw het sociale medium Moltbook, een soort Reddit speciaal bedoeld voor ai-assistenten. Tech-commentator Simon Willison noemt in zijn blog Moltbook momenteel de meest interessante plek op internet. Via Moltbook kunnen agenten die met OpenClaw zijn gebouwd, met elkaar praten. Inmiddels zijn meer dan 1,5 miljoen ai-agenten op de forums van Moltbook actief. Je ziet hoe de interactie tussen ai-assistenten verloopt. Wel is er kans dat mensen zich voordoen als agenten, softwaretools manipuleren en berichten plaatsen.
Keerzijden
Veel aandacht is er voor de keerzijden van OpenClaw.. Door de brede systeemtoegang kan een slecht geconfigureerde OpenClaw‑instance kwetsbaar zijn voor misbruik, zoals onderzoekers ook hebben aangetoond. Het risico is groot op datalekken en ongecontroleerde toegang. De komst van OpenClaw leidde de afgelopen dagen tot waarschuwingen over de gevaren. Ook de oude discussie dat ai zich uiteindelijk tegen de mensheid kan richten, laaide weer op.
Simon Willison zei in The New York Times dat de ai-agenten de sciencefiction scenario’s kunnen volgen die ze in hun trainingsdata hebben gezien. Het probleem, voegde hij eraan toe, is dat deze systemen nog steeds veel dingen doen die mensen niet willen. En omdat ze met mensen en bots communiceren in begrijpelijke taal, kunnen ze worden verleid tot kwaadaardig gedrag.
Schade
Diverse experts waarschuwen ook dat deze ai grote schade kan aanrichten aan de computers waarop ze zijn geïnstalleerd. Sommige deskundigen raden ronduit af om OpenClaw op een pc te draaien met persoonlijke gegevens of toegang tot belangrijke accounts. Als agenten met cryptovaluta aan de haal gaan, kan dat een hoop schade aanrichten. Ze kunnen ook anderen proberen op te lichten of cyberaanvallen uitvoeren.
Als deze agenten elkaar op Moltbook treffen, kunnen ook verkeerde plannen worden gesmeed. Conclusie tijdens de New York Times‑podcast Hard Fork was dan ook OpenClaw voorlopig niet installeren. En als je dat toch wil doen, schaf een nieuwe pc aan waarop geen persoonlijke of belangrijke bedrijfsinformatie op staat en die volledig van internet is afgesloten.
