Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
Robot

EC-wetten om ongelukken met robots te voorkomen

01 februari 2017 - 07:206 minuten leestijdOpinieGovernance & Privacy
Nils Lenke
Nils Lenke

Het Europees parlement stemt in februari over een plan om regelgeving in te stellen voor robots en andere vormen van kunstmatige intelligentie. Aanleiding daarvoor is een rapport van de juridische commissie. Dat rapport heeft voor de nodige ophef gezorgd in de Europese en landelijke pers en dat is niet verwonderlijk. Als je het rapport leest – en je kunt je door de juridische terminologie heen worstelen – dan zul je het met me eens zijn dat er genoeg aanleiding is om eens goed na te denken over hoe we omgaan met de regels voor robots en kunstmatige intelligentie.

Zo is er de kwestie van aansprakelijkheid. Als een autonome robot of een zelfrijdende auto iemand verwondt, wie draait dan op voor de schade? De eigenaar van de robot, de fabrikant, de eigenaar of degene die de robot heeft geleerd hoe die zich moet gedragen, al dan niet via machine learning? Als robots het werk van mensen overnemen en waarde toevoegen aan het bedrijf, wat zijn dan de fiscale consequenties en de gevolgen voor de sociale zekerheid? Zo komen er allerlei vragen op als je het rapport leest, die maar nauwelijks beantwoord worden.

Het rapport is opgesteld om een denkproces op te starten dat uiteindelijk moet leiden tot wetgeving. Ik vind het een heel interessant onderwerp en in deze blog ga ik graag in op een paar van de kwesties die de auteurs van het rapport opwerpen. Een aantal daarvan hebben te maken met natuurlijke taal, die voor problemen zorgt maar opvallend genoeg ook deel van de oplossing kan zijn.

Een rondje sciencefiction

Je kunt het rapport afdoen als een hype; politici zonder verstand van zaken die een rondje sciencefiction doen. Natuurlijk is artificial intelligence (ai) momenteel een populair onderwerp, maar dat komt vooral omdat de ontwikkelingen zo snel gaan op de thema’s waar ‘deep learning’ het verschil kan maken: het vinden en duiden van grote hoeveelheden data, beeld- en spraakherkenning, klantenservicebots en gaming.

We kunnen het er in ieder geval over eens zijn dat de vooruitgang zo krankzinnig snel gaat dat het zelfs voor experts, laat staan het publiek, onmogelijk te voorspellen is waar kunstmatige intelligentie over vijf, tien of vijftien jaar staat en welke impact het dan heeft. Maar we kunnen er gewoonweg niet omheen, hype of geen hype, en dat geldt dus ook voor politici.

In het rapport wordt, zoals je kon verwachten, gerefereerd aan de wetten van de robotica van Isaac Asimov en de commissie stelt dat niemand weet wanneer robots en ai-toepassingen zelfbewust worden. Tot die tijd, zegt de commissie, zijn het met name de ontwerpers, fabrikanten en beheerders van de robots die zich aan die wetten moeten houden.

Laat robots zelf vertellen wat ze weten

De kwesties op macroniveau – wat kan de technologie van artificial intelligence wel en niet – gelden ook voor het microniveau: hoe bepaal je de grenzen van wat een robot kan en mag? Het rapport zegt dat gebruikers ervan moeten uitgaan dat een robot beperkingen heeft in de mate van perceptie, cognitie en handelingsvrijheid. Prima opmerking, maar wat kun je daarmee? Wat zijn dan de specifieke beperkingen van het systeem waarmee ik in gesprek ben?

Voordat er pratende machines waren, was het duidelijk: dieren en dingen kunnen niet praten, dus alles wat wel praat moet wel een mens zijn. En zo denken we eigenlijk nog steeds. Daarom hebben we ook nu nog moeite om zelfs wetenschappelijk te bepalen hoe intelligent een (sprekend) systeem echt is.

Een van de aanbevelingen van het rapport is dat robots altijd herkenbaar moeten zijn als robot als er interactie is met mensen. Dat lijkt me een minimum vereiste. Toch is al gebleken dat lang niet iedereen zich aan die eis houdt. In de Amerikaanse verkiezingen werden massaal bots ingezet zonder dat die als zodanig herkenbaar waren. Dat zijn vooral ethische kwesties, maar ook in praktische zin is het bijvoorbeeld bij mainstream bot-ondersteuning, zoals Cortana en Siri, lastig te bepalen wat de mogelijkheden en grenzen zijn.

‘Contextual Reasoning Framework’

Een ander gerelateerd advies uit het rapport is gericht aan de ontwerpers. De commissie pleit ervoor dat die ervoor zorgen dat alle beslisstappen van de robot herleidbaar zijn en gereconstrueerd kunnen worden. Niet alleen met terugwerkende kracht bij incidenten, maar doorlopend. Wij als mensen moeten altijd weten waarom een autonoom systeem waar we op vertrouwen bepaalde beslissingen heeft genomen. Dat lijkt op het eerste gezicht steeds complexer te worden in deze tijd van ‘deep learning’. Het is niet eenvoudig te begrijpen waarom een zogeheten Neural Network doet wat het doet, daar lopen meer mensen tegenaan.

Een mogelijke oplossing is om regels in het systeem in te bouwen zodat je de ‘redenering’ altijd kunt herleiden. Als aanvulling daarop is natuurlijke taal een mooie manier om robots en ai-toepassingen aan mensen te laten vertellen hoe ze denken. Het zou toch erg prettig zijn als je in een zelfsturende auto zit en de auto zegt: ‘Ik pak hier even de afslag naar de A27 omdat er op de A1 vijf kilometer file staat.’

Ken je die mop van die twee huishoudelijke robots?

Verder gaat het rapport in op het feit dat autonome robots die via het netwerk met elkaar verbonden zijn, interoperabel moeten zijn. Ook daar kan natuurlijke taal zeer bruikbaar zijn. Steeds meer bots, robots en computerassistenten bevolken onze huiskamer en werkvloer, en je hoeft geen kristallen bol te hebben om te voorspellen dat die uiteindelijk vaker met elkaar zullen praten dan met ons mensen.

Een computerassistent praat namens ons met een virtuele klantenservicemedewerker en ken je die mop van die twee huishoudelijke robots die elkaar tegenkomen? Op welk technologisch systeem ze ook gebouwd zijn, ze zullen allemaal tot een bepaald niveau natuurlijke taal beheersen. En dat heeft als groot voordeel dat als bijvoorbeeld twee huisrobots met elkaar praten, wij als mensen kunnen meeluisteren naar wat ze onderling bespreken en kunnen ingrijpen als dat nodig is.

Er worden in het rapport van de commissie nog veel meer aspecten besproken. En er zullen nog veel meer vragen te beantwoorden zijn over de regelgeving voor robots en voor de mensen die deze robots ontwikkelen. Het is een bijzonder interessante en belangrijke discussie. Dus Europees Parlement, dank voor het verder aanzwengelen van die discussie!

Door Nils Lenke, senior director Corporate Research bij Nuance Communications

Meer over

BotnetsKunstmatige intelligentieRobotica

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Beveiliging en IT samen sterk tegen bedreigingen

    Deze paper geeft concrete strategieën en handvatten om IT en Security effectiever te integreren.

    Computable.nl

    Slimme toegang vs. onzichtbare cyberrisico’s in de Zorg

    In zorginstellingen is een constante stroom van personeel, patiënten en bezoekers. Maar hoe zorg je ervoor dat gevoelige gebieden beschermd blijven zonder de dagelijkse gang van zaken te verstoren? Hoe herken je eventuele zwakke plekken in het netwerk?

    Computable.nl

    Strategische alternatieven voor VMware

    Ontdek 3 strategieën voor een succesvolle overstap

    Meer lezen

    ActueelInnovatie & Transformatie

    Nederlander ziet robot als collega wel zitten

    AchtergrondInnovatie & Transformatie

    Europa regelt robotisering en KI op hoofdlijnen

    Europa
    ActueelInnovatie & Transformatie

    Eerste Europese robotwet duurt nog zeker een jaar

    Computable.nl
    ActueelCarrière

    Start-up geeft robotles aan productiemedewerker

    Computable.nl
    ActueelInnovatie & Transformatie

    ‘Programmeur aansprakelijk bij schade door robot’

    Eén reactie op “EC-wetten om ongelukken met robots te voorkomen”

    1. arie schreef:
      6 februari 2017 om 13:17

      Ik heb de boeken van Isaac Asimov 30 jaar geleden al verslonden, een reden toen ook om in de ICT te gaan. Nooit gedacht dat het actueel zou worden, als ik het nog allemaal mee mag maken.
      Misschien zeg ik ook nog wel als mijn grootvader van 1903: ‘Ik ben te vroeg geboren’.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs