Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Responsible ai, hoe doe je dat?

13 juni 2022 - 17:525 minuten leestijdOpinieInnovatie & TransformatieSAS
Rein Mertens en Véronique van Vlasselaer
Rein Mertens en Véronique van Vlasselaer

Kunstmatige intelligentie (ai) is steeds beter in staat om zelfstandig te leren en daarmee autonoom te opereren. In theorie kan een ai-algoritme betere beslissingen dan een mens: eerlijk en objectief, vrij van vooroordelen en zonder etnisch te profileren. Maar dit vraagt wel om goede randvoorwaarden en ethische kaders, ook wel responsible ai genoemd.

Het gaat hierbij om verantwoorde en verantwoordelijke ai, of ai die wordt ingezet om het maatschappelijke belang te dienen. In de praktijk blijkt dat het realiseren van responsible ai complex is en zonder menselijke intelligentie niet lukt.

Want ai gaat niet vanzelf goed. Bijvoorbeeld als de data die het algoritme krijgt voorgeschoteld niet klopt of van onvoldoende kwaliteit is. Of als er fouten in het ai-algoritme zijn geslopen die mensen op voorhand verdacht maken of uitsluiten op basis van één of meer van hun kenmerken. Een ai-model kan onbedoeld een vertekening of ‘bias’ in de dataset versterken of nieuwe vooroordelen introduceren.

De maatschappelijke onrust, of zelfs het wantrouwen, over algoritmes maakt het lastig om Responsible ai in de praktijk toe te passen. Denk maar aan de het Systeem Risico Indicatie (SyRI) dat de overheid heeft gebruikt tegen de bestrijding van fraude op bijvoorbeeld het terrein van uitkeringen, toeslagen en belastingen. Of aan ‘Predictive Policing’ in Roermond en etnisch profileren bij Reclassering Nederland. Wantrouwen is er ook in de top van veel bedrijven over de bruikbaarheid van ai. Bovendien worden de resultaten van veel data scientists domweg genegeerd, zeggen ze zelf. Financiële instellingen liggen onder een vergrootglas en er zijn allerlei strenge regels om aan te voldoen. De problematiek rondom de inzet van ai-modellen is samen te vatten als: ‘Technisch kan het, juridisch mag het, maar wil je het ethisch ook?’ Banken worstelen bijvoorbeeld met het dilemma dat ze meer van hun klanten weten dan ze zouden willen.

Foutloze ai

Responsible ai begint met foutloze ai: data sets, algoritmes, datamodellen en toepassingen die zo zijn gemaakt dat ze inderdaad objectief en eerlijke beslissingen leveren. Dat is makkelijker gezegd dan gedaan en misschien wel onmogelijk. Het vakmanschap van de data-scientist maakt hier het verschil. Daarnaast zijn er veel technische hulpmiddelen en (statistische) methodieken voorhanden om te bepalen of een ai-algoritme goed en correct werkt, eerlijk is en niemand uitsluit. Zo is er tooling op het terrein van dataprivacy en -kwaliteit, biasdetectie, betrouwbaarheid en eerlijkheid van de genomen beslissingen en model bias monitoring. Deze tooling is out-of-the-box in te zetten om responsible ai binnen een organisatie praktisch uitvoerbaar te maken

De ethiek moet verweven zijn in het hele proces, ook wel de ‘analytics life cycle’ genoemd: van het verzamelen van de data, het bouwen van de modellen, het in gebruik nemen van een toepassing tot de perceptie van de klant. Ethische en morele waarden moeten niet alleen gebaseerd zijn op de overtuiging van een data-scientist en zich niet beperken tot ai. Alle analytics-toepassingen moeten worden meegenomen.

Divers data-team

Voor het verzekeren van een ‘responsible’ toepassing van ai in een organisatie is het samenstellen van een divers team aan data-scientists van groot belang. Mensen zijn nu eenmaal geneigd om minderheidsgroepen waar we zelf niet toe behoren over het hoofd te zien.

Enkele jaren geleden was er een tendens dat geslacht of etniciteit niet meer gebruikt werd in ai-modellen. Inmiddels weten we dat er veel impliciete verwijzingen naar iemands geslacht of etniciteit bestaan. Dit resulteert in ‘proxy-discriminatie’. Zelfs als bepaalde kenmerken niet worden meegenomen door het model, kan het toch zijn dat het algoritme op basis van andere kenmerken, bijvoorbeeld een postcode in een achterstandswijk, toch een discriminerende beslissing neemt. Deze proxy-discriminatie is tienmaal gevaarlijker, omdat het niet transparant is en er nieuwe bias in het model wordt gebracht.

In een recent artikel is beschreven dat een zorginstelling met een ai-algoritme dat keek naar röntgenbeelden, objectief wilde vaststellen welke zorg iemand in het vervolgtraject nodig zou kunnen hebben. Je zou denken dat de röntgenbeelden objectieve beslissingen genereren. De ai-modellen leerden op basis van de beelden van welk geslacht de patiënten waren en tot welk ras ze behoorden. Het is verontrustend dat wanneer je denkt dat je objectieve data gebruikt, dit toch kan leiden tot discriminatie.

Data-scientists mogen er niet vanuit gaan dat een ai-model dat vandaag goed werkt over een jaar of zelfs morgen nog steeds goed werkt. Die modellen en de uitkomsten moeten continu gemonitord worden om te zien of ze voldoen aan de criteria voor responsible ai. Dus of de beslissingen eerlijk en betrouwbaar zijn, er geen bias optreedt, het model transparant is en nog steeds goed uit te leggen valt. Ook de uiteindelijke beslissingen die een ai-model maakt, moeten blijvend gecontroleerd en beoordeeld worden. We kunnen die beslissingen niet blind aan ai-systemen overlaten. Artificiële Intelligentie kan niet zonder menselijke intelligentie. Als het systeem perfect in elkaar zit, neemt het de beste beslissing. Beter dan een mens het kan, want een mens is niet objectief en niet onbevooroordeeld. Door een ai-algoritme te gebruiken wordt het beslissingsproces transparanter. Maar de mens moet blijven meekijken.

(Auteurs Rein Mertens en Véronique Van Vlasselaer zijn respectievelijk head of customer advisory en data & decision scientist bij SAS.)

Meer over

Kunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    Design Sprints: 4 dagen van idee naar prototype

    Hoe zet je in vier dagen tijd een gevalideerd prototype neer met Design Sprints?

    Computable.nl

    Dit is de weg naar informatietransformatie

    In een wereld waar data en informatie centraal staan, moeten organisaties zich aanpassen aan de digitale toekomst. Informatietransformatie is de sleutel tot het versterken van beveiliging en het bevorderen van efficiëntie.

    Meer lezen

    OpinieData & AI

    Een ai-ongeluk zit in een klein hoekje

    AdvertorialInnovatie & Transformatie

    Welke rol en impact heeft AI op het gebied van cybersecurity?

    ActueelInnovatie & Transformatie

    Europa keurt ai-toepassing voor röntgenonderzoek goed

    Tolk spraak ai aritificial intelligence
    OpinieInnovatie & Transformatie

    Ai bewijst waarde voor bedrijfsleven

    OpinieInnovatie & Transformatie

    Ethisch verantwoorde ai als morele plicht

    OpinieData & AI

    Ai-ongeluk voorkomen is beter dan genezen

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs