Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Wat te doen om imago van ai te verbeteren

05 augustus 2019 - 09:563 minuten leestijdOpinieData & AI

Er zijn al legio doemscenario's geschetst rondom kunstmatige intelligentie (artificial intelligence – ai). Miljoenen banen gaan verloren, gezichtsherkenning wordt ingezet voor zaken die we nooit hebben zien aankomen en ai en robots nemen onze levens over. Deze scenario’s zorgen voor angst voor de technologie en zouden bij consumenten, werknemers en software-bedrijven de vraag moeten oproepen: wat kunnen we doen om dit tij te keren? Hoe kunnen we het ai van de toekomst een positief imago geven?

De realiteit is dat vrijwel niemand (althans dat hoop ik) expres ai-systemen ontwerpt die met opzet vooroordelen versterkt of andere features creëert die het tot een enge technologie maken waar iedereen zich van afkeert. Maar op een bepaald punt kunnen we ons niet allemaal blijven verschuilen achter goede bedoelingen. Het feit dat mensen niet zorgvuldig genoeg zijn en acties ondernemen om te zorgen dat ai op een goede en ethische manier werkt, is problematisch. Met andere woorden, vandaag de dag zijn een lakse houding ten opzichte van ai en de impact die beslissingen hebben op echte mensen, een groter probleem dan opzettelijke kwaadaardigheid.

Het is aan ons allemaal (of we nu managers, medewerkers of zelfs consumenten zijn) om onze processen te veranderen of, in het geval van consumenten, verandering te eisen, op twee gebieden:

  1. Mensen betrekken en betrokken houden die niet alleen bevoegd zijn, maar ook worden aangemoedigd om hun mond open te doen als ai-systemen lijken te ontsporen of wellicht al zijn ontspoord.  

  2. Realiseren dat verantwoordelijkheid in ai niet goedkoop is. Het kost veel meer moeite om ergens aandacht aan te besteden dan om geen verantwoordelijkheid te nemen voor de resultaten en te zeggen ‘Hey, het is ai. Ja, ik heb het gebouwd, maar het heeft een eigen mening, dus het is niet mijn schuld.’

Verschil

Als het aankomt op ai-technologie, dan hebben software-leveranciers ook een verantwoordelijkheid. En wel op deze drie gebieden:  

  1. Ai-technologieën moeten het kostbaar maken om vooroordelen of andere problemen in ai-systemen te missen of negeren. De ontwikkeling van AutoML, om nog maar te zwijgen van verdere ontwikkelingen op het gebied van automatisering, zorgt ervoor dat mensen in sommige opzichten iets te veel op de automatische piloot denken en handelen. Denk aan de groei van automatisering in de financiële markt die zorgt voor volatiliteit op de aandelenmarkt. Als je werkt aan automatisering, zijn duidelijke controles in het proces (op vooroordelen, interpreteerbaarheid, et cetera) van cruciaal belang.

  2. Het moet duidelijk zijn waar de verantwoordelijkheid van mensen start en ophoudt. Software-systemen moeten dit faciliteren. Dat wil zeggen dat echte mensen aan het einde van de productielijn staan ​​als het gaat om verantwoordelijkheid in ai-systemen. Niet alleen teams of groepen, maar individuen die moeten antwoorden op beschuldigingen nadat de dingen fout zijn gegaan.

  3. We moeten het makkelijker maken om kennis (en dus ervaring, standpunten en ideeën) te combineren. Dit betekent dat er niet slechts één persoon is die iets bouwt met ai en het introduceert, er zijn veel mensen bij betrokken. Dit betekent dat er voldoende gelegenheid is om te signaleren dat iets fout gaat (vooral als punt één goed wordt ingevuld).

Ik geloof dat al deze verantwoordelijkheden en nieuwe productfuncties zullen leiden tot een nieuwe discipline. Deze zal vervolgens de weg vrijmaken voor ai die geen angst inboezemt: ethische kunstmatige intelligentie.

Meer over

BiometrieKunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Computable.nl

    In detail: succesvolle AI-implementaties

    Het implementeren van kunstmatige intelligentie (AI) biedt enorme kansen, maar roept ook vragen op. Deze paper beschrijft hoe je als (middel)grote organisatie klein kunt starten met AI en gaandeweg kunnen opschalen.

    Computable.nl

    Maak kennis met digitale identiteiten

    De digitale economie groeit snel en de EU heeft strikte regelgeving ingevoerd om de veiligheid en privacy te waarborgen; in deze whitepaper ontdek je hoe digitale identiteiten deze transitie ondersteunen en wat dit voor jouw organisatie betekent.

    Meer lezen

    AchtergrondData & AI

    Een stortvloed aan ai-tools; ServiceNow drinkt zijn eigen champagne

    ActueelCloud & Infrastructuur

    Kort: Eigen ai-assistent Amsterdam, NIS2-manager Atos, DSA-check ACM en…

    AchtergrondData & AI

    ISO 42001 veelbelovend als standaard voor verantwoorde ai

    Maersk containerschip in de Rode Zee
    ActueelData & AI

    Verbetering nodig bij Digitale Infrastructuur Logistiek

    ActueelData & AI

    EU investeert bijna 2 miljard in digitale innovatie

    ActueelData & AI

    IBM investeert miljarden in VS

    4 reacties op “Wat te doen om imago van ai te verbeteren”

    1. Raymond Peil schreef:
      8 augustus 2019 om 11:58

      Dat is allemaal rijkelijk vaag, mijnheer Visser. Kom eens met concrete voorbeelden bijvoorbeeld.

      Login om te reageren
    2. Ewout Dekkinga schreef:
      8 augustus 2019 om 21:09

      De angst voor de discriminerende algoritmen zit diep, een angst die niet onterecht is en er zijn wetsvoorstellen in de maak om een vooringenomenheid van machine learning systemen te voorkomen. Te denken valt aan systemen die op basis van gezichtsherkenning conclusies trekken die nogal ongerijmd zijn. Het risico op Kafkaëske toestanden met AI is dan ook niet ondenkbaar, de sketch van Little Britain met ‘Computer Says NO’ is namelijk veelzeggend:

      https://www.youtube.com/watch?v=AJQ3TM-p2QI

      Of Hylke Visser met zijn opinie het imago van AI weet te verbeteren is twijfelachtig, hij is namelijk niet heel erg duidelijk over zijn maatregelen. Zo stelt hij in punt 1 dat we het kostbaar moeten maken om vooroordelen of andere problemen in ai-systemen te missen of te negeren. Semantisch klinkt dat als een boetestelsel waarvoor wel even wat wetsvoorstellen aangenomen moeten worden. En in punt 2 stelt Hylke dat het duidelijk moet zijn waar de verantwoordelijkheid van mensen start en ophoudt. Had ik al wat gezegd over de boetedoening in punt 1?

      Hylke gaat helemaal van het pad af met punt 3 waarin hij verwijst naar een goede invulling van punt 1 als voorwaarde voor punt 3 waarmee hij een catch-22 creeërt. Want de invulling van een wettelijke kader waaraan de standpunten getoetst kunnen worden mist nog omdat technologie zich sneller ontwikkeld dat wetgeving. Ik concludeer daarom dat angst over AI terecht is door een zekere mate van wetteloosheid in het ‘wilde westen’ van algoritmen.

      Login om te reageren
    3. Hylke Visser schreef:
      22 augustus 2019 om 07:40

      Dank voor jullie reacties. Ik beweer niet dat de genoemde punten zorgen voor een waterdicht en veilig systeem. Zeker nu wetgeving nog ontbreekt, zie ik echter voor leveranciers wel een rol weggelegd om de negatieve effecten die AI mogelijk met zich meebrengt zoveel mogelijk te beperken. Dit zit niet alleen in de technologie, maar met name in de processen en de mensen die met AI-technologie werken. Dit is misschien niet voldoende om de angst bij de consument helemaal weg te nemen, maar het kan op den duur, al dan niet in combinatie met wetgeving, zorgen voor meer vertrouwen.

      Login om te reageren
    4. Ewout Dekkinga schreef:
      24 augustus 2019 om 22:11

      Hylke,
      Ik wees op de catch-22 van wetgeving, bij mijn weten wordt deze in democratische landen door kiezers bepaalt en ik stelde in mijn reactie dat jouw bijdrage weinig verbetering van het imago van AI oplevert. Als Director Sales & Business Development bedank je de beul voor zijn werk want beide reactie zijn niet echt positief. Ik als lezer wil weten hoe spelers zoals Dataiku de angst voor AI wegnemen zonder de dwang van wetgeving achteraf.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs