Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
Kinderen computer les onderwijs
[Shutterstock]

College Rechten van Mens waarschuwt voor ‘onderwijsdiscriminatie’ door ai

13 mei 2024 - 12:254 minuten leestijdActueelGovernance & Privacy
Pim van der Beek
Pim van der Beek

Onderwijsinstellingen moeten kritischer kijken naar de inzet van ai en de gevolgen van die systemen voor discriminatie en uitsluiting van leerlingen en studenten. Dat concludeert het College voor de Rechten van de Mens na onderzoek. Het ministerie van Onderwijs is aan zet om scholen te begeleiden bij de inzet van ai die leerlingen en studenten niet schaadt.

Dat staat in het onderzoeksrapport Algoritmen in het Onderwijs dat verscheen in opdracht van het College voor de Rechten van de Mens. Het verkennende onderzoek laat zien dat zowel in het funderend als het hoger onderwijs allerlei algoritmische toepassingen worden ingezet. ‘Veertig tot zestig procent van de basisscholen gebruikt adaptieve leersystemen, waarbij het systeem oefeningen, bijvoorbeeld bij taal en rekenen, automatisch aanpast op basis van het gedrag van de leerling’, schrijft het college in een persbericht.

In het hoger onderwijs zetten onderwijsinstellingen software in die een automatische score geeft aan hoe diepgaand de aantekeningen van studenten zijn. Ook gebruiken veel onderwijsinstellingen algoritmes om data over leerlingen automatisch te analyseren om te voorspellen of een leerling risico loopt uit te vallen of extra ondersteuning nodig heeft. Daarnaast wordt ai ingezet om fraude op te sporen (bijvoorbeeld of iemand ChatGPT heeft gebruikt) en om te bepalen welke leerling naar welke onderwijsinstelling gaat, concluderen de onderzoekers.

Discriminatie en uitsluiting

Volgens de onderzoekers kan het zijn dat een systeem moeite heeft om het niveau van een kind goed in te schatten. Bijvoorbeeld omdat de leerling op een andere manier leert, zoals kinderen met ADHD, dyslexie of autisme, of leerlingen die andere woorden gebruiken dan de groep leerlingen waarop het systeem getraind is. ‘Of een systeem geeft een kind het label ‘zwak’ en houdt dat label aan, ook al is het kind inmiddels beter gaan leren. Hierbij kan ook een zorg zijn dat leerlingvolgsystemen veel data over kinderen verzamelen, waardoor mogelijk hun recht op privacy en autonomie wordt geraakt’, meldt het college. Ook ziit de toezichthouder door ai en technologie een scheefgroei ontstaan. ‘Niet elke leerling heeft evenveel toegang tot technologie. Sommigen kunnen zich wel goede apparaten, een snelle internetverbinding, en dure software veroorloven, anderen niet. Ook tussen scholen zijn de verschillen groot.’ 

Ze wijst erop dat er vaak beperkt informatie beschikbaar is over hoe een systeem werkt. ‘Een groot deel van het aanbod komt vanuit grote technologiebedrijven, zoals Apple, Google, en Microsoft. De invloed van deze bedrijven kan sturend zijn en kan scholen van hun producten afhankelijk maken, terwijl scholen nu juist vrije keuze moeten hebben om al dan niet digitale middelen te kiezen die passen bij hun visie op goed onderwijs.’ Het college stelt verder dat het door personeelstekort en een uitgebreid takenpakket voor docenten en schoolleiders ‘moeilijk is’ om kritisch te kijken naar de middelen die ze gebruiken. ‘Mensen hebben nu eenmaal de neiging te geloven wat een computer zegt.’

Te hulp

Volgens het college moet het ministerie van Onderwijs, Cultuur en Wetenschap scholen te hulp schieten door onderzoek naar de effecten van digitale systemen te stimuleren en voorlichting te geven over de risico’s aan schoolbesturen, docenten, ouders en leerlingen.

‘Het ministerie kan ook, net als zij op het gebied van privacy heeft gedaan, met samenwerkingsverbanden, kennisinstituten, en onderwijsinstellingen, een normenkader ontwikkelen dat duidelijkheid schept waar een systeem in ieder geval aan moet voldoen om discriminatie te voorkomen. Scholen kunnen daarnaast elkaar helpen door zich te verenigen en samen deskundigheid op te bouwen en criteria te stellen aan softwareleveranciers.’ Voordat onderwijsinstellingen digitale systemen gaan gebruiken, moeten zij een waardenafweging maken of en wanneer technologie een bijdrage levert aan goed onderwijs. ‘Scholen hebben veel vrijheid in het kiezen van leermiddelen, maar moeten zich altijd houden aan kinderrechten en ervoor zorgen dat zij het discriminatieverbod niet schenden’, aldus het college.

Het onderzoek

Het College voor de Rechten van de Mens heeft de onderzoeksinstituten KBA Nijmegen en ResearchNed onderzoek laten doen naar hoe algoritmes in het onderwijs in Nederland worden ingezet. Zij hebben verkend of hierbij risico’s op discriminatie spelen en waar juist de kansen liggen om discriminatie te voorkomen door algoritmes in te zetten. Het onderzoek bestond uit een schriftelijke uitvraag onder relevante organisaties, een literatuurstudie en gesprekken met experts en stakeholders, waaronder wetenschappers, sectororganisaties, ontwikkelaars van toepassingen, de Inspectie van het Onderwijs, het ministerie van Onderwijs, Cultuur en Wetenschap, en vertegenwoordigers van ouders.

Meer over

AIalgoritmen

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    GenAI: Veiligheidsrisico of wapen tegen dreiging?

    Wat AI betekent voor jouw securityaanpak? Alles over de risico’s en strategieën om GenAI verantwoord in te zetten.

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    Beveiliging en IT samen sterk tegen bedreigingen

    Deze paper geeft concrete strategieën en handvatten om IT en Security effectiever te integreren.

    Meer lezen

    ActueelCarrière

    Kort: Wagenaar wint Microsoft Power Women Award, Deense investeerder neemt Aimms over (en meer)

    AchtergrondSoftware & Development

    License to bill

    ActueelCloud & Infrastructuur

    Nederlandse bedrijven nog niet kansloos om EU-gelden cloud en ai  

    ActueelGovernance & Privacy

    Websites lappen Europese Toegankelijkheidswet aan hun laars

    ActueelGovernance & Privacy

    Kort: AIV waarschuwt Nederland, Centric verwerft meerderheidsbelang in Twelve (en meer)

    AchtergrondCloud & Infrastructuur

    Europese it moet nú regie pakken

    2 reacties op “College Rechten van Mens waarschuwt voor ‘onderwijsdiscriminatie’ door ai”

    1. dino schreef:
      13 mei 2024 om 15:32

      “kritischer kijken” is het advies.
      AI is tenslotte ook maar een mening 😉
      Zelf geloof ik meer in mijn AI imuunsysteem.
      Hoe kan iets nou fake-news zijn als het zo goed in mijn straatje past enzo.
      Gelukkig hebben mensen “nu eenmaal de neiging te geloven wat een computer zegt”.
      Dat namelijk scheelt een boel gezeur.
      Of iemand zoeken die het over “dreigende beweging” van AI gaat hebben.
      En vervolgens AI een jaar lang uitsluiten.
      Uiteindelijk kan je AI misschien opensource aanbieden.
      Dan is het explainable, al zou oudlid wel weer gaan zeiken dat niemand de code leest 🙂

      Login om te reageren
    2. Een oudlid schreef:
      13 mei 2024 om 22:11

      Vroeger was alles beter want toen konden we nog een gele ster op een reactie plakken aangezien lezen zich niet beperkt tot de code want een algoritme telt 43 keer het woord ‘kan’ in het rapport. De historische associatie van AI met gele sterren ligt aan de vraagstelling want er is uiteindelijk geen ‘smoking gun’ gevonden wat betreft de discriminerende algoritmen. Dat kan ook aan de gekozen onderzoeksmethode liggen want discriminatie in het onderwijs is mogelijk door artikel 23 van de grondwet. Zeiken met stijl gaat dan ook om een individuele vrijheid welke nog weleens wringt met het recht op gelijke behandeling.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs