Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief

Gen-ai is navigeren door ethiek en uitdagingen

15 april 2024 - 14:024 minuten leestijdOpinieData & AI
Gerhardus Lindeque
Gerhardus Lindeque

BLOG – Generatieve artificiële intelligentie (gen-ai) is razendsnel uitgegroeid tot een revolutionaire technologie met ChatGPT als vlaggenschip. Slechts vijf dagen na de lancering in november 2022 had de ai-tool al een miljoen gebruikers; inmiddels trekt ChatGPT maandelijks meer dan anderhalf miljard bezoekers.

Dat gen-ai zo populair is, is te danken aan de veelzijdige toepassingen en toegankelijkheid van deze tools. Ze zijn immers vaak gratis en intuïtief te gebruiken met een vertrouwde chatbot-interface. Gen-ai-tools bieden bedrijven verschillende voordelen, zoals een betere klantervaring, verbeterde efficiëntie en kostenbesparing. Maar achter de belofte van gen-ai schuilen ook ethische en zakelijke uitdagingen. Een verkenning van het ethische landschap rondom deze technologie.

Filterbubbels

Het belang van menselijk toezicht bij ai-systemen wordt steeds groter. Dat komt doordat deze technologie ‘filterbubbels’ kan creëren, waardoor de gebruiker aan weinig verschillende perspectieven wordt blootgesteld. Bovendien bestaat het risico dat gen-ai wordt ingezet om mensen te manipuleren en besluiten te beïnvloeden, wat kan leiden tot verwarring en misleiding. Om de balans te vinden tussen het potentieel van gen-ai en de noodzaak van menselijke controle is onderzoek en ontwikkeling van beleid en tools cruciaal. Ook moeten stakeholders zoals de overheid en ontwikkelaars meer toezicht houden op de gevaren. Dit moet de autonomie van gebruikers beperken, zodat zij minder makkelijk misbruik kunnen maken van gen-ai-tools.

Nepnieuws

De vooruitstrevendheid van gen-ai roept vragen op over de veiligheid en betrouwbaarheid van de output. Een van de zorgen is de mogelijke rol bij de verspreiding van desinformatie en nepnieuws, wat de publieke opinie en het vertrouwen in instellingen kan ondermijnen. Denk aan de foto’s van de arrestatie van Donald Trump die massaal werden gedeeld, maar nep bleken te zijn. Onderzoek naar kwetsbaarheden en de ontwikkeling van tegenmaatregelen zijn daarvoor cruciaal. Dit vereist nauwe samenwerking tussen overheden, technologiebedrijven en cybersecuritydeskundigen om de veerkracht en veiligheidskwestie van gen-ai effectief aan te pakken.

Krantenartikelen

Gen-ai gebruikt uitgebreide datasets, inclusief persoonlijke en auteursrechtelijk beschermde informatie, die doorgaans worden verzameld via openbare bronnen. Denk aan krantenartikelen. De mogelijkheid dat de door ai gegenereerde inhoud sterk lijkt op bestaande werken, roept vragen op over de originaliteit en auteursrechteninbreuk. Zo spant de New York Times een rechtszaak aan tegen Microsoft en OpenAi voor het schenden van het auteursrecht. De krant beschuldigt hen ervan miljoenen artikelen te hebben gebruikt om de software te trainen, zonder hun toestemming.

Om deze ethische kwestie aan te pakken, moeten er duidelijkheid zijn over hoe met data om te gaan. Dat betekent dat er strikte regels moeten zijn voor het verzamelen en gebruiken van gegevens en de onduidelijkheid rondom auteursrecht en eigendom moet tegen het licht. Zo stelt de AI-wet al voor dat bedrijven moeten voldoen aan de Europese wetgeving omtrent auteursrechten.

Transparantie

Gen-ai-modellen staan vaak bekend als ‘blackboxes’, ofwel de besluitvormingsprocessen zijn niet transparant. Dit gebrek aan transparantie roept vragen op over de eerlijkheid en controleerbaarheid. Het is immers voor gebruikers en developers moeilijk om de conclusies van deze modellen te begrijpen. Om de werking van deze zwarte dozen duidelijker te maken, moeten er manieren ontwikkeld worden om de resultaten van gen-ai-modellen te verklaren. Denk aan het zichtbaar maken van hoe het model werkt, het analyseren van wat het heeft geleerd, en het testen van de resultaten met data.

Stereotypen

Gen-ai-modellen kunnen stereotypen versterken of bepaalde groepen negeren. Het aanpakken van deze vooroordelen vereist zorgvuldig ontwerp en continue evaluatie van trainingsgegevens. Het waarborgen van diversiteit, antidiscriminatie en eerlijkheid in gen-ai-toepassingen is niet alleen ethisch noodzakelijk, maar ook cruciaal voor het bouwen van inclusieve en rechtvaardige ai-systemen.

Maatschappelijke- en milieugevolgen

Gen-ai heeft ook gevolgen voor het milieu en de maatschappij. Zo hebben gen-ai-tools een negatief effect op de klimaatverandering omdat ze aanzienlijk meer elektriciteit gebruiken in vergelijking met traditionele zoekmachines. Ook is er voor het gebruik van ai-chatbots veel water nodig: tien tot vijftien vragen kosten al snel een halve liter. De stap naar gen-ai vereist dan ook een overgang naar hernieuwbare energiebronnen voor datacenters om de ecologische voetafdruk te verminderen. Naast deze milieueffecten heeft het gebruik van gen-ai ook invloed op de samenleving. De aard van het werk voor een scala aan banen staan onder invloed van de komst van deze tools. Dit kan in sommige gevallen betekenen dat banen verdwijnen, maar ook dat bijscholing nodig is.

Terwijl gen-ai blijft evolueren en verschillende aspecten van ons leven beïnvloedt, blijft het vinden van de juiste balans tussen innovatie en regulering een dynamische en voortdurende inspanning. Dit zal de komende tijd dan ook een belangrijk thema blijven.

Gerhardus Lindeque is technical manager bij NTT DATA

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Beveiliging van AI in de praktijk

    AI is hot, maar de praktijk binnen grote organisaties blijkt weerbarstig. Stop met brandjes blussen; zo schaal en beveilig je met succes.

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialSecurity & Awareness

    Cybersec Netherlands 2025 – Programma...

    Keynotes over cloud, AI en geopolitiek: het programma van Cybersec Netherlands raakt de kern van digitale weerbaarheid

    Meer persberichten

    Meer lezen

    lek muur dam
    ActueelSecurity & Awareness

    Kort: Claude onthoudt langer, lekken groter, de omgekeerde ai-generatiekloof  (en meer)

    ai ontslag banen
    ActueelData & AI

    Kort: China hackt ook Nederland, Moskou beheert Node.js-hulpprogramma, Nvidia groeit hard (en meer)

    Kompas
    AchtergrondCarrière

    Hrm op een kruispunt: ai moet strategisch kompas worden, geen bijrijder

    Overname M&A
    ActueelData & AI

    Ict-overnames in Nederland goedkoper dan elders in het Westen

    Jacob Spoelstra blazen vermoeiend
    ChannelOverheid

    Spoelstra Spreekt: Van het kastje

    inhaalrace behind the curve
    ActueelGovernance & Privacy

    Kort: Euro-tech steunt DSA, ciso’s behind the curve, massaclaim labhack loopt in miljoenen (en meer)

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine
    • Topics
    • – Phishing
    • – Ransomware

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs