Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
Onbetrouwbaar

Generatieve ai: richtlijnen voor betrouwbare modellen

22 maart 2023 - 09:575 minuten leestijdOpinieCloud & Infrastructuur
Gianni Cooreman
Gianni Cooreman

Van tekst tot foto’s of video’s, en zelfs uitvoerbare code. Generatieve ai geeft iedereen toegang tot een ongezien niveau van artificiële intelligentie. Modellen zoals ChatGPT en Stable Diffusion zijn in staat om dingen te doen die in de voorbije tien jaar nog ondenkbaar waren. En dat vaak zelfs gewoon op basis van input uit natuurlijke taal. Maar al dat potentieel brengt ook nieuwe risico’s met zich mee.

Vertrouwen is dan ook het sleutelwoord in de ontwikkeling van generatieve ai.

Op het einde van 2022 gebruikten onderzoekers van twee Amerikaanse universiteiten generatieve ai, meer bepaald ChatGPT, om tekstextracten te genereren op basis van titels afkomstig uit vijf medische tijdschriften. Bij een derde van de door ai geproduceerde fragmenten dachten ze onterecht dat ze met de originele tekst te maken hadden. En in veertien procent van de originele extracten oordeelden ze verkeerd dat de tekst door ChatGPT gegenereerd was. Indrukwekkend, maar tevens gevaarlijk wanneer zelfs getrainde experten om de tuin zijn te leiden door de kracht van een ai-systeem.

Aan de andere kant mogen we ook niet uit het oog verliezen dat er grenzen zijn aan het vermogen van ai. Een zogenaamd Large Language Model, getraind met echte data uit teksten, kan dan wel heel sterk zijn in het schrijven van taalkundig correcte paragrafen, het is minder in staat om zoals menselijke schrijvers te redeneren of een portie gezond verstand toe te passen. Dat onevenwicht moeten we oplossen vooraleer generatieve ai-tools een bedrijfskritische rol kunnen opnemen.

Vertrouwen

Generatieve ai biedt uiteraard heel wat mogelijkheden die het verkennen waard zijn. Meestal zal tot op een bepaald niveau nog altijd menselijke interventie nodig zijn. Wanneer we ai bijvoorbeeld gebruiken om marketingteksten uit te werken, dan blijft het aanbevolen om de output door een redacteur te laten nakijken om de feiten te checken en het geheel verder te verfijnen. Soms kan die feedback ook binair zijn door het systeem simpelweg te vertellen of de output al dan niet voldoet.

Doorgaans zit de kracht van een ai-systeem in de samenwerking met mensen. Zoals bij een it-beheerder die een ai-model inschakelt om code te genereren voor het bouwen van een applicatie. Als het model de routinetaken overneemt, dan heeft de ontwikkelaar meer tijd om zich bezig te houden met creatief werk dat een meerwaarde voor de eindgebruiker biedt. Om dat te kunnen doen, moeten we eerst het bewustzijn rond ai vergroten, zodat mensen een beter begrip krijgen van de sterke en zwakke punten van de technologie. En kunnen beoordelen of de output betrouwbaar is.

Vertrouwen is een basiscomponent tijdens het bouwen van ai-producten. Dagelijks worden miljarden voorspellingen gedaan die verschillende aspecten van de business ondersteunen. In sales kan ai bijvoorbeeld aanbevelingen doen om een deal sneller af te ronden. In callcenters kunnen medewerkers chatbottechnologie gebruiken om de eerste interactie met klanten uit te voeren, zodat zij zich kunnen toeleggen op meer complexe vragen. Marketeers kunnen dankzij ai het gedrag van klanten beter begrijpen en op basis daarvan gepersonaliseerde content aanbieden.

Vijf richtlijnen

Op dezelfde manier verkennen we vandaag generatieve ai. Daarbij maken we gebruik van vijf richtlijnen die ervoor moeten zorgen dat ai-producten betrouwbaar zijn:

  • Focus op nauwkeurigheid

De resultaten van generatieve ai moeten verifieerbaar zijn. Zeker wanneer er onzekerheid over de accuraatheid bestaat, is communicatie cruciaal zodat gebruikers de correctheid van de output kunnen valideren. Bijvoorbeeld via bronvermelding of door het systeem te laten uitleggen hoe en waarom het bepaalde keuzes maakt. Daarnaast zijn ook voldoende vangrails nodig om te voorkomen dat bepaalde taken volledig worden geautomatiseerd. Het probleem met externe modellen is dat ze getraind zijn op heel wat data waar je als bedrijf geen inzicht noch controle over hebt. Je zou dus eigenlijk de kracht van het algoritme moeten kunnen loslaten op een set van training data die jij aanlevert als bedrijf en waarvan je ook de kwaliteit kunt controleren.

  • Safety first

De output van ai moet worden beoordeeld op bias, verklaarbaarheid en robuustheid. Dit kan door ai-modellen te trainen  op basis van enorme datavolumes die relevant zijn voor de use-cases van klanten die de tools gebruiken. Uiteraard met de nodige bescherming in het kader van privacy. Om schade te voorkomen, is het ook aanbevolen om code in een sandbox te publiceren in plaats van alles automatisch naar een productieomgeving te pushen.

  • Wees eerlijk

Niet alleen moeten we waken over de herkomst van de data, transparantie  over het feit dat iets door ai gecreëerd is, is minstens zo belangrijk. Zeker als die content autonoom wordt aangeleverd, zoals bij het gebruik van een chatbot om met klanten te communiceren.

  • Versterking van menselijke capaciteiten

In sommige gevallen kan het aanbevolen zijn om processen volledig te automatiseren, maar er zijn ook situaties waarin ai best een ondersteunende rol opneemt of waarin een menselijke interventie vereist blijft. Het gaat erom dat we het juiste evenwicht vinden om onze eigen capaciteiten optimaal te benutten en tegelijkertijd toepassingen voor iedereen zo toegankelijk mogelijk te maken.

  • Denk duurzaam

Zoals met alles, staat het milieu voorop, dus ook wanneer we generatieve ai-modellen bouwen. Een groter model heeft immers een grotere ecologische afdruk. En groter is niet altijd beter bij ai. Soms kan een kleiner, beter getraind model meer waarde opleveren. En naast de ecologische footprint heb je nog het financiële plaatje. Grote modellen vergen veel rekenkracht.

Bewustzijn

Generatieve ai heeft dus een immens potentieel, maar daar staat een bewustzijn van ontwikkelaars tegenover van  verantwoordelijkheid voor het inbouwen van vertrouwen en transparantie. Als we hierin slagen, dan zal deze technologie de wereld zonder twijfel op een positieve manier veranderen.

Meer over

Kunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Meer lezen

    AchtergrondCloud & Infrastructuur

    Europese it moet nú regie pakken

    OpinieData & AI

    Maak ai saai!

    ActueelData & AI

    Cisco sorteert voor op komst van ai-agenten

    AchtergrondData & AI

    Nvidia lanceert 20 nieuwe ai-fabrieken in Europa, maar passeert Nederland

    ActueelCloud & Infrastructuur

    Meer spreiding datacenters door knelpunten

    ActueelCarrière

    Kort nieuws: Netcompany verhuist naar de Hofstad, meer omzet Besi, Fugaku snelste super (en meer)

    2 reacties op “Generatieve ai: richtlijnen voor betrouwbare modellen”

    1. Rob Koelmans schreef:
      13 mei 2023 om 07:34

      @Gianni. Als het ai-model routinetaken overneemt van de IT-beheerder?? ChatGPT en BingChat zijn nou juist zo ijzersterk in incidentele taken. Verder zeg je “het is minder in staat om zoals menselijke schrijvers te redeneren of een portie gezond verstand toe te passen”. Maar dat is dan toch in strijd met het onderzoek waar je in de alinea erboven aan refereert? In dat geval zou het een makkie geweest zijn om AI-teksten to onderscheiden. Het verrassende van ChatGPT is nou juist dat het onwaarschijnlijk diep inzicht kan vertonen. Ik heb daar diverse staaltjes van liggen.

      Login om te reageren
    2. Henri Koppen schreef:
      14 juni 2023 om 06:21

      Rob, chatGPT zijn best goed in redenatie, ze hebben alleen geen presence in de realiteit en kunnen dus niet plannen of real-world consequenties kennen.

      Dus het is net waar je het op toe past. Computer code? goed. Handelen in de realiteit en de gevolgen daarvan doorzien? Slecht.

      Dus is AI slim? It depends 🙂

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs