Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief

OU-professor Alechina speurt naar veiliger inzet van gen-ai

[Afbeelding: Sansoen Saengsakaorat/Shutterstock.com]
25 oktober 2024 - 17:33ActueelInnovatie & TransformatieOpen Universiteit
Diederik Toet
Diederik Toet

Hoe kunnen we generatieve ai, zoals ChatGPT, veiliger inzetten? Dus zonder fouten en hallucinaties die schade kunnen veroorzaken, bijvoorbeeld door feitelijke onjuistheden te presenteren? Dat bespreekt Natasha Alechina, hoogleraar Safe and Responsible AI aan de Open Universiteit, tijdens haar oratie op 1 november.

De toepassing van generatieve ai en language learning models (llm’s) wordt volgens Alechina beperkt door de risico’s die eventuele fouten kunnen teweegbrengen. Zo zouden robotvoertuigen een onaanvaardbaar ongevallenpercentage hebben en kun je menselijke piloten nog niet vervangen door zelfvliegende vliegtuigen. ‘Het probleem is dat we niet weten wat de systemen die zijn gebaseerd op leren, hebben geleerd’, meldt de wetenschapper.

Llm’s hebben de neiging om dingen te verzinnen, te hallucineren. Volgens Alechina komt dit doordat de modellen het verschil tussen waarheid en onwaarheid niet weten. Je kunt de gegenereerde content wel verifiëren, meent ze. Van een door gen-ai ontwikkeld medisch behandelplan zou je bijvoorbeeld kunnen controleren of het voldoet aan de voorgeschreven richtlijnen.

Gen-ai combineren met symbolische methoden

In haar oratie, de inaugurele rede van een nieuwe hoogleraar, pleit Alechina voor het combineren van machine learning met symbolische methoden. Deze methoden, waarbij de code werd geschreven door menselijke programmeurs, zijn veiliger en verifieerbaar. Ze onderzoekt hoe je formele verificatietechnieken kunt toepassen op door ai gegenereerde inhoud. In haar toekomstige werk hoopt zij een balans te vinden tussen de flexibiliteit van gen-ai en de nauwkeurigheid van symbolische benaderingen.

Natasha Alechina is sinds september 2023 hoogleraar Safe and Responsible AI aan de faculteit Bètawetenschappen van de Open Universiteit. Ze is ook universitair hoofddocent aan de faculteit Bètawetenschappen aan de Universiteit Utrecht, waar zij de cursus Logics for Safe Artificial Intelligence geeft binnen de master AI. Haar oratie over veiliger inzet van gen-ai vindt plaats op 1 november 2024 om 16 uur aan de Open Universiteit in Heerlen.

Language learning model en large language model

Een language learning model is een algemeen ai-model dat taal begrijpt en verwerkt, vaak beperkt tot specifieke taken. Een large language model is een grootschalig type hiervan, met honderden miljarden parameters, dat complexe taalpatronen leert en veelzijdige, mensachtige tekst kan genereren. ChatGPT(van OpenAI), Claude (van Anthropic), Llama (van Meta) en Bert (van Google) zijn voorbeelden van een large language model.

Meer over

AIArtificial intelligenceGen-aigeneratieve aiGenerative ai

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Innovatie in uitvoering: industrieel bouwen

    Wees voorbereid op de bouwplaats van de toekomst. De praktijk van verschillende manieren van industrieel bouwen

    Computable.nl

    Agentic AI in actie

    De stappen van automatiseren naar écht autonoom werken. Welke toepassingen zijn succesvol?

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialSecurity & Awareness

    Cybersec Netherlands 2025 – Programma...

    Keynotes over cloud, AI en geopolitiek: het programma van Cybersec Netherlands raakt de kern van digitale weerbaarheid

    Meer persberichten

    Meer lezen

    ActueelSecurity & Awareness

    AIVD en RDI presenteren model voor risicoanalyse gen-ai

    Ai
    ActueelData & AI

    Gesign-ai-leerd: 30 procent gen-ai-projecten mislukt en eerste publiekstest SearchGPT

    test
    ActueelOverheid

    Ambtenaar mag onder voorwaarden oefenen met gen-ai

    ActueelInnovatie & Transformatie

    Gartner ziet dankzij gen-ai Gouden Eeuw voor senioren

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine
    • Topics
    • – Phishing
    • – Ransomware

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs