Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
[Afbeelding: Sansoen Saengsakaorat/Shutterstock.com]

OU-professor Alechina speurt naar veiliger inzet van gen-ai

25 oktober 2024 - 17:33ActueelInnovatie & TransformatieOpen Universiteit
Diederik Toet
Diederik Toet

Hoe kunnen we generatieve ai, zoals ChatGPT, veiliger inzetten? Dus zonder fouten en hallucinaties die schade kunnen veroorzaken, bijvoorbeeld door feitelijke onjuistheden te presenteren? Dat bespreekt Natasha Alechina, hoogleraar Safe and Responsible AI aan de Open Universiteit, tijdens haar oratie op 1 november.

De toepassing van generatieve ai en language learning models (llm’s) wordt volgens Alechina beperkt door de risico’s die eventuele fouten kunnen teweegbrengen. Zo zouden robotvoertuigen een onaanvaardbaar ongevallenpercentage hebben en kun je menselijke piloten nog niet vervangen door zelfvliegende vliegtuigen. ‘Het probleem is dat we niet weten wat de systemen die zijn gebaseerd op leren, hebben geleerd’, meldt de wetenschapper.

Llm’s hebben de neiging om dingen te verzinnen, te hallucineren. Volgens Alechina komt dit doordat de modellen het verschil tussen waarheid en onwaarheid niet weten. Je kunt de gegenereerde content wel verifiëren, meent ze. Van een door gen-ai ontwikkeld medisch behandelplan zou je bijvoorbeeld kunnen controleren of het voldoet aan de voorgeschreven richtlijnen.

Gen-ai combineren met symbolische methoden

In haar oratie, de inaugurele rede van een nieuwe hoogleraar, pleit Alechina voor het combineren van machine learning met symbolische methoden. Deze methoden, waarbij de code werd geschreven door menselijke programmeurs, zijn veiliger en verifieerbaar. Ze onderzoekt hoe je formele verificatietechnieken kunt toepassen op door ai gegenereerde inhoud. In haar toekomstige werk hoopt zij een balans te vinden tussen de flexibiliteit van gen-ai en de nauwkeurigheid van symbolische benaderingen.

Natasha Alechina is sinds september 2023 hoogleraar Safe and Responsible AI aan de faculteit Bètawetenschappen van de Open Universiteit. Ze is ook universitair hoofddocent aan de faculteit Bètawetenschappen aan de Universiteit Utrecht, waar zij de cursus Logics for Safe Artificial Intelligence geeft binnen de master AI. Haar oratie over veiliger inzet van gen-ai vindt plaats op 1 november 2024 om 16 uur aan de Open Universiteit in Heerlen.

Language learning model en large language model

Een language learning model is een algemeen ai-model dat taal begrijpt en verwerkt, vaak beperkt tot specifieke taken. Een large language model is een grootschalig type hiervan, met honderden miljarden parameters, dat complexe taalpatronen leert en veelzijdige, mensachtige tekst kan genereren. ChatGPT(van OpenAI), Claude (van Anthropic), Llama (van Meta) en Bert (van Google) zijn voorbeelden van een large language model.

Meer over

AIArtificial intelligenceGen-aigeneratieve aiGenerative ai

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    Design Sprints: 4 dagen van idee naar prototype

    Hoe zet je in vier dagen tijd een gevalideerd prototype neer met Design Sprints?

    Computable.nl

    Dit is de weg naar informatietransformatie

    In een wereld waar data en informatie centraal staan, moeten organisaties zich aanpassen aan de digitale toekomst. Informatietransformatie is de sleutel tot het versterken van beveiliging en het bevorderen van efficiëntie.

    Meer lezen

    ActueelSecurity & Awareness

    AIVD en RDI presenteren model voor risicoanalyse gen-ai

    Ai
    ActueelData & AI

    Gesign-ai-leerd: 30 procent gen-ai-projecten mislukt en eerste publiekstest SearchGPT

    test
    ActueelOverheid

    Ambtenaar mag onder voorwaarden oefenen met gen-ai

    ActueelInnovatie & Transformatie

    Gartner ziet dankzij gen-ai Gouden Eeuw voor senioren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs