Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
[Foto: Witsarut sakorn/Shutterstock]

Onderzoekers bepleiten mens-geïnspireerde taalmodellen

05 februari 2025 - 12:343 minuten leestijdActueelData & AIAI-labUniversiteit van NamenVUB
Rik Sanders
Rik Sanders

Kan een computer een taal leren zoals een kind dat doet? Twee Belgische wetenschappers stellen een alternatief model voor waarin ai-agenten ‘menselijkerwijs’ een taal leren.

Een studie gepubliceerd in het toonaangevende tijdschrift Computational Linguistics door professoren Katrien Beuls (Universiteit van Namen) en Paul Van Eecke (AI-lab, Vrije Universiteit Brussel) werpt nieuw licht op genoemde vraag. De onderzoekers pleiten voor een fundamentele herziening van hoe kunstmatige intelligentie (ai) taal verwerft en verwerkt.

‘Kinderen leren hun moedertaal door in hun leefomgeving te communiceren met de mensen om hen heen. Terwijl ze spelen en met taal experimenteren, trachten ze de intenties van hun gesprekspartners te interpreteren. Zo leren ze gaandeweg om taalconstructies te begrijpen en te gebruiken. Dit proces, waarin taal verworven wordt via interactie en betekenisvolle context, vormt de kern van de menselijke taalverwerving, zegt Beuls.

 ‘De huidige generatie grote taalmodellen, zoals ChatGPT, leren taal op een andere manier’, vervolgt Van Eecke. ‘Door in enorme hoeveelheden tekst te gaan observeren welke woorden vaak in elkaars buurt voorkomen, leren ze teksten te genereren die vaak niet van menselijke teksten te onderscheiden zijn. Dit leidt tot modellen die krachtig zijn in vele vormen van tekstgeneratie, van het samenvatten of vertalen van teksten tot het beantwoorden van vragen, maar die tegelijkertijd een aantal inherente beperkingen vertonen.’ Van Eecke noemt een aantal voorbeelden. Zo zijn deze modellen vatbaar voor hallucinaties en vooroordelen en hebben ze vaak moeite met menselijke redeneervormen. Ook zijn enorme hoeveelheden data en energie nodig om ze te bouwen en te gebruiken.

Taal leren in de leefomgeving

De onderzoekers stellen een alternatief model voor waarin ai-agenten taal leren zoals mensen dat doen: door in hun leefomgeving deel te nemen aan betekenisvolle communicatieve interacties. In een reeks experimenten laten ze zien hoe deze agenten taalconstructies ontwikkelen die direct gekoppeld zijn aan hun omgeving en sensorische waarnemingen. Dit leidt tot taalmodellen die:

  • Minder vatbaar zijn voor hallucinaties en vooroordelen omdat hun taalbegrip gebaseerd is op directe interactie met de wereld;
  • Efficiënter omgaan met data en energie, waardoor ze een kleinere ecologische voetafdruk nalaten;
  • Sterker geworteld zijn in betekenis en intentie, waardoor ze op een meer menselijke manier taal en context begrijpen.

‘Het integreren van communicatieve en gesitueerde interacties in ai-modellen is een cruciale stap in de ontwikkeling van de volgende generatie taalmodellen. Dit onderzoek biedt een veelbelovende weg naar taaltechnologieën die dichter aanleunen bij hoe mensen taal begrijpen en gebruiken’, besluiten de onderzoekers.

Katrien Beuls & Paul Van Eecke, Humans Learn Language from Situated Communicative Interactions. What about Machines?, in: Computational Linguistics 2024, 50 (4): 1277–1311.

Meer over

AIChatGPTLLM

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Computable.nl

    In detail: succesvolle AI-implementaties

    Het implementeren van kunstmatige intelligentie (AI) biedt enorme kansen, maar roept ook vragen op. Deze paper beschrijft hoe je als (middel)grote organisatie klein kunt starten met AI en gaandeweg kunnen opschalen.

    Meer lezen

    ActueelCarrière

    Kort: Ernst-Jan Stigter directeur Sopra Steria Nederland, nepmails namens de NCSC (en meer)

    ActueelInnovatie & Transformatie

    Apple bepaald geen voorloper met ai

    OpinieData & AI

    Maak ai saai!

    ActueelData & AI

    Cisco sorteert voor op komst van ai-agenten

    AchtergrondData & AI

    Nvidia lanceert 20 nieuwe ai-fabrieken in Europa, maar passeert Nederland

    ActueelCarrière

    Kort nieuws: Netcompany verhuist naar de Hofstad, meer omzet Besi, Fugaku snelste super (en meer)

    3 reacties op “Onderzoekers bepleiten mens-geïnspireerde taalmodellen”

    1. keuterboertje schreef:
      5 februari 2025 om 15:01

      Ze stellen een alternatief model voor die leert zoals mensen dat leren, maar komen niet met een voorbeeld want ze weten niet hoe. Als iemand dat wist dan had men dat natuurlijk allang gedaan! Dit is dus een onzinnig artikel.

      Daarnaast ben ik er niet van overtuigd dat de huidige taalmodellen geen intelligentie bevatten. Hun output is te complex om te verklaren met “ik zoek het dichtstbijzijnde woord wat erbij past”. Daarnaast is er niet een goede definitie van intelligentie.

      Login om te reageren
      • romke schreef:
        7 februari 2025 om 01:02

        Beste Keuterboertje, ik kan me levendig voorstellen dat je je moeite hebt met deze ontwikkelingen. Het is een ingewikkelde materie en filosofisch ook niet simpel. Maar ik verzeker je, dit artikel is zeer zeker niet onzinnig.

        Dat idee om een machine taal te laten leren als een mens is op zichzelf niet nieuw, het werd al decennia geleden bedacht. De truc is dat wij mensen de klanken van de taal verbinden (via onze neuronen) met andere sensorische indrukken (tastzin, gezicht, bloeddruk, maagpijn, zon op je gezicht, enz, enz). De verwerking daarvan ligt deels vast in onze genen, al tig miljoenen jaren (niet alleen zoogdieren kunnen verbanden leggen en taal leren).
        Vroeger konden we het niet bij benadering simuleren op machines, maar tegenwoordig worden de computers steeds krachtiger, de mogelijkheden zijn steeds beter.

        “Het dichtstbijzijnde woord” is natuurlijk slechts een indicatie van hoe het werkt. In een artikel als dit is het niet mogelijk eventjes de hele theorie en praktijk achter neuronale netwerken uit te leggen. Als je echt een oordeel wilt vellen over hoe hedendaagse kunstmatige “intelligentie” werkt, zou je toch echt je wat dieper moeten orienteren op dit vakgebied. Er is literatuur genoeg, op allerlei niveaus.

        Nog even een plagerijtje: kun je uit deze tekst 100% zeker afleiden of ik een mens of een robot ben?

        Login om te reageren
        • Jack Jansonius schreef:
          10 februari 2025 om 11:54

          Romke, mooi hoe je met een zeer zinnige opmerking precies het gelijk van Keuterboertje aantoont.

          Je opmerking dat taal in de eerste plaats klank is spreekt mij (letterlijk) zeer aan.

          Een belangrijke eigenschap van klank is resonantie en al enkele maanden geleden vroeg ik ChatGPT welke filosofen hierover hebben nagedacht. Toen kreeg ik het volgende rijtje: 1. Sartre 2. Heidegger 3. Marcel 4. Merleau-Ponty 5. Ricoeur.

          LLM’s werken niet met resonantie; wel met associatie.

          Maar wat LLM’s verder ontberen is het menselijk lichaam, waardoor ze zaken niet kunnen begrijpen zoals mensen doen. Op dit punt is het denken van Merleau-Ponty overigens zeer van belang.

          Ieder mens begrijpt direct dat een spijker in hout wordt geslagen met een hamer en niet met een balpen (of wat anders). Op die manier kan een LLM dat niet begrijpen.

          Verder ben ik het beslist met Keuterboertje eens dat LLM’s al intelligentie bevatten (waardoor dus terecht van kunstmatige intelligentie kan worden gesproken).

          Er zijn alleen nog wat verdwaalde architecten die dat ontkennen:
          https://www.computable.nl/2022/12/31/chatgpt-geen-doorbraak-maar-doodlopende-weg/

          Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs