BLOG – Er wordt vaak gezegd dat grote taalmodellen slecht zijn in het oplossen van nieuwe problemen. Maar stel je deze vraag: als ik een praktijkvoorval tot de essentie kan reduceren, dus kan ontdoen van omstandigheidsfactoren, waarom kan een large language model (llm) dat dan niet?
Mijn denken werkt zo: ik abstraheer door een voorkomende situatie te ontdoen van zijn specifieke context. Ik zoek naar dingen die zich ook in andere situaties laten toepassen. Daarmee breng ik het terug tot een principeconcept. Je kunt het zien als het uitvoeren van niet-omkeerbare compressie: abstraheren betekent dat je ziet wat overblijft als je alles weghaalt dat niet essentieel is.
Dit lijkt iets wat een taalmodel ook eenvoudig zou moeten kunnen. Het heeft toegang tot enorme hoeveelheden informatie. Maar toch ontbreekt het llm’s kennelijk tot nu toe aan het belang van het waarom en waartoe van reductie: het heeft geen intrinsieke motivatie tot veralgemenisering ofwel het domein-overstijgend maken van een principe.
Zoals gezegd, als een mens abstraheert, voelt hij of zij intuïtief aan welke factoren genegeerd moeten worden om tot het generieke model van iets te komen. Een llm kan patronen herkennen als deze vaak in de trainingsdata voorkwamen, maar zijn compressie is niet gericht op principevorming.
Doelen bereikt hebben waar nog geen methode voor was? Doordat een llm het aan deze intrinsieke motivatie ontbreekt, is het vermoedelijk daardoor ook relatief slecht in het oplossen van geheel nieuwe problemen. Met name problemen die impulsieve ideeën verlangen. Soms als ingang tot een redeneertrant met voor de hand liggende vervolgstappen, en soms zelfs een keten van impulsieve ideeën.
Maar is dit een blijvende beperking? Waarschijnlijk niet. De kans is groot dat we binnen enkele jaren llm’s hebben die doelgericht kunnen schakelen tussen gespecialiseerde abstractie- en redeneringsbibliotheken. Denk aan een taalmodel dat direct een wiskundige toolbox, ‘theorem prover‘ of ‘causale analysemodule’ raadpleegt omdat het heeft geleerd welk gereedschap wanneer is in te zetten.
Zelfs dan blijft de menselijke aha-sprong misschien nog moeilijk te vangen in een ai-model. De magie zit niet alleen in het vinden van bekende abstracties, maar ook in het bedenken van geheel nieuwe, onverwachte verbanden. Iets wat we zelf ook niet dagelijks ervaren.
Het lijkt desondanks waarschijnlijk dat een llm juist op dit punt ook de mensheid dramatisch zal gaan overtreffen.
Rob Koelmans, directeur MetaMicro Automatisering
