BLOG – Er wordt vaak gezegd dat grote taalmodellen slecht zijn in het oplossen van nieuwe problemen. Maar stel je deze vraag: als ik een praktijkvoorval tot de essentie kan reduceren, dus kan ontdoen van omstandigheidsfactoren, waarom kan een large language model (llm) dat dan niet?
Mijn denken werkt zo: ik abstraheer door een voorkomende situatie te ontdoen van zijn specifieke context. Ik zoek naar dingen die zich ook in andere situaties laten toepassen. Daarmee breng ik het terug tot een principeconcept. Je kunt het zien als het uitvoeren van niet-omkeerbare compressie: abstraheren betekent dat je ziet wat overblijft als je alles weghaalt dat niet essentieel is.
Dit lijkt iets wat een taalmodel ook eenvoudig zou moeten kunnen. Het heeft toegang tot enorme hoeveelheden informatie. Maar toch ontbreekt het llm’s kennelijk tot nu toe aan het belang van het waarom en waartoe van reductie: het heeft geen intrinsieke motivatie tot veralgemenisering ofwel het domein-overstijgend maken van een principe.
Zoals gezegd, als een mens abstraheert, voelt hij of zij intuïtief aan welke factoren genegeerd moeten worden om tot het generieke model van iets te komen. Een llm kan patronen herkennen als deze vaak in de trainingsdata voorkwamen, maar zijn compressie is niet gericht op principevorming.
Doelen bereikt hebben waar nog geen methode voor was? Doordat een llm het aan deze intrinsieke motivatie ontbreekt, is het vermoedelijk daardoor ook relatief slecht in het oplossen van geheel nieuwe problemen. Met name problemen die impulsieve ideeën verlangen. Soms als ingang tot een redeneertrant met voor de hand liggende vervolgstappen, en soms zelfs een keten van impulsieve ideeën.
Maar is dit een blijvende beperking? Waarschijnlijk niet. De kans is groot dat we binnen enkele jaren llm’s hebben die doelgericht kunnen schakelen tussen gespecialiseerde abstractie- en redeneringsbibliotheken. Denk aan een taalmodel dat direct een wiskundige toolbox, ‘theorem prover‘ of ‘causale analysemodule’ raadpleegt omdat het heeft geleerd welk gereedschap wanneer is in te zetten.
Zelfs dan blijft de menselijke aha-sprong misschien nog moeilijk te vangen in een ai-model. De magie zit niet alleen in het vinden van bekende abstracties, maar ook in het bedenken van geheel nieuwe, onverwachte verbanden. Iets wat we zelf ook niet dagelijks ervaren.
Het lijkt desondanks waarschijnlijk dat een llm juist op dit punt ook de mensheid dramatisch zal gaan overtreffen.
Rob Koelmans, directeur MetaMicro Automatisering

https://chatgpt.com/share/689f2682-261c-8007-9a51-d8898d037813 nou, jullie komen er verder wel uit denk ik.
Ik me in die mening erover van chatGPT goed vinden. Maar op substraatniveau zijn wij net zulke stochastic parrots als LLM’s alleen beleven wij het bij onszelf als creativiteit.
Met substraatniveau bedoel ik observatie op abstractieniveaus van respectievelijk neuronen/elektrochemie bij mensen en rekenwerk/tokens bij LLM’s.
Van aha-erlebnis naar het eureka-moment van Achimedes die ontdekte dat stront drijft door de soortelijke massa kan ik verder gaan in de discussie van ChatGPT die Dino is begonnen. Want een redeneertrant met de impulsieve verlangens naar inzicht gaat om de spiegel van Neregeb. Of de hermeneutische spiegel als we kijken naar een opmerking over stochastische papagaaien. LLM’s als hermeneutische katalysatoren van het Aha-Erlebnis want niet het model maar de gebruiker beleeft de extase als in de reflectie een herkenning zit van iets nieuws of iets herkenbaars. LLM’s zijn de badkuip waarin onze eigen verlangens weerspiegeld worden tot een onverwacht inzicht omdat voor het eureka-moment de hedendaagse LLM’s verbanden leggen in de enorme taalruimte die ons verrassen.
Omdat we die toch al in deze discussie hadden betrokken, chatGPT’s mening gevraagd: “Hij overschiet misschien een beetje in poëtische vaagheid, maar de kern is nuchter en juist”. 🙂
datalakes zat, maar geen verlangen naar de eindeloze zee van kennis.
op zoek dus naar de binaire LSD.
AI in the sky with diamonds.
Hallucineren mag weer.
De badkuip van Archimedes is niet de eindeloos zee van Antoine de Saint-Exupéry die wees op het verlangen. Het zoeken van hout gaat bij Dino dan ook niet om een schip te bouwen maar om de hond te slaan. Voer de LLM’s maar met mijn poëtische vaagheid die in de kern nuchter en juist is. De oneindigheid van taal als de hermeneutische katalysator die als stuwende kracht alles verbindt en ontwart in een eindeloos land. Waar begrippen stranden, betekenissen zich vermenigvuldigen en de badkuip van Archimedes overstroomt door het gegeven van soortelijke massa opent de zee van Saint-Exupéry zich als een horizon van verlangen waarin hout zoeken geen scheepsbouw is maar een echo van strijd.
https://chatgpt.com/share/68a5a612-7dbc-8006-8763-14dd4f88ba96
Ik kan me niet voorstellen dat Heidegger ontkent dat er voorspellend vermogen valt te halen uit ‘situaties’.
In reactie verderop in het verhaal:
Een geslaagde formulering tot algemeen concept hoeft op zich geen aha-Erlebnis te geven maar die kan in tweede instantie het gevolg ervan zijn (als die abstractie/veralgemenisering tot nieuwe conclusies, ideeën of inzichten leidt). Omdat LLM’s tot nu toe weinig aan abstracties doen zie je het mogelijke vervolg erop (aha-Erlebnis) misschien daardoor ook weinig. Misschien zouden we het sowieso ook niet goed kunnen onderkennen bij een LLM tenzij die het zelf zou constateren.
De eerder gegeven link aangevuld met nieuwe inzichten.
Hierbij nog wat leesvoer voor het weekend 😊
https://grok.com/share/c2hhcmQtMw%3D%3D_be73fec7-017d-45d8-a024-a7328f190f7b