BLOG – De term ‘verantwoorde’ of ‘neutrale ai’ krijgt gewicht in toekomstvisies waarin ai belangrijker en zelfs autonoom wordt. Neutrale ai zou onbevooroordeeld zijn, niet discriminerend, en ethisch verantwoord. Ai is een instrument dat door mensen wordt gemaakt. Het antwoord op de vraag of ai neutraal is, is pas te verkrijgen door te kijken naar de mens die er achter zit. Nog beter is het om de term neutraliteit exclusief voor die laatste te reserveren.
Volgens de historicus Jerome Bourdon is het vergelijken van ai met een menselijk wezen waarmee is te spreken een vorm van animisme. Het zijn sjamanen die beweren dat ze op geestelijk vlak communiceren met een voorwerp zoals een steen of een boom, en in dit geval een computer, om in de behoeften van zichzelf of hun gemeenschap te voorzien.
Sam Altman, ceo van OpenAI, vergeleek praten met respectievelijk Chatgtp-3, 4 en 5 converseren met respectievelijk een scholier, een student en een expert. Gebruikers kunnen gedesillusioneerd geraken omdat ze zich ‘bedrogen’ voelen door een ai. Elon Musk zei ooit dat ai als een vriend en mentor kon zijn. Volgens Bourdon is ai gewoon een machine die we gebruiken en niet iets waarmee we praten, en die net als een bedlamp afhankelijk is van door de mens verzorgde stroomvoorziening. Hij pleit voor een andere naam: niet ‘kunstmatige intelligentie’ maar ‘algoritme-apparaat’ of ‘bureaucratisch assistent.‘
Goede beslissingen
Het begrip ‘bestuurlijke informatievoorziening’ duidt op het zorgen voor de juiste informatie zodat goede beslissingen zijn te nemen. In die context adresseert ai het probleem dat de managementwetenschap kent als bounded rationality: we beschikken nooit over alle informatie om volledig rationeel te beslissen. Gegeven de context is het beter te spreken in termen van rationaliteit dan van neutraliteit van ai.
Ai kan ongeacht doel of agenda rationeel zijn. Als de Amerikaanse regering data verwijdert over klimaat en vaccins en statistieken over werkloosheid verandert, is dat niet rationeel voor het klimaat, de volksgezondheid of economie maar wel voor de machtspositie van bepaalde actoren. Het is dus belangrijk transparant maken in het licht van welk doel of rationaliteit ai en data worden gebruikt. En een slag dieper: of deze data een weerspiegeling zijn van bijvoorbeeld feiten volgens criteria van wetenschappelijke discipline of epistemologie of bijvoorbeeld zijn gebaseerd op internet (Wisdom of the Crowd).
Vervolgens is de vraag wat ai doet. Onder de vlag van explainable ai onderzoekt het Amerikaanse Anthropic (wat mensachtig betekent) de interne werking van ai ‘om deze te kunnen aanpassen’. Dit betreft de locatie van pakketjes van informatie die ai gebruikt maar ook het pad van analyse van een vraagstelling via het opsporen van informatie naar het selecteren en prioriteren daarvan, inclusief het inspelen op de geïnterpreteerde persoonlijkheid van de vraagsteller. Het onderzoek naar de ‘businesslogica’ van ai, ook voor Chain-of-Thought-ai, staat nog in de kinderschoenen, en welbeschouwd kunnen we wezenlijke besluiten niet door een machine laten ondersteunen zolang we niet weten hoe ze werkt. De Europese AI Act stelt documentatie van hoogrisico-ai vanaf 2027 verplicht.
Morele en juridische aansprakelijkheid tenslotte, beogen sturing op gewenst gedrag. Overdracht aan ai is een gevaarlijke illusie omdat voor deze sturing ook humaniteit nodig is: solidariteit door lotgenootschap met de menselijke soort als basis voor moreel handelen ondersteund door intentie, begrip van consequenties en keuzevrijheid. Voor een machine principieel een onmogelijke stap. Ook zou het overdragen van aansprakelijkheid aan een instrument voor de maker/opdrachtgever ervan een carte blanche betekenen en daar wordt de maatschappij niet beter van.
Rationaliteit
Samenvattend: het verbinden van de term neutraal aan ai leidt af van wat erachter zit: de mens. Ai kan al of niet rationeel werken. Deze rationaliteit is en blijft een afgeleide van de rationaliteit van de maker/gebruiker. En die zal vervolgens nooit volledig neutraal zijn (mede door bounded rationality) maar gelukkig wel moreel en juridisch aansprakelijk. Vanuit dit maatschappelijk oogpunt dient de focus in de discussie over neutraliteit dus te liggen op de maker/gebruiker.
Dat ai hoe dan ook ondergeschikt blijft aan de mens zal ook daaruit blijken dat zelfs sjamanen geneigd zullen zijn om uitsluitend de eigen boom of steen te raadplegen en te vertrouwen en niet die van een ander. Het vertrek van Elon Musk bij OpenAI en daarna volgende conflict is in dat licht bezien veelzeggend: het gaat om de mens.
Marcel van Kooten, management consultant sourcing and it governance Highberg
