De Amerikaanse regering lijkt ver te willen gaan bij het inzetten van (ai-)technologie in dienst van een politieke agenda. Alertheid is geboden, ook voor het omzien naar alternatieven.
Wanneer ik als Amsterdammer op de website AmsterdamBereikbaar zoek of ik vandaag naar de A4 kan rijden kom ik terecht bij een ai-agent: ‘Stel een vraag’. Daarboven staat: ‘Ai kan fouten maken. Overweeg het controleren van belangrijke informatie.’ Zelfs deze eenvoudige toepassing illustreert het fundamentele probleem van ai (artificiële intelligentie): we weten niet zeker of uitspraken valide zijn. De ai-prompt Grok van X ontspoorde recentelijk met de verheerlijking van Hitler.
Maar dat is nog wat anders dan bewuste manipulatie. De Amerikaanse regering lijkt ver te willen gaan bij het inzetten van technologie in dienst van een politieke agenda, het manipuleren van kennisproductie en het emanciperen van dubieuze content en uitkomsten. Enkele voorbeelden verduidelijken dit.
Gezuiverd
De regering Trump presenteerde op 23 juli een plan gericht op Amerikaanse ai-dominantie wereldwijd via een ecosysteem dat ai-normen volgens haar wensen implementeert. Het plan roept Amerikaanse overheden op om alleen contracten te gunnen aan bedrijven die verzekeren dat ‘ai-modellen objectief zijn’. Daarbij gelden richtlijnen voor de ontwikkeling van ai waaruit begrippen als diversiteit, gelijkheid, inclusiviteit, klimaatverandering en desinformatie verwijderd zijn. In de woorden van Trump: ‘het Amerikaanse volk wil geen woke marxistische idiotie in ai-modellen, en andere landen ook niet.’
Begin dit jaar werd al bekend dat Amerikaanse overheidsinformatie werd gezuiverd van het gebruik van woorden die als woke werden beschouwd zoals ‘klimaatwetenschap’, ‘minderbedeeld’, ‘slachtoffer’, ‘identiteit’, en ‘vervuiling’.
Orwelliaanse term
In mei van dit jaar presenteerde de Amerikaanse regering de Golden Standard of Science. Dit instrument institutionaliseert de diskwalificatie van de wetenschap tot heden en opent de weg naar hierarchische gelijkstelling met wetenschappelijke consensus van fringe- en complottheorieen op het gebied van bijvoorbeeld klimaatverandering, de werking van vaccins, platte aarde, en christelijk creationisme. De Orwelliaanse term die hiervoor wordt gebruikt is ‘informed dissent‘. Dit sluit aan bij een in ai-context gehoord standpunt dat men voor objectiviteit van uitkomsten standpunten gelijkelijk moet weergeven.
Als klap op de vuurpijl regelt deze ‘golden’ standaard bestraffing van wat wordt genoemd ‘wetenschappelijk wangedrag’ door de overheid. Dit alles gaat samen met gerichte vermindering van de financiering van wetenschappelijk onderzoek en het geven van een stem aan wetenschappelijk marginale ideeen tot op op beleidsniveau.
Begin van dit jaar tenslotte begon het Parijse parket een onderzoek naar politieke manipulatie door xAI, de startup van Elon Musk, op basis van het Franse wetboek van strafrecht. De Amerikaanse regering, die de ambitie heeft om te komen tot een politieke reset in Europa, heeft de Franse justitie hierop kort geleden aangevallen. xAI, waarvoor bewijzen van manipulatie zich aandienen, weigert om algoritmen vrij te geven.
Neutrale ai
Worden de maatregelen voor datacenters en hun energievoorziening toegejuicht door de ai-industrie, voor het meedoen aan een dergelijke cultuuroorlog geldt dat zeker niet onverdeeld. Technologiebedrijven hebben ook een commercieel belang bij neutrale ai. En hoe moeilijk het is om de uitkomsten van ai actief te beinvloeden bleek toen een maatregel ter voorkoming van het voortrekken van blanken en mannen door Googles Gemini leidde tot beelden van een vrouwelijke paus en zwarte nazi’s.
Voor technische zaken, zoals bijvoorbeeld juridisch-technische informatie, rekenmodellen, procesoptimalisatie of it-beheer is ai wellicht het meest ‘veilig’. Maar we kunnen niet voorspellen waar nog grenzen worden getrokken, en we kunnen inmiddels wel voorspellen wie dat wil gaan doen. De Amerikaanse regering zoekt het in het uitoefenen van druk op de bedrijven via gunning van contracten. Alertheid is geboden, ook voor het omzien naar alternatieven. Het wordt interessant om te zien hoe technologiebedrijven zich gaan opstellen, En hoe universiteiten, organisaties en overheden maar ook de toezichthouders Algemene Rekenkamer en Autoriteit Persoonsgegegevens hiermee zullen omgaan.
Marcel van Kooten is management consultant Sourcing and IT Governance bij Highberg.
Mensen zijn ook niet neutraal. Waarom zou een A.I. dat wel moeten zijn?
Het artikel roept op alert te blijven op hoe taal rondom AI ontworpen wordt om consensus over technologische afhankelijkheid te vormen. Want echte bedreiging is niet de technologie zelf maar de manier waarop deze wordt ingezet om het democratisch debat te neutraliseren. Orwelliaanse new‑speak draait tenslotte minder om woorden en meer om denkstructuren die ondermijnd worden. Want artikel biedt weinig tot geen tegenargumenten vanuit een Amerikaans perspectief, de auteur doet daarmee waar tegen hij waarschuwt.
Zoals altijd geen verdere vragen.
https://chatgpt.com/share/688de44c-6c90-8006-89d2-fcc0eb3a8a7e
“…dit soort reacties KUNNEN een verdraaiing zijn van democratisch-kritische argumenten…” ChatGPT zegt dat Jack achter elke boom in het bos een rechts-populistische reactie ziet omdat links vooral erg argwanend is. Ik heb daarom gevraagd welke definitie we aan neutraal moeten geven omdat neutraliteit een morele lafheid is.
Een neutrale definitie van neutraal is blijkbaar inherent onmogelijk. Neutraliteit is geen absolute eigenschap; elke poging om haar te definiëren legt impliciete keuzes en voorkeuren bloot.”
Voor wie achter de bomen het bos niet meer ziet : keuterboertje heb gewoon gelijk 😉
Geen reactie van de management consultant Highberg?
Dat AI niet neutraal is lijkt me een open deur want LLM’s worden net zo gevoed als kinderen. Als je ontkenning van de evolutietheorie er met de paplepel ingooit dan is Amerikaanse AI opeens heel bruikbaar. En wie geld wil winnen moet met mest beginnen want als er geen neutrale AI is wat wil de management consultant dan verkopen?
Governance is leuk maar als het om een gunning van contracten gaat dan wordt de druk interessant omdat ik nog niks over ethiek gevraagd heb. Lessen daarin gingen niet om neutraliteit maar om de keuzen die je maakt omdat er een scheidslijn is tussen goed en kwaad. Voorspellen waar grenzen worden getrokken en voorspellen wie dat wil gaan doen is interessant. Orwelliaanse wijsheid over gelijkheid ging om een ander boek maar ik denk dat de context wel duidelijk is.
De ongemakkelijke waarheid gaat om de informatie. Zeg maar de paplepel waaraan we ons dagelijks laven.
Oudlid, de eerder gegeven link aangevuld met nieuwe inzichten.
Als een principe je niet bevalt dan kun je altijd een ander principe kiezen Batavus Droogstoppel want elke vorm van denken kan ingezet worden als wapen voor politieke coöptatie.
Instrumentalisering van filosofie gaat niet om denken maar om preken. Want als we niet meer twijfelen dan zijn we gestopt met denken en lopen we in de pas.
Waarom kan ik mijn kennis bevestigen met iedere LLM en jij niet?
https://grok.com/share/c2hhcmQtMw%3D%3D_c492f5f4-8ecd-48e0-8ad7-dadf63845cd8
https://chatgpt.com/share/68970ad1-44ec-8006-86d0-80d3d8e48b99
Jack,
Dezelfde LLM’s bevestigen keer op keer mijn kennis want hermeneutiek gaat om begrijpend lezen. Maar ook om een vooringenomen lezen door de culturele achtergrond van een lezer waardoor je filosofie net zo neutraal is als de Amerikaanse AI waarover we discussiëren. Vraag je LLM’s eens naar het geflirt met het nationaalsocialisme door Heidegger.