Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Geheimhouden ai-technologie is groot risico

03 mei 2019 - 11:465 minuten leestijdOpinieInnovatie & TransformatieWikileaks
Jasper Wognum
Jasper Wognum

Een blogpost van OpenAI over hun indrukwekkende taalmodel GPT-2 veroorzaakte ophef. Volgens OpenAI is het taalmodel in staat samenhangende en opvallend realistische tekstdocumenten te produceren zonder specifieke training. Het tumult ontstond niet alleen door de indrukwekkende resultaten, maar veeleer door het besluit van OpenAI om het taalmodel geheim te houden.

Zoals ze ook in hun blog vermelden, heeft OpenAI slechts een kleinere versie van GPT-2 vrijgegeven. Het grotere model zou namelijk bezorgdheid opwekken over kwaadwillende toepassingen van de technologie, zoals het op grote schaal genereren van misleidende, bevooroordeelde of beledigende taal. Met deze keuze hoopten ze binnen de ai-gemeenschap een discussie te starten over de implicaties van dergelijke systemen. En dat deden ze. De blogpost leidde tot een heftig debat met meningen die ver uit elkaar lagen. Veel onderzoekers vinden het vreemd dat juist een bedrijf als OpenAI kiest voor geheimhouding. Dit past toch niet bij hun naam?

Pijlers

Sommige vakgenoten menen dat geheimhouding, angst voortbrengt en voor overdreven publiciteit zorgt, terwijl de reproduceerbaarheid en wetenschappelijke controle worden belemmerd. Ze beschouwen opensourcecode en het open delen van kennis als belangrijke pijlers voor de grote vooruitgang van ai. OpenAI doet nu het tegenovergestelde.

Volgens critici probeert OpenAI een ethisch verantwoord standpunt in te nemen zonder expliciet aan te tonen dat hun model daadwerkelijk in staat is de kwaadwillende inhoud te genereren die zij beweren te vrezen. Toch kun je je afvragen waarom OpenAI een discussie over potentiële gevaren van ai start en daarnaast een model beschrijft dat deze gevaren voedt. Door te vermelden hoe het model opgebouwd en getraind is, hebben ze het recept voor het reproduceren van het model gedeeld. Met een handjevol ai-ingenieurs, tijd en voldoende rekenkracht is dit zelfs relatief eenvoudig. OpenAI’s waarschuwing zou dus zomaar het gevaar kunnen zijn waar ze juist voor waarschuwen.

Hoewel deze kritiek niet misplaatst is, mist het een belangrijk argument dat OpenAI onlangs naar voren bracht. Jack Clark, beleidsdirecteur bij OpenAI, verklaarde tegenover The Verge dat het slechts een kwestie van tijd is totdat iemand synthetische video, beeld, audio of tekst gaat gebruiken. GPT-2 is hierdoor bijvoorbeeld in te zetten als een geautomatiseerde trolling-machine, die eindeloze gal of haat uitspuwt. Medeoprichter van Fast.AI, Jeremy Howard, is het hier mee eens en zegt dat hij al enige tijd waarschuwt dat de technologie in staat is internet te vullen met geloofwaardige, context-specifieke teksten. Hierdoor is nepnieuws straks niet meer te onderscheiden van écht nieuws.

Cultuur

Dit is natuurlijk een ontwikkeling waar de ai-gemeenschap voor op haar hoede is en moet zijn, maar dit betekent niet dat de gemeenschap het eens hoeft te zijn met de beslissing van OpenAI. De opensourcecultuur van de ai-gemeenschap is juist één van de redenen waarom de ai-industrie groeit. Door deze cultuur te veranderen kan ai net zo gevaarlijk worden als dat het wordt gevreesd. We kunnen dit bekrachtigen door de beslissing van OpenAI te vergelijken met de beslissing om een zero day geheim te houden in cybersecurity.

Een zero day is een softwarelek dat de ontdekker niet heeft gedeeld met de maker van de software. Als de ontdekker beslist dit lek te misbruiken, heet het een zero day exploit. Deze exploits worden zo genoemd omdat de makers ‘zero days’ de tijd krijgen het lek te dichten.

Zero days zijn interessant voor drie groepen. Cybercriminelen gebruiken zero day-exploits om apparaten van individuen, bedrijven of organisaties te kraken. Beveiligingsbedrijven hebben interesse in zero days, omdat kennis hiervan helpt om de beveiligingssoftware van het bedrijf te verbeteren. Bovendien willen regeringen van sommige landen graag zero days hebben om ongezien apparaten van verdachten te kraken of zelfs te bespioneren. De vrees voor dergelijke praktijken werd twee jaar geleden reëel toen WikiLeaks aankondigde dat ze informatie hadden verkregen over CIA-hacktools waarvan werd vastgesteld dat ze vele zero day exploits bevatten.

Het is duidelijk dat zero days een gevaar vormen voor cybersecurity. Als een instelling ze kent, dan kunnen personen met verkeerde intenties dat ook. Om de privégegevens van nietsvermoedende gebruikers veilig te stellen, mogen zero days niet worden misbruikt. Integendeel, het zou beter zijn als organisaties, zoals de CIA, zero days delen met de bedrijven  in plaats van ze geheim te houden. Alleen de makers van de software kunnen de lekken immers dichten.

Publiekelijk

Bij GPT-2 zou dit ook het geval kunnen zijn. Hoewel volledige openheid te veel gevraagd is van instellingen als de CIA, is het niet verkeerd dit van OpenAI te vragen wat hun GPT-2 betreft. Door het model publiekelijk te delen, zou de bredere ai-gemeenschap kunnen leren omgaan met de mogelijke bedreiging die het vormt. In plaats daarvan is de wereld nu bang voor de gevaren en niet in staat om een manier te vinden die zich tegen deze gevaren beschermd.

Ai-innovatie groeit op veel fronten in een snel tempo door. Gezien kwaadwillende partijen zeer waarschijnlijk een werkend GPT-2-model gaan ontwikkelen, is het onverstandig om ai-technologie geheim te houden – want het brengt wel degelijk de nodige risico’s met zich mee.

Meer over

CybercrimeExploitsKunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    Design Sprints: 4 dagen van idee naar prototype

    Hoe zet je in vier dagen tijd een gevalideerd prototype neer met Design Sprints?

    Computable.nl

    Dit is de weg naar informatietransformatie

    In een wereld waar data en informatie centraal staan, moeten organisaties zich aanpassen aan de digitale toekomst. Informatietransformatie is de sleutel tot het versterken van beveiliging en het bevorderen van efficiëntie.

    Meer lezen

    OpinieInnovatie & Transformatie

    Als ai een zwarte doos is

    OpinieSecurity & Awareness

    Waarom is industriële sector populair bij criminelen?

    2 reacties op “Geheimhouden ai-technologie is groot risico”

    1. Victor schreef:
      6 mei 2019 om 16:36

      Bij het domein van “computer generated imagery” was er een periode sprake van de “uncanny valley”: het fenomeen dat de meest realistische nagebootste mensen bijna echt leken, maar net niet, waardoor de beelden onaangenaam ware om naar te kijken. Die fase ligt nu achter ons.

      Bij de AI-gegenereerde teksten zitten we nu in een vergelijkbare fase; het lijkt echt, maar als je beter kijkt blijkt het nergens over te gaan. Ik hoop dat we binnen afzienbare tijd deze fase ook achter ons kunnen laten, waarna de gegenereerde teksten werkelijk hout gaan snijden, en zowel inhoudelijk consistent zijn als met externe bronnen. Dan zal het geen straf meer zijn ze te hoeven lezen. (Of laten lezen door je persoonlijke AI 😉

      Misschien kan een AI dan zelfs de Brexit-knopen doorhakken voor die arme Britten, de parlementariërs komen er immers niet meer uit.

      Login om te reageren
    2. Jan van Leeuwen schreef:
      7 mei 2019 om 10:59

      “Het lijkt echt, maar als je beter kijkt, blijkt het nergens over te gaan.” Is dat het geheim van de politici?

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs