Managed hosting door True

Chatbots vormen nog geen bot-pocalyps

We kunnen voorlopig allemaal rustig blijven slapen.

 

In principe zijn chatbots ‘gewoon’ een andere manier om met een applicatie te communiceren. De bots kunnen op commando informatie uit meerdere bronnen ophalen en acties in werking zetten. Dit proces wordt bij de ontwikkeling van bots verpakt in een natural language interface (NLI) of in een conversationele interface. Dit maakt het echter ook makkelijker om verkeerde intenties te vermoeden wanneer een programma iets ongewoons doet. Maar dat is veelal onterecht. We kunnen voorlopig nog rustig slapen. Want ik als chief architect denk dat we ons nog lang geen zorgen hoeven te maken over een bot-pocalyps.

Afgelopen zomer gingen twee Facebook bots, naar het leek, uit het niets met elkaar chatten in hun eigen taal. Enkele maanden later bleek Google’s AlphaGo ook nog eens de beste schaker ter wereld te zijn. En ja hoor, het internet explodeerde met voorspellingen over onze ondergang. Ik ben echter van mening dat dit nog geen ondergang van de wereld betekent.

Waar we op dit moment staan

Met de huidige mogelijkheden kunnen we alleen applicaties bouwen die of nabootsen wat we al weten, of automatiseren wat we doen. Naarmate de technologie vordert, kunnen we snellere en geavanceerdere algoritmen creëren waarmee we steeds complexere taken kunnen uitvoeren. Toch lukt het nog steeds niet om een programma te maken die deze taken volledig automatiseert.

Data en machine learning vormen de sleutel tot het creëren van zelflerende systemen. Maar net als algoritmes werken deze maar binnen een smal domein. Bijvoorbeeld een algoritme dat katten leert herkennen, kan niet zonder nieuwe kennis plotseling beslissen dat een van de foto’s niet een kat was, maar een hond, om vervolgens katten van honden te kunnen onderscheiden.

De volgende stap in de ontwikkeling zou een algoritme zijn dat dit wel kan. Google’s AlphaGo - de beste schaker ter wereld -  komt hier langzaam bij in de buurt, echter het gaat hierbij wel nog steeds maar om één specifieke taak.

Beveiligingssystemen

Bots voor bedrijfsapplicaties (enterprise bots) worden gebouwd rondom specifieke use cases en werken in een nauwe context. Als ze worden versterkt met bijvoorbeeld voorspellende analytics en machine learning, kunnen ze hun woordenschat verbeteren en meer commando’s begrijpen. Wanda, onze bedrijfseigen digitale assistent, kan bijvoorbeeld niet alleen vergaderingen plannen, vrije dagen aanvragen en reizen boeken, ze kan ook inzicht geven in projectstatussen, voltooiingstijden voorspellen en nog veel meer. Ze leert ook van eerdere ervaringen dat woorden zoals ‘aanschaffen’, ‘kopen’ en ‘afnemen’ hetzelfde betekenen en dus dezelfde actie vereisen. Ze is intelligent, maar niet autonoom van mensen.

Bots drijven vooralsnog op menselijke input. Dus als je onjuiste gegevens invoert, krijg je foutief gedrag. Er moeten bij data-gedreven bots dus adequate beveiligingssystemen beschikbaar zijn, drempelvoorwaarden voor wanneer een algoritme een beslissing neemt en uitgebreide registratiesystemen die elke beslissing van algoritmen inzichtelijk maken.

De meeste bedrijfsoplossingen worden geleverd met standaard beveiligingen om bijvoorbeeld te voorkomen dat menselijke gebruikers fraude plegen. Alle acties die bedrijfssoftware onderneemt, voldoen aan regels die ervoor zorgen dat alles wat een impact kan hebben op het bedrijf, specifieke goedkeuringsprocedures doorloopt. Dit zou ook voor elk te implementeren kunstmatige intelligentie (ai)-systeem moeten gelden; softwareleveranciers moeten duidelijk kunnen uitleggen hoe de algoritmen werken en uitgebreide informatie verstrekken over hoe beslissingen worden genomen.

Uitkijken!

Niet alle zorgen rondom ai zijn ongegrond. Het feit dat Google’s AlphaGo slechts 24 uur nodig had om de schaakregels te leren en vervolgens de beste systemen ter wereld te verslaat, zorgt logischerwijs voor opgetrokken wenkbrauwen. En aangezien de huidige algoritmes beslissingen baseren op data en patronen, is het niet ondenkbaar dat een algoritme besluit dat alle mensen vijanden zijn. Echter, we kunnen software dan uitschakelen en aanpassen, net zoals bij de ‘criminele’ Facebook-bots.

Terugkijkend is het feit dat de Facebook-bots begonnen te communiceren in hun eigen taal helemaal niet zo onheilspellend. De bots kregen geen prikkels om in het Engels te communiceren en begonnen daarom (voor hen efficiëntere) termen te gebruiken die doen denken aan nullen en enen. Zij vervulden dus de geprogrammeerde richtlijn ‘efficiëntie’.

Net als bij elke technologie zetten we voortdurend extra veiligheidsmechanismen in en worden bots steeds veiliger naarmate de tijd vordert. In de tussentijd moeten cio's echter de voordelen en mogelijke risico’s van ai- en chatbottechnologieën afwegen, hoe klein deze risico’s ook mogen zijn.

Kortom: de angst voor malafide bots is op dit moment ongegrond, omdat de mogelijkheden van machine learning nog lang niet in de buurt komen van echte ai. Totdat we dichter bij het begrijpen van het menselijk brein komen, komen we nog niet eens in de buurt van het bouwen van systemen die de mensheid bedreigen. Dus zolang de topprestatie van bots bij het winnen van een schaakpartijtje blijft, kunnen we allemaal rustig blijven slapen.

Claus Jepsen, chief architect bij Unit4

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/6299894). © Jaarbeurs IT Media.

?


Lees verder


Lees ook


 

Jouw reactie


Je bent niet ingelogd. Je kunt als gast reageren, maar dan wordt je reactie pas zichtbaar na goedkeuring door de redactie. Om je reactie direct geplaatst te krijgen, moet je eerst rechtsboven inloggen of je registreren

Je naam ontbreekt
Je e-mailadres ontbreekt
Je reactie ontbreekt

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.