Gepubliceerd op februari 4, 2019
Een perfecte chatbot converseert op dezelfde manier als een intelligent mens in een gesprek. Een verfijnde chatbot moet daarom in staat zijn om te leren, en zich verder ontwikkelen dan het leveren van standaardantwoorden gebaseerd op een protocol. Dankzij de ontwikkelingen in de wereld van de Artificial Intelligence (AI) zijn er echter allerlei mogelijkheden waarop een chatbot kan leren, en daardoor ‘slimmer’ kan worden dan op het moment waarop de bot gebouwd werd. Dit geeft de chatbots op den duur de mogelijkheid om diepte conversaties te voeren. Lees mee in dit blog van Chatbots Expert over de dynamische wereld van de lerende chatbot.
De grote paradepaardjes van Apple, Amazon en Google lijken op het eerste gezicht echte alleskunners. Stel ze een vraag, en binnen afzienbare tijd voorzien ze je van een adequaat antwoord. Vooral als het gaat om het opzoeken van een definitie, het inplannen van een afspraak of het doen van een weersvoorspelling hebben ze het veelal bij het juiste eind. Wanneer je dergelijke bots echter een vraag stelt die enige context vereist, of probeert een dialoog voort te zetten, dan loopt het gesprek al vrij snel spaak. Hoe komt dit?
Dat komt omdat Siri, Alexa en Cortana in de eerste instantie helemaal niet ontworpen zijn om conversaties van grote diepgang te leveren. Deze chatbots zijn juist gemaakt om zeer doel- georiënteerd te werk te gaan, en snel en efficiënt kleine taken en vragen te beantwoorden. Er zijn echter ook andere dialoog systemen, zoals voor het voeren van een algemene conversatie, die een ander soort systeem voor dergelijke bots vereisen: de bot met diepgang.
Wanneer er van een chatbot wordt vereist dat deze niet de conversatie leidt, maar de dialoog aanpast aan zijn partner, is er een chatbot nodig die nieuwe informatie kan opnemen. Met andere woorden, een chatbot die kan leren, en op den duur een chatbot die de diepte in kan gaan. Dit klinkt uiteraard heel logisch, maar dit vraagt wel een heel ander soort programmering van de bot dan wanneer deze enkel net als een FAQ-formulier specifieke antwoorden geeft op specifieke vragen. De chatbot moet zich namelijk continu aanpassen aan een steeds veranderende omgeving, zoals nu ook gevraagd wordt van bijvoorbeeld Siri of Google assistent. Dit is echter met de huidige AI-technologie wel mogelijk, en chatbots kunnen nu slimmer worden op de volgende manieren:
‘Machine learning’ wordt gezien als het systeem wat ervoor zorgt dat de chatbot zich dynamisch ontwikkelt. In andere worden: machine learning creëert een slimme chatbot, in plaats van een beperkt programma. Dankzij machine learning kunnen chatbots leren door de ervaring die ze opdoen, net als mensen. De algoritmes waarop de bots gebouwd zijn staan het toe data te verzamelen en te leren van de geschiedenis met de gesprekspartner. Wat betreft codering vindt er zodoende een omschakeling plaats van de zogenaamde ‘hard coded’ chatbots naar chatbots die zich kunnen ontwikkelen, zonder interventie van de mens.
Machine learning is gebaseerd op een zogenaamd ‘neuraal’ systeem wat het mogelijk maakt dat chatbots nieuwe informatie op kunnen nemen.
Deze term klinkt wat intimiderend, maar ‘Neural’ verwijst slechts naar het systeem waarmee de ‘Conversational Agents’, oftewel de chatbots, hun antwoorden kunnen genereren én kunnen leren. Voor de chatbot zelf ziet een conversatie er namelijk als volgt uit: de chatbot krijgt een bepaalde vraag, en gebaseerd op de context van die vraag genereert de bot een plausibel antwoord. Er zijn verschillende neurale netwerkmodellen die het voor een bot mogelijk maken om te leren door ervaring.
De oplettende lezer begrijpt dat dergelijke systemen nog steeds gebaseerd zijn op een vraag – antwoord structuur, en dat er niet zomaar grote diepgang haalbaar is door de implementatie van deze systemen, alhoewel het Siri en Google Assistant wel zal helpen om te leren en zich daardoor dynamisch aan te passen aan de wens van de klant. Maar wanneer kunnen we die diepgang bij onze chatbots – zoals bij de film Her – dan wel verwachten?
Veel mensen zijn onder de veronderstelling dat een chatbot direct de context begrijpt die zij bedoelen wanneer ze een vraag stellen. De context moet de chatbot ‘raden’ op basis van het statement die ze hebben gekregen, en de data van onder andere de eerdere gesprekken die de chatbot heeft gevoerd. Om een vraag goed te beantwoorden, is het essentieel dat de context waarin de vraag gesteld wordt goed begrepen wordt. Hiervoor hebben chatbots wellicht meer nodig dan enkel data die ze uit het statement zelf kunnen halen. Daarom zullen de chatbots in de toekomst modellen vereisen die data input van meerdere systemen integreren, om zo een breder begrip te ontwikkelen van wat er van hen gevraagd wordt, en robots te bouwen die meer op mensen lijken.
Met gepaste trots presenteren wij de nieuwe...
Een uitje is natuurlijk altijd leuk. Het...
Chatbots lijken een echte uitvinding van deze...
In dit blog bespreken we de meerwaarde...
Dat Chatbots een grote internationale hype zijn...
Binnenkort zal de 3rd Employee Experience Summit...