AI in communicatie: hype of hulpmiddel?

De opkomst van kunstmatige intelligentie (AI) heeft de manier waarop we communiceren en werken drastisch veranderd. Met de snelle ontwikkelingen op het gebied van spraakassistenten en chatbots, wordt AI steeds toegankelijker en bruikbaarder. Maar wat is echt functioneel en wat blijft slechts hype? In dit artikel bespreken we de huidige staat van AI in communicatietechnologie en onderzoeken we hoe AI ons kan helpen onze banen te vereenvoudigen en repetitieve taken te automatiseren.

nationale voice monitor

Onlangs kwam de Nationale Voice Monitor 2023 uit. De Nationale Voice Monitor is een jaarlijks onderzoek dat zich richt op de adoptie van spraakassistenten en chatbots in klantondersteuning. Dit onderzoek helpt bedrijven en organisaties om inzicht te krijgen in hoe AI de communicatie en interactie met klanten beïnvloedt. Het toont ook aan hoe snel AI zich ontwikkelt en wordt geaccepteerd in verschillende sectoren. In dit onderzoek werd duidelijk dat de consument hoge verwachtingen heeft wanneer zij bij contact met bedrijven worden geholpen door spraakassistenten of chatbots, maar dat die verwachting ook nog wel eens niet wordt waargemaakt. Inzet voor eenvoudige toepassingen werken over het algemeen wel goed en worden ook goed gewaardeerd, zolang de hand-over naar een menselijke collega maar goed is geregeld.

AI in Communicatie

Er zijn verschillende manieren waarop bedrijven AI kunnen integreren in hun communicatiekanalen. In de huidige praktijk is echter voor een passende oplossing vaak maatwerk nodig en worden steeds complexere beslis- en routeerbomen ingericht om de ervaring voor de klant te optimaliseren. Dat leidt op termijn echter tot moeilijk beheersbare oplossingen – wijzigingen worden steeds complexer. Mede daardoor zijn deze oplossingen vaak nog voorbehouden aan de grootzakelijke markt. Wij onderzoeken op basis van de actuele ontwikkelingen echter graag welke oplossingen het MKB ook verder kunnen helpen. Daarom evalueren we commerciële platforms, experimenteren we met intern ontwikkelde integraties met OpenAI en werken we samen met Y.digital aan kennisdeling om bedrijven te helpen bij het ontwikkelen van effectieve communicatietools met behulp van AI.

chatgpt en large language models

In vergelijking met oudere chatbotsystemen bieden large language models (LLM’s) zoals ChatGPT aanzienlijke verbeteringen in termen van flexibiliteit en conversatiekwaliteit. Chatbots werkten veelal met single intent herkenning, wat betekent dat ze zijn geprogrammeerd om specifieke trefwoorden of zinnen te herkennen en daarop te reageren. Ze volgen een vooraf gedefinieerde structuur, oftewel beslisbomen, om conversaties met gebruikers te beheren. Deze chatbots zijn vaak beperkt in hun vermogen om complexe of onverwachte vragen te beantwoorden, omdat hun reacties afhankelijk zijn van het herkennen van specifieke zinnen en het volgen van de vooraf vastgestelde beslisbomen.

Large Language Models (LLM’s), zoals ChatGPT, zijn geavanceerder dan traditionele chatbots. Ze zijn getraind op enorme datasets van menselijke tekst en maken gebruik van geavanceerde algoritmen om natuurlijke taal te begrijpen en te genereren. Hierdoor zijn ze in staat om context te begrijpen, te leren van eerdere interacties en meer mensachtige antwoorden te genereren. In plaats van te vertrouwen op single intent herkenning en beslisbomen, begrijpt een LLM als ChatGPT de nuances van menselijke taal en kan het complexere en onverwachte vragen aan. Dit maakt het mogelijk om meer realistische en betekenisvolle conversaties met gebruikers te voeren.

Aan het gebruik van LLM’s zitten echter ook risico’s. Door te interacteren met een LLM delen we immers ook (soms misschien wel gevoelige) data met algoritmes waarvan we niet precies kunnen inschatten hoe ze werken en of ze wel exclusief voor ons aan het werk zijn of dat de informatie ook elders kan worden ingezet. Daarom kijken wij ook uit naar mogelijkheden om LLM’s ‘lokaal’ (tenminste in europese cloud) te draaien, zodat de privacy van de data gewaarborgd is.

Ook kunnen LLM’s soms ‘hallucineren’ – Ze willen dan zo graag behulpzaam zijn dat ze ons foutieve informatie geven. Hallucinaties komen meestal voor wanneer een LLM probeert te reageren op een vraag of situatie waar het geen betrouwbare kennis over heeft of wanneer het probeert een antwoord te genereren op basis van onvoldoende of vage input. Aangezien LLM’s zoals ChatGPT getraind zijn op grote datasets van menselijke tekst, leren ze ook de onjuistheden en ruis die aanwezig zijn in deze datasets. Dit kan leiden tot het genereren van antwoorden die niet volledig op feiten zijn gebaseerd.

Om deze risico’s te verhelpen, is het belangrijk om modellen te trainen met betrouwbare en gecontroleerde datasets, en om voortdurend te werken aan het verbeteren van hun vermogen om feitelijke informatie te onderscheiden van fictie. Daarnaast is het noodzakelijk zijn om gebruikers en ontwikkelaars van LLM’s bewust te maken van de beperkingen van de modellen, zodat ze beter in staat zijn om de gegenereerde informatie kritisch te beoordelen en te verifiëren.

hype of hulpmiddel?

Terwijl AI een ware revolutie teweeg lijkt te brengen in diverse aspecten van de maatschappij, is het belangrijk om te onderscheiden tussen hype en functionaliteit. Het is belangrijk om de juiste verwachtingen te hebben en te begrijpen dat AI niet al onze problemen zal oplossen of banen zal vervangen. Echter, AI biedt een groot potentieel om communicatieprocessen te verbeteren en het werk te vereenvoudigen. Door te blijven experimenteren, evalueren en innoveren op het gebied van AI, kunnen bedrijven en organisaties profiteren van deze technologie en hun klantondersteuning naar een hoger niveau tillen.

Geschreven door: Florian Overkamp op 19 apr. 2023