
Blog
'AI moet je proeven' #2: Generatieve AI in de praktijk - Zo creëer je businesswaarde vanaf dag 1
Wanneer je begrijpt wat AI wel en niet kan, kun je het doelgericht inzetten. Maar hoe vertaal je de veelzijdige mogelijkheden van AI naar de specifieke context van je dagelijkse bedrijfsvoering?
In dit artikel gaan we dieper in op de toepassingen van generatieve AI, en onderzoeken we hoe je deze inzichten vervolgens praktisch inzet om direct waarde te genereren.
Om de potentie van generatieve AI volledig te benutten, is begrip van de onderliggende technologie essentieel. Generatieve AI wordt mogelijk gemaakt door een krachtig instrument: het Large Language Model (LLM).
“Wil je met GenAI complexe bedrijfsproblemen aanpakken en echte klantwaarde te creëren, dan is het cruciaal om te begrijpen hoe LLM functioneert en hoe je het effectief kunt inzetten.”
Raymond Muilwijk, Technology Officer
Hoe werkt een LLM precies?
Een LLM voorspelt op basis van getrainde voorbeelden en de gegeven context. Neem bijvoorbeeld de bloem Viola Tropio: deze bestaat totaal niet maar toch kun je er als mens iets over zeggen.
Waarschijnlijk is de bloem kleurrijk met een klein bloemblad zoals een viooltje, heeft het felle kleuren en een groene steel. Het zal zonlicht nodig hebben en niet tegen vuur kunnen. Zonder de bloem ooit gezien te hebben kun je toch de eigenschappen voorspellen. Dat heet inferentie. Zo werkt een LLM ook: het kan nieuwe informatie, conclusies of voorspellingen maken op basis van bestaande kennis of gegevens.
Inferentie is een belangrijk aspect van intelligentie, net als redeneren, probleemoplossing, taalbegrip en geheugen, wat bijvoorbeeld ChatGPT allemaal kan. Maar bewustzijn, intuïtie, emoties en echte creativiteit ontbreken waardoor een LLM nog verre van menselijke intelligentie is.
Meer weten over Large Language Models?
In deze whitepaper kijken we naar het verleden, heden en de toekomst van AI-taalmodellen. Leer bovendien tips en tricks om zelf met AI aan de slag te gaan.
Wat kun je allemaal met een LLM?
LLM is heel goed in het snappen van taal. Daarmee kun je nu het volgende doen:
Een samenvatting maken of de kern uit een verhaal halen;
Een LLM instrueren dat het doorvraagt op wat je vertelt;
Vragen beantwoorden over een gegeven of bestaand onderwerp;
Ideeën, invalshoeken en mogelijkheden opsommen ter inspiratie;
Een tekst omzetten naar begrijpbare taal, zoals taalniveau B1;
Een tekst vertalen of antwoorden krijgen in een andere taal;
Programmeertalen verwerken, fouten identificeren en correcties voorstellen.
Dit zijn interessante nieuwe elementen die je aan je bedrijfsvoering kunt toevoegen, mits het natuurlijk ook voor een beter resultaat zorgt.
Hoe kun je LLM toepassen op zakelijke vraagstukken?
Wat kun je met een bouwsteen die kan werken met menselijke taal én grote hoeveelheden data? In hoofdlijnen doet een LLM twee zaken bijzonder goed: taal interpreteren en data transformeren.
Een LLM begrijpt menselijke input. LLM kun je zien als een virtueel persoon: als je iemand kunt uitleggen wat je zoekt of hoe iets moet worden gedaan, dan kun je het waarschijnlijk automatiseren met een LLM.
Een praktijkvoorbeeld hiervan is een applicatie om huizen te zoeken die we momenteel voor een klant maken. Via de website moet de gebruiker normaliter zoeken op regio en vervolgens filteren op vooraf gedefinieerde filters zoals prijs en aantal vierkante meters.
Met LLM kan de gebruiker de zoekactie op elke manier starten:
Wat wil je precies?
Kun je voorbeelden geven?
Wat is essentieel voor jou?
De LLM interpreteert de input, kan eventueel vervolgvragen stellen en toont vervolgens de bijpassende resultaten. Dit levert aanzienlijke toegevoegde waarde op in vergelijking met de gebruikelijke manier van huizen zoeken.
De LLM die we hier inzetten hoeft niet gebouwd of geprogrammeerd te worden: als technologie snapt het direct de input die gebruikers geven. Het is alleen een kwestie van voorzien van relevante data en vervolgens finetunen waar nodig. LLM is dus bijzonder snel inzetbaar.
In het voorbeeld van een huizenzoeker (of enige andere applicatie met zoekopdrachten) biedt een LLM de volgende nieuwe mogelijkheden:
Conversationeel zoeken
Gebruikers kunnen op een natuurlijke manier zoeken naar huizen door hun zoekopdracht te starten met vragen en voorbeelden, zoals “Ik zoek een huis met minstens 3 slaapkamers in de buurt van een treinstation” of “Toon mij huizen met een grote tuin.”
Flexibele zoekopdrachten
Gebruikers kunnen eenvoudige en complexe vragen stellen, zoals “Toon huizen met een zwembad in Amsterdam en een garage” of “Ik wil een appartement huren in Rotterdam.” Daarbij kunnen ze hun eigen combinaties van criteria gebruiken, zoals het aantal slaapkamers, de locatie, het type woning, de prijsklasse et cetera om gepersonaliseerde resultaten te verkrijgen.
Het begrijpen van context
LLM kan de context van de zoekopdrachten interpreteren en relevante follow-up-vragen stellen om specifieke behoeften van gebruikers te verduidelijken, zoals “Wat is je maximale budget?” of “Heb je een voorkeur voor een bepaalde buurt?”
Real time aanpassingen
LLM kan gekoppeld worden aan een extern systeem zodat verkochte huizen en nieuw aanbod in realtime worden verwerkt.
2. Data helder en toegankelijk maken met taal
Naast taal interpreteren, snapt LLM ook grote hoeveelheden data. Voor een andere klant met een breed aanbod aan producten en diensten zetten we een LLM in om gebruikers snel aan antwoorden te helpen.
Voorheen werden gebruikers gedwongen om zelf een geschikt kanaal voor hun vraag te kiezen: via een chatbot, het navigatiemenu, zoeken op kernwoorden, social media of anders bellen en keuzemenu’s. Vervolgens moesten ze de informatie zelf interpreteren. Een LLM biedt één interface die vervolgens door kan verwijzen naar het juiste systeem of het juiste antwoord direct kan geven:
Gebruikersvragen beantwoorden
Met een LLM kunnen gebruikers natuurlijke taalvragen stellen over verschillende producten en diensten, zoals “Welke verzekering past het beste bij mijn auto?” of “Wat moet ik doen bij steenslag op mijn voorruit?”. De natuurlijke context wordt door de LLM begrepen waardoor gebruikers sneller geholpen worden.
Informatie samenvatten
Een LLM kan specifieke passages die betrekking hebben op de klantvraag uit bronnen halen en opsommen. Een vervolgstap is om een eenduidig antwoord te geven op basis van die passages. Daarmee blijft de informatie relevant en kan bovendien naar de passages worden verwezen als bronvermelding.
Feedback begrijpen
LLM’s hebben ook beperkingen die kunnen leiden tot een negatieve ervaring. Door een LLM te combineren met vectorisatie kun je herleiden hoe het systeem tot een specifiek antwoord is gekomen en waar deze informatie vandaan komt. Dat geeft aanknooppunten om dit op te lossen. Zo kun je bijvoorbeeld een pagina vinden die twee jaar niet is geüpdatet, of ontdekken dat het model extra training nodig heeft op dit onderwerp.
Persoonlijke assistentie
Een LLM kan gepersonaliseerde aanbevelingen doen op basis van gebruikersvoorkeuren en eerdere interacties, bijvoorbeeld door te zeggen: “We hebben een aanbieding die perfect bij u past op basis van uw eerdere vakanties.”
Toegankelijkheid
Een LLM kan een inclusieve en toegankelijke manier bieden voor gebruikers om vragen te stellen, ongeacht hun ervaring met technologie. Zo kunnen juridische teksten zoals voorwaarden toch toegankelijk worden voor laaggeletterden, bijvoorbeeld in specifieke FAQ en documentatie. Dit kan via chat, maar ook via spraak.
Hoe correct moet het antwoord zijn?
LLM kan grote hoeveelheden data ontsluiten en beschikbaar maken in menselijke taal. Daarbij is het belangrijk om de waarschijnlijkheid van een correct antwoord helder te hebben. Zoals Matt Ginsberg van X, The Moonshot Factory, uitlegt in de podcast Startalk van Neil deGrasse Tyson: LLM is heel goed in het 49/51% principe, niet in het 100% principe. Dat houdt in dat LLM’s bovengemiddeld een correct antwoord geven, maar lang niet altijd. In dat geval is het toevoegen van een menselijke schakel verstandig om het juiste antwoord te selecteren. Met die selectie kun je vervolgens de LLM ook weer trainen om steeds betere antwoorden te geven.
Een toepassing hiervan werkt als volgt: een LLM interpreteert op basis van de chatinteractie of het telefoongesprek de klantvraag. Vervolgens voorziet de LLM een helpdeskmedewerker van verschillende antwoorden en passages. De medewerker verspilt zo geen tijd aan het zoeken in systemen en kan de klant sneller helpen.
Hoewel generatieve AI nog geen jaar bezig is, staat het bij bijna elke topmanager scherp op het netvlies. Wat Netscape voor het internet was, is ChatGPT voor AI. Het biedt een gebruiksvriendelijke interface voor een nieuwe technologie die daarmee toegankelijk voor miljoenen wordt en daardoor in een stroomversnelling komt.
Aanhaken als bedrijf is zeker verstandig om ook in de toekomst relevant te blijven, maar wel op een verantwoorde manier die alle beperkingen en risico’s in acht neemt. AI is geen gimmick maar een waardevolle technologie waarmee je heel gericht je bedrijfsvoering kunt verbeteren en optimaliseren. De eerste stap om AI goed in te zetten is weten wat je er precies mee kunt. Blijf daarom op de hoogte van alle ontwikkelingen rondom generatieve AI en maak een eerste start, bijvoorbeeld in ons AI-dossier.
Met een uitgesproken visie op - en ervaring in - strategie, enterprise & solution architecture, product management en software delivery, is Raymond binnen het Center of Excellence de juiste man op de juiste plaats. Verantwoordelijk voor iO's technology visie en als accelerator van kennis en innovatie. Kennis het delen waard, als het kloppend hart van elke organisatie.
Blog
Case
Case
Case
Pers
Blog
Pers
Case
Pers
Pers
Video
Video
Video
Case
Blog
Case
Blog
Dossier
Case
Case
Blog
Video
Video
Video
Video
Video
Video
Video
Webinar
Wat we doen
Wat we doen
Video
Dossier
Blog
Webinar
Video
Video
Video
White paper
Blog
Pers
White paper
Case
Pers
Case
White paper
Wat we doen
Pers
Pers
Case
Pers
Blog
Wat we doen
Case
White paper
Webinar
Event
White paper
White paper
Case
Wat we doen
Dossier
White paper
White paper
Webinar
Video
Webinar
Blog
Blog
Case
Dossier
White paper
Case
White paper
Blog
White paper
Webinar
Blog
Case
White paper
Case
Case
Case
Dossier
Blog
Webinar
Case
Webinar
Case
White paper
Blog
Webinar
Case
Blog
Webinar
White paper
Blog
Webinar
Blog
White paper
White paper
Page
White paper
White paper
Case
White paper
Case
Dossier
Wat we doen
Stack
Wat we doen
White paper
Video
Wat we doen
White paper
Blog
White paper
White paper
Pers
Blog
Pers
Webinar
Pers
Case
Blog
White paper
Case
Blog
Dossier
Case
Blog
Video
Video
Blog
Pers
White paper
Blog
Pers
Case
Pers
Case
Case
White paper
Case
Webinar
Blog
Blog
Webinar
Blog
Blog
Blog
Stack
Blog
Blog
Webinar
Blog
Webinar
Case
Blog
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Video
Blog
Webinar
Blog
Dossier
Dossier
Dossier
Dossier
Wat we doen
Wat we doen
Wat we doen
Dossier
Dossier
White paper
Wat we doen
Wat we doen
Wat we doen
Dossier
Wat we doen
Wat we doen
Wat we doen
Wat we doen
Wat we doen
Case
Dossier
Wat we doen
White paper
White paper
Dossier
White paper
White paper
White paper
Case
Case
Case
Case
Pers
Pers
Pers
White paper
Dossier
Pers
Video
Pers
Case
Pers
Pers
Case
Dossier
Dossier
Case
Pers
Pers
White paper
Pers
Pers
Blog
White paper
Webinar
Blog
Blog
Pers
Dossier
Webinar
Blog
Pers
Webinar
Webinar
Blog
White paper
Blog
Blog
Dossier
Dossier
Case
White paper
Blog
Blog
Blog
Blog
Blog
White paper
Blog
Blog
Blog
Video
Webinar
White paper
Case
White paper