'AI moet je proeven' #2: Generatieve AI in de praktijk - Zo creëer je businesswaarde vanaf dag 1

Datum
24 oktober 2023

Wanneer je begrijpt wat AI wel en niet kan, kun je het doelgericht inzetten. Maar hoe vertaal je de veelzijdige mogelijkheden van AI naar de specifieke context van je dagelijkse bedrijfsvoering?

generative-ai-business-value

In dit artikel gaan we dieper in op de toepassingen van generatieve AI, en onderzoeken we hoe je deze inzichten vervolgens praktisch inzet om direct waarde te genereren.

Om de potentie van generatieve AI volledig te benutten, is begrip van de onderliggende technologie essentieel. Generatieve AI wordt mogelijk gemaakt door een krachtig instrument: het Large Language Model (LLM).

“Wil je met GenAI complexe bedrijfsproblemen aanpakken en echte klantwaarde te creëren, dan is het cruciaal om te begrijpen hoe LLM functioneert en hoe je het effectief kunt inzetten.”

Raymond van Muilwijk

Raymond Muilwijk, Technology Officer Belgium & The Netherlands

Hoe werkt een LLM precies?

Een LLM voorspelt op basis van getrainde voorbeelden en de gegeven context. Neem bijvoorbeeld de bloem Viola Tropio: deze bestaat totaal niet maar toch kun je er als mens iets over zeggen.  

Waarschijnlijk is de bloem kleurrijk met een klein bloemblad zoals een viooltje, heeft het felle kleuren en een groene steel. Het zal zonlicht nodig hebben en niet tegen vuur kunnen. Zonder de bloem ooit gezien te hebben kun je toch de eigenschappen voorspellen. Dat heet inferentie. Zo werkt een LLM ook: het kan nieuwe informatie, conclusies of voorspellingen maken op basis van bestaande kennis of gegevens.  

generative-ai-business-value

Inferentie is een belangrijk aspect van intelligentie, net als redeneren, probleemoplossing, taalbegrip en geheugen, wat bijvoorbeeld ChatGPT allemaal kan. Maar bewustzijn, intuïtie, emoties en echte creativiteit ontbreken waardoor een LLM nog verre van menselijke intelligentie is.  

Meer weten over Large Language Models?

In deze whitepaper kijken we naar het verleden, heden en de toekomst van AI-taalmodellen. Leer bovendien tips en tricks om zelf met AI aan de slag te gaan.

Herentals-mensen-Pieter-smartphone | iO

Wat kun je allemaal met een LLM?

LLM is heel goed in het snappen van taal. Daarmee kun je nu het volgende doen: 

  • Een samenvatting maken of de kern uit een verhaal halen; 

  • Een LLM instrueren dat het doorvraagt op wat je vertelt; 

  • Vragen beantwoorden over een gegeven of bestaand onderwerp; 

  • Ideeën, invalshoeken en mogelijkheden opsommen ter inspiratie; 

  • Een tekst omzetten naar begrijpbare taal, zoals taalniveau B1; 

  • Een tekst vertalen of antwoorden krijgen in een andere taal; 

  • Programmeertalen verwerken, fouten identificeren en correcties voorstellen.  

Dit zijn interessante nieuwe elementen die je aan je bedrijfsvoering kunt toevoegen, mits het natuurlijk ook voor een beter resultaat zorgt.

generative-ai-business-value

Hoe kun je LLM toepassen op zakelijke vraagstukken?

Wat kun je met een bouwsteen die kan werken met menselijke taal én grote hoeveelheden data? In hoofdlijnen doet een LLM twee zaken bijzonder goed: taal interpreteren en data transformeren.  

“LLM doet twee zaken bijzonder goed: taal interpreteren en data transformeren.” 
1. Van taalbegrip naar toegevoegde waarde 

 Een LLM begrijpt menselijke input. LLM kun je zien als een virtueel persoon: als je iemand kunt uitleggen wat je zoekt of hoe iets moet worden gedaan, dan kun je het waarschijnlijk automatiseren met een LLM.

Op een nieuwe manier zoekopdrachten uitvoeren 

Een praktijkvoorbeeld hiervan is een applicatie om huizen te zoeken die we momenteel voor een klant maken. Via de website moet de gebruiker normaliter zoeken op regio en vervolgens filteren op vooraf gedefinieerde filters zoals prijs en aantal vierkante meters.  

Met LLM kan de gebruiker de zoekactie op elke manier starten:  

  • Wat wil je precies?  

  • Kun je voorbeelden geven?  

  • Wat is essentieel voor jou?  

De LLM interpreteert de input, kan eventueel vervolgvragen stellen en toont vervolgens de bijpassende resultaten. Dit levert aanzienlijke toegevoegde waarde op in vergelijking met de gebruikelijke manier van huizen zoeken. 

De LLM die we hier inzetten hoeft niet gebouwd of geprogrammeerd te worden: als technologie snapt het direct de input die gebruikers geven. Het is alleen een kwestie van voorzien van relevante data en vervolgens finetunen waar nodig. LLM is dus bijzonder snel inzetbaar.  
 
In het voorbeeld van een huizenzoeker (of enige andere applicatie met zoekopdrachten) biedt een LLM de volgende nieuwe mogelijkheden:  

  1. Conversationeel zoeken 
    Gebruikers kunnen op een natuurlijke manier zoeken naar huizen door hun zoekopdracht te starten met vragen en voorbeelden, zoals “Ik zoek een huis met minstens 3 slaapkamers in de buurt van een treinstation” of “Toon mij huizen met een grote tuin.” 

  2. Flexibele zoekopdrachten 
    Gebruikers kunnen eenvoudige en complexe vragen stellen, zoals “Toon huizen met een zwembad in Amsterdam en een garage” of “Ik wil een appartement huren in Rotterdam.” Daarbij kunnen ze hun eigen combinaties van criteria gebruiken, zoals het aantal slaapkamers, de locatie, het type woning, de prijsklasse et cetera om gepersonaliseerde resultaten te verkrijgen. 

  3. Het begrijpen van context 
    LLM kan de context van de zoekopdrachten interpreteren en relevante follow-up-vragen stellen om specifieke behoeften van gebruikers te verduidelijken, zoals “Wat is je maximale budget?” of “Heb je een voorkeur voor een bepaalde buurt?” 

  4. Real time aanpassingen 
    LLM kan gekoppeld worden aan een extern systeem zodat verkochte huizen en nieuw aanbod in realtime worden verwerkt. 
     

2. Data helder en toegankelijk maken met taal 

Naast taal interpreteren, snapt LLM ook grote hoeveelheden data. Voor een andere klant met een breed aanbod aan producten en diensten zetten we een LLM in om gebruikers snel aan antwoorden te helpen.  

Voorheen werden gebruikers gedwongen om zelf een geschikt kanaal voor hun vraag te kiezen: via een chatbot, het navigatiemenu, zoeken op kernwoorden, social media of anders bellen en keuzemenu’s. Vervolgens moesten ze de informatie zelf interpreteren. Een LLM biedt één interface die vervolgens door kan verwijzen naar het juiste systeem of het juiste antwoord direct kan geven: 
 

  • Gebruikersvragen beantwoorden 
    Met een LLM kunnen gebruikers natuurlijke taalvragen stellen over verschillende producten en diensten, zoals “Welke verzekering past het beste bij mijn auto?” of “Wat moet ik doen bij steenslag op mijn voorruit?”. De natuurlijke context wordt door de LLM begrepen waardoor gebruikers sneller geholpen worden.  

  • Informatie samenvatten 
    Een LLM kan specifieke passages die betrekking hebben op de klantvraag uit bronnen halen en opsommen. Een vervolgstap is om een eenduidig antwoord te geven op basis van die passages. Daarmee blijft de informatie relevant en kan bovendien naar de passages worden verwezen als bronvermelding.  

  • Feedback begrijpen  
    LLM’s hebben ook beperkingen die kunnen leiden tot een negatieve ervaring. Door een LLM te combineren met vectorisatie kun je herleiden hoe het systeem tot een specifiek antwoord is gekomen en waar deze informatie vandaan komt. Dat geeft aanknooppunten om dit op te lossen. Zo kun je bijvoorbeeld een pagina vinden die twee jaar niet is geüpdatet, of ontdekken dat het model extra training nodig heeft op dit onderwerp.   

  • Persoonlijke assistentie 
    Een LLM kan gepersonaliseerde aanbevelingen doen op basis van gebruikersvoorkeuren en eerdere interacties, bijvoorbeeld door te zeggen: “We hebben een aanbieding die perfect bij u past op basis van uw eerdere vakanties.” 

  • Toegankelijkheid 
    Een LLM kan een inclusieve en toegankelijke manier bieden voor gebruikers om vragen te stellen, ongeacht hun ervaring met technologie. Zo kunnen juridische teksten zoals voorwaarden toch toegankelijk worden voor laaggeletterden, bijvoorbeeld in specifieke FAQ en documentatie. Dit kan via chat, maar ook via spraak. 

Hoe correct moet het antwoord zijn?

LLM kan grote hoeveelheden data ontsluiten en beschikbaar maken in menselijke taal. Daarbij is het belangrijk om de waarschijnlijkheid van een correct antwoord helder te hebben. Zoals Matt Ginsberg van X, The Moonshot Factory, uitlegt in de podcast Startalk van Neil deGrasse Tyson: LLM is heel goed in het 49/51% principe, niet in het 100% principe. Dat houdt in dat LLM’s bovengemiddeld een correct antwoord geven, maar lang niet altijd. In dat geval is het toevoegen van een menselijke schakel verstandig om het juiste antwoord te selecteren. Met die selectie kun je vervolgens de LLM ook weer trainen om steeds betere antwoorden te geven. 
 
Een toepassing hiervan werkt als volgt: een LLM interpreteert op basis van de chatinteractie of het telefoongesprek de klantvraag. Vervolgens voorziet de LLM een helpdeskmedewerker van verschillende antwoorden en passages. De medewerker verspilt zo geen tijd aan het zoeken in systemen en kan de klant sneller helpen.  
 

Focus op toegevoegde waarde 

Hoewel generatieve AI nog geen jaar bezig is, staat het bij bijna elke topmanager scherp op het netvlies. Wat Netscape voor het internet was, is ChatGPT voor AI. Het biedt een gebruiksvriendelijke interface voor een nieuwe technologie die daarmee toegankelijk voor miljoenen wordt en daardoor in een stroomversnelling komt.  

Aanhaken als bedrijf is zeker verstandig om ook in de toekomst relevant te blijven, maar wel op een verantwoorde manier die alle beperkingen en risico’s in acht neemt. AI is geen gimmick maar een waardevolle technologie waarmee je heel gericht je bedrijfsvoering kunt verbeteren en optimaliseren. De eerste stap om AI goed in te zetten is weten wat je er precies mee kunt. Blijf daarom op de hoogte van alle ontwikkelingen rondom generatieve AI en maak een eerste start, bijvoorbeeld in ons AI-dossier. 

Raymond van Muilwijk
Over de spreker

Raymond Muilwijk

Technology Officer Belgium & The Netherlands

Met een uitgesproken visie op - en ervaring in - strategie, enterprise & solution architecture, product management en software delivery, is Raymond binnen het Center of Excellence de juiste man op de juiste plaats. Verantwoordelijk voor iO's technology visie en als accelerator van kennis en innovatie. Kennis het delen waard, als het kloppend hart van elke organisatie.

Gerelateerde artikelen