AI Robot

Large Language Models en generatieve AI

Large Language Models (LLM’s) zijn een type generatieve AI die tekst kan begrijpen en creëren. Ze kunnen ingezet worden om vragen te beantwoorden, creatief te schrijven (zoals headlines en blogposts), tekst te vertalen, of samenvattingen te maken.

Hoe werkt een LLM precies?

Een LLM zoals ChatGPT voorspelt op basis van getrainde voorbeelden en de gegeven context. Neem bijvoorbeeld de bloem Viola Tropio: deze bestaat totaal niet maar toch kun je er als mens iets over zeggen.

Waarschijnlijk is de bloem kleurrijk met een klein bloemblad zoals een viooltje, heeft het felle kleuren en een groene steel. Het zal zonlicht nodig hebben en niet tegen vuur kunnen. Zonder de bloem ooit gezien te hebben kun je toch de eigenschappen voorspellen. Dat heet inferentie. Zo werkt een LLM ook: het kan nieuwe informatie, conclusies of voorspellingen maken op basis van bestaande kennis of gegevens.

Net als bij mensen combineert een LLM deze inferentie met andere vaardigheden zoals redeneren, probleemoplossing, taalbegrip en geheugen. Dit maakt het mogelijk om vragen te beantwoorden, tekst te genereren en conclusies te trekken. Maar in tegenstelling tot mensen mist een LLM bewustzijn, intuïtie, emoties en echte creativiteit, waardoor het nog ver afstaat van menselijke intelligentie.

Wat kun je allemaal met een LLM?

LLM is heel sterk in het snappen van taal. Daarmee kun je nu al het volgende doen:

  • Een verhaal samenvatten of er de kern uithalen;

  • Het laten doorvragen op wat je vertelt;

  • Vragen beantwoorden over een gegeven of bestaand onderwerp;

  • Ideeën, invalshoeken en mogelijkheden opsommen ter inspiratie;

  • Een tekst omzetten naar begrijpbare taal, zoals taalniveau B1;

  • Een tekst vertalen of antwoorden krijgen in een andere taal;

  • Programmeertalen verwerken, fouten opsporen en correcties voorstellen.

  • ...

abstract futuristic image with robot hands

Hoe correct moet het antwoord zijn?

LLM kan grote hoeveelheden data ontsluiten en beschikbaar maken in menselijke taal. Daarbij is het belangrijk om de waarschijnlijkheid van een correct antwoord helder te hebben.

Zoals Matt Ginsberg van X, The Moonshot Factory, uitlegt in de podcast Startalk van Neil deGrasse Tyson: LLM is heel goed in het 49/51% principe, niet in het 100% principe.

Dat houdt in dat LLM’s bovengemiddeld een correct antwoord geven, maar lang niet altijd. In dat geval is het toevoegen van een menselijke schakel verstandig om het juiste antwoord te selecteren. Met die selectie kun je vervolgens de LLM ook weer trainen om steeds betere antwoorden te geven.

Een toepassing hiervan werkt als volgt: een LLM interpreteert op basis van de chatinteractie of het telefoongesprek de klantvraag. Vervolgens voorziet de LLM een helpdeskmedewerker van verschillende antwoorden en passages. De medewerker verspilt zo geen tijd aan het zoeken in systemen en kan de klant dus sneller helpen. 
Whitepaper: “Alles wat je moet weten over Large Language Models”

Lees verder – Generatieve AI en multimedia