De AI-hype ontrafeld: wat voegt AI écht toe aan software?

Profielfoto van Mark
Mark Vletter
27 januari 2025
Clock 7 min

AI zit overal

Van je zoekmachine tot de software die je dagelijks gebruikt, alles lijkt tegenwoordig volgepropt met ‘intelligente AI’-functies. De vraag is: zijn deze features werkelijk handig? Voegt het iets toe, of is het slechts een verkooppraatje dat je laat denken dat je software future-proof is? In dit artikel duik ik in de realiteit achter de hype. Wat kan AI daadwerkelijk, en wat niet?

Generatieve AI: Hoe één doorbraak alles veranderde

Om dat goed uit te leggen, moeten we het hebben over het soort AI dat de motor is achter een nieuwe generatie tools en AI-features. Dit type AI wordt generatieve AI genoemd en veel mensen kennen het vooral van ChatGPT.

ChatGPT leek, net als andere generatieve tools die afbeeldingen kunnen maken, uit het niets te ontstaan. Ineens kon je met een AI praten, vragen stellen en zelfs teksten laten schrijven die bijna menselijk lijken.

Het was echter een samenspel van drie technische ontwikkelingen die leidde tot de opkomst van generatieve AI: betere algoritmen, toegenomen rekenkracht en de beschikbaarheid van enorme datasets brachten tools als DALL-E en ChatGPT tot leven.

De noodzaak van grote datasets

De beschikbaarheid van gigantische hoeveelheden data is een van de drie belangrijke redenen waarom AI-tools nu doorbreken. Je ziet daarbij dat AI vooral goed werkt met beeld en taal. Dat komt doordat er voor deze toepassingen enorm veel data beschikbaar is. Het feit dat wij als mensen feedback geven op de output, door teksten aan te passen of door aan te geven of de output goed of minder goed is, maakt de AI-toepassingen steeds beter.

Zonder grote datasets verliest AI snel zijn kracht. Kleine en contextspecifieke taken – dingen die wij moeiteloos doen dankzij kennis en ervaring – zijn een brug te ver. Een AI leer je niet in een dag autorijden, iets wat je een 17-jarige wel kunt leren. Een 17-jarige zal daarbij ook kunnen reageren op situaties die zich niet eerder hebben voorgedaan. Een fietser die oversteekt of een kind dat de straat oprent, worden door een mens eenvoudig herkend als gevaarlijke situaties waarop je je als automobilist moet aanpassen. Een AI heeft echter heel veel voorbeelden van die specifieke situaties nodig en zal vastlopen bij nieuwe situaties waarvan het geen duizenden, zo niet miljoenen, voorbeelden heeft gezien.

AI is krachtig in de specifieke domeinen waar ze voor getraind is en daarmee beperkt in de veelzijdigheid die nodig is om echt nuttig te zijn in het dagelijks leven.

Een groter probleem van AI is dat het de inhoud van de taken die hij uitvoert niet begrijpt.

AI kan zaken voorspellen, maar niet begrijpen

Generatieve AI-modellen zijn statistisch voorspellende modellen die patronen leren herkennen in enorme hoeveelheden data. Ze voorspellen, simpel gezegd, het volgende woord of de volgende pixel. Dat kan vaak indrukwekkend zijn, maar ze begrijpen niet wat er van hen wordt gevraagd. Het enige wat ze doen, is een antwoord genereren waar jij tevreden mee bent.

Een AI kan een kat herkennen of een kat tekenen, maar het heeft geen idee wat een kat is. Voor een AI zijn katten niets meer dan patronen van data. Dat een AI zo naar de wereld kijkt, lijkt onschuldig, maar heeft grote consequenties.

Generatieve AI is daarmee namelijk niet gegrond in logica. En zonder logica is zo’n AI niet in staat tot begrip.

Een AI zonder begrip kan geen logische verbanden leggen die voor ons vanzelfsprekend zijn. Vraag een AI om een eenvoudig moreel dilemma op te lossen, en je krijgt regelmatig een antwoord dat onsamenhangend of zelfs gevaarlijk is. Een AI kan ook totale onwaarheden verkondigen en die presenteren als feiten. Dit wordt ook wel ‘hallucineren’ genoemd.

Dit gebrek aan begrip is precies de reden waarom AI wel goede teksten kan produceren, maar geen zelfstandig complexe beslissingen kan nemen. Omdat een AI niet begrijpt wat je vraagt, is het bovendien erg lastig om jouw vragen om te zetten in concrete acties.

Large Action Models: Een onwaarschijnlijke toekomst

Het omzetten van vragen in acties is op dit moment de heilige graal. Als dat lukt, kan een AI werkelijk dingen voor je doen en brede taken uitvoeren. Een term die hiervoor gebruikt wordt, is Large Action Models (LAMs): AI-systemen die niet alleen taal verwerken, maar daar ook zelfstandig acties aan verbinden. Denk aan een assistent die niet alleen antwoord geeft, maar echt dingen voor je regelt.

Stel je voor dat een AI de opdracht “Plan de ideale trip van een week voor mijn gezin in de volgende vakantie” omzet in geboekte huisjes, activiteiten en treintickets die aansluiten bij de persoonlijke voorkeuren van je gezin. Dat klinkt geweldig, maar de praktijk is weerbarstig.

LAMs vereisen niet alleen een AI die begrijpt wat je vraagt, maar ook een AI die zelfstandig beslissingen kan nemen. Hoewel dit een prachtig concept is, is het technisch nagenoeg onrealiseerbaar, los van de privacybezwaren die ermee gepaard gaan.

Omdat ontwikkelaars zich bewust zijn van dit gebrek aan haalbaarheid, worden er momenteel andere concepten bedacht om AI te trainen in het uitvoeren van acties.

AI in spraakassistenten: Google Assistent en Siri

De problemen met het omzetten van vragen naar acties ervaar je vooral bij de nieuwe AI-assistent op Android-telefoons: Gemini. Zodra je Gemini vraagt iets voor je te doen, krijg je regelmatig te horen dat “ze een taalmodel is en geen acties kan uitvoeren.” Het verzoek om dat niet steeds te herhalen wanneer ik haar iets vraag, lijkt nog niet te zijn aangekomen. Ik hoor dit dagelijks meerdere keren. Het voelt alsof ze me niet begrijpt. 😉

Er is echter een taal die computers wel heel goed begrijpen en waarmee AI woorden kan omzetten in acties.

AI kan programmeren

Computercode is dé taal die woorden vertaalt in actie. Ik vind het genereren van computercode een van de meest fascinerende toepassingen van AI. Vooral vanwege de mogelijke implicatie dat je van taal naar actie kunt gaan via code. Het is echter belangrijk om te kijken hoe volwassen deze techniek op dit moment is. Google meldde in oktober van dit jaar dat AI inmiddels 25% van hun code schrijft. Tegelijkertijd verscheen er een paper waaruit bleek dat programmeurs die AI-tools gebruiken niet significant efficiënter zijn. Daarnaast zorgen AI-tools vaak voor meer fouten en onveilige code. Het blijft dus de programmeur – de mens – die verantwoordelijk is voor de kwaliteit van de code.

Als de codekwaliteit van AI aanzienlijk beter zou zijn – en de gemaakte code daarmee veiliger – zou ik als digital native met relatief weinig kennis van code programma’s kunnen schrijven die ideeën omzetten in actie. Ik zou daarmee zelf specifieke actie-modellen, voor specifieke vragen kunnen maken met behulp van AI. Dit kan ik echter op dit moment ook al met zogenaamde no-code– of low-code-toepassingen. Ook hier verwacht ik, helaas, met AI wel grote verbeteringen, maar op korte termijn geen grote doorbraak.

Waar AI werkelijk nuttig is

De huidige generatie AI-tools heeft dus veel beperkingen. Dat betekent niet dat het niets toevoegt. Claude.ai kijkt dit stuk na op taal en spelling en doet dit aanzienlijk beter en sneller dan ik dat zelf kan. Voor taalverwerking en processen die gebaseerd zijn op taal is AI namelijk buitengewoon handig. Denk aan het samenvatten van vergaderingen, analyseren van grote hoeveelheden tekst en het creëren van overzicht in complexe documenten. Het zijn allemaal taken waar AI-tools je in je dagelijkse werk enorm kunnen ondersteunen. Maar het gaat hier dus om de AI tool. Het gereedschap. Niet om AI in het algemeen.

Kies het juiste gereedschap

De gereedschap-analogie kan je onwijs helpen om hype van realiteit te onderscheiden.

“Als je alleen een hamer hebt, ben je geneigd ieder probleem als een spijker te zien” is een oude wijsheid die bijzonder relevant is als het om AI gaat. Het is verleidelijk om in elke nieuwe AI-tool de oplossing voor al je problemen te zien. De werkelijkheid is dat de AI-tool of feature, net als een hamer, gewoon een stuk gereedschap is – krachtig voor specifieke taken, maar niet voor alles.

In mijn dagelijks werk gebruik ik verschillende AI-tools, elk voor hun eigen specifieke doel. Perplexity helpt me bij research, Claude.ai bij het vinden van heldere formuleringen voor complexe ideeën en het controleren van mijn schrijfwerk. Maar het echte werk – het denken, het schrijven, het maken van keuzes – blijft mensenwerk. De tools maken het proces alleen soepeler en efficiënter.

Het is dus niet de vraag óf je AI moet gebruiken, maar welke specifieke tool het beste past bij jouw specifieke behoefte. Sommige taken vragen om een hamer, andere om een schroevendraaier. Er zijn echter vooral veel taken die helemaal niet vragen om AI.

Doorprik de hype, kies je gereedschap met zorg, en gebruik AI waar het daadwerkelijk waarde toevoegt. Nu je nog beter snapt wat AI wel en niet kan, wordt dit veel eenvoudiger. Want uiteindelijk zijn het niet de tools die het werk doen, maar de mens die ze hanteert. En daar verandert AI helemaal niets aan.

Meer verhalen lezen?

In de afgelopen jaren hebben we veel geschreven over ondernemen, zelfsturend werken, de handigste tools en nog veel meer. Dus leef je uit!

Ga naar het blogoverzicht
Hoe Voys in 2025 zakelijke communicatie opnieuw definieert: van telecomprovider naar relatiebouwer

Van 24 januari 2025

Hoe Voys in 2025 zakelijke communicatie opnieuw definieert: van telecomprovider naar relatiebouwer

Lees verder Arrow right
Slimme AI voor je bedrijf: Zo gebruik je AI veilig en binnen de wet

Van 4 december 2024

Slimme AI voor je bedrijf: Zo gebruik je AI veilig en binnen de wet

Lees verder Arrow right