De laatste tijd is er veel te doen rond het vervangen van mensen door artificiële intelligentie (AI).
Recent, juli 2025, was er nog het geval Deloitte Australië dat op bestelling van de Australische overheid een rapport opstelde met een analyse inzake de Australische arbeidsmarkt; nl. het sanctioneren van werklozen die hun verplichtingen niet naleven.
De Australische overheid had echter een grondige analyse en due diligence verwacht van de bekende consultant, maar wat zij uiteindelijk in handen kreeg waren fantasieën gefabriceerd door artificiële intelligentie.
Deloitte gaf toe dat het rapport werd gegenereerd door gebruik te maken van AI (ChatGPT 4.0 van OpenAI in MS Azure), en dat het vele fouten bevatte die ze in een latere correctie (nl. die van oktober 2025) heeft rechtgezet.
Zo werden er bijvoorbeeld onbestaande bronnen, zoals rechtspraak, geciteerd, of werden aan auteurs werken toegeschreven die zij nooit hebben uitgebracht.
Van de het bedrag, nl. $AUS 440 000, dat Deloitte voor zijn analyse vroeg heeft het een klein deel aan haar opdrachtgever terugbetaald. Uiteindelijk betaalde de Australische overheid toch nog een slordige $AUS 290 000.
Het geval Deloitte is spijtig genoeg geen alleenstaand geval. Er blijken meer en meer bekende consultants te zijn die het kritische denken en het maken van analyses “outsourcen” aan AI applicaties.
En de bekende Big 4 consultants zijn overigens niet de enige die reeds de fouten en de tekortkomingen van AI aan den lijve hebben ondervonden.
Wat met een bestelling bij McDonalds voor een ijsje, waar de klant, als gevolg van de foute “interpretatie”, door het AI chatbot systeem een ijsje werd geleverd met een stukje gebakken spek erop. De geautomatiseerde chatbot die McDonalds gebruikte voor het opnemen van bestellingen (Automated Order Taking of AOT) die in 2019 werd aangekondigd maakte gebruik van spraakherkenning om bestellingen van klanten te verwerken.
Helaas blijken dit geen uitzonderingen te zijn. Een zoektocht op het internet leert dat er meer van dergelijke, laat ons ze, grappige gevallen te vinden zijn.
Artificiële fantasieën of AI hallucinaties zoals men het ook wel noemt komen wel vaker voor bij het ongecontroleerd gebruik, gebruik zonder menselijk toezicht, van artificiële intelligentie.
AI projecten en hun RoI
Volgens onderzoek blijkt dat 93% – 95% van de AI projecten geen return on investment (RoI) levert (MIT’s Media Lab, July 2025). Slecht 5% – 7% levert enige return of toegevoegde waarde op.
De projecten die falen om een return te genereren blijken algemene intern ontwikkelde projecten te zijn.
De enige projecten die wel iet of wat return geven blijken kleinere specifieke projecten te zijn, waarbij men een goed uitgekozen onderwerp, gespecialiseerd bedrijf en tools voor heeft ingeschakeld.
De vraag die men zich kan stellen is waarom AI projecten dan precies falen, en waarvoor kan AI dan wel worden ingeschakeld?
Oorzaken van mislukkingen
Uit de vele mislukkingen blijkt dat AI moeite heeft om goede resultaten te geven in een contextuele omgeving van mensen, zie bijvoorbeeld het geval McDonalds, maar ook de Zweedse fintech Klarna (zie infra).
Maar het is niet enkel het feit dat een complexe contextuele omgeving problemen geeft voor AI.
In sommige organisaties werd AI ingevoerd los van de business, als een soort aanhangsel dat losstaat van de business.
Volgens onderzoek is een van de belangrijkste factoren dat AI projecten en investeringen blijkbaar drijft de kudde mentaliteit van besluitvormers.
Managers en executives blijken niet altijd een groen licht te geven voor AI projecten op basis van een volledig begrip van hetgeen AI de organisatie kan bijbrengen op het vlak van toegevoegde waarde, maar wel omdat andere organisaties ook in AI investeren en zij niet willen achterlopen.
Indien een organisatie al een verklaring heeft om te investering in AI dan is dit vaak kostenbesparing, en niet welke werkelijk realiseerbare toegevoegde waarde de AI investering kan brengen. M.a.w. het vervangen van iets, doorgaans mensen, door iets anders, i.c. artificiële intelligentie, dat goedkoper is.
Dit doet denken aan de outsourcing en dot.com beweging eind de jaren 90 van de twintigste eeuw. Toen werd er massaal geoutsourced naar Indië zonder de gevolgen ervan, zowel voor de organisatie, het personeelsbeleid als de processen, volledig te begrijpen.
Het gevolg toen was dat er nadien zware uitgaven moesten worden gedaan om de fouten van het werk dat werd geoutsourced te verbeteren, door het inhuren van externe consultants. Anders gezegd, het enige dat men toen ongeveer heeft bereikt is een verschuiving op de P/L van een 6-rekening personeelskosten naar een 6-rekening aankoop van diensten. Een verschuiving die vermoedelijk ook nog negatief uitviel dan voorheen, omwille van de dubbel gemaakte kosten.
Vandaag zien we met de mislukte AI projecten iets vergelijkbaars, vandaar de vergelijking met de outsourcing en dot.com bubble die men nu in de media maakt.
AI, persoonsgegevens en context
Een Zweeds fintech bedrijf, dat bekendheid verwierf voor hun service “Koop nu, betaal later”, had in 2022 ongeveer 700 werknemers vervangen door AI; alleen maar om later vast te moeten stellen dat de verwachte RoI niet werd gehaald.
Het toenmalig doel voor het vervangen van mensen door AI was blijkbaar kostenbesparing. Er werd blijkbaar geen of onvoldoende rekening gehouden met de werkelijke mogelijkheden van het gebruik van artificiële intelligentie.
De AI chatbots moesten de klanten service verbeteren. Echter het resultaat was net het omgekeerde. In plaats van de klantenservice te verbeteren werd de klanten service alleen maar slechter.
Het is vrij duidelijk dat het afhandelen van klachten van klanten rond hun financiële situatie een heel persoonlijk iets is, dat gepaard gaat met emoties, empathie en het begrijpen van de (persoonlijke) context van die klant. Elementen waarin AI momenteel nog niet in uitblinkt.
Idem wanneer een AI systeem moet interacteren met mensen, bijvoorbeeld bij het opnemen van bestellingen (zie bv. het geval McDonalds).
Soorten AI tools
Hierboven werden enkele voorbeelden opgesomd waarbij gebruik werd gemaakt van AI tools, meer bepaald generatieve AI tools.
Er zijn echter verschillende types AI tools, ieder met hun sterke en zwakke punten.
De Europese verordening van 13/6/2024 maakt slechts een onderscheid tussen AI-modellen en AI-systemen.
We zullen hierna kort de verschillende soorten en indelingen van AI bespreken.
Leercompetentie gebaseerde AI
AI tools kunnen worden ingedeeld op basis van hun competentie om te leren, en het nieuw geleerde op te slaan in het geheugen om het opnieuw te gebruiken al dan niet via inferentie.
Zo zijn er tools die voorgeprogrammeerd zijn om een heel specifieke taak uit te voeren. Het leervermogen van deze tools is nihil. Voorbeelden hiervan zijn sommige AI helpdesk assistenten en auto-piloten in zelfrijdende auto’s.
AI tools met een algemene intelligentie om te leren (d.i. ervaringen opslaan), te denken en daarna te handelen zoals een mens. Een voorbeeld hiervan zijn de generatieve AI tools. Deze tools kunnen op basis van hun “kennis” dat opgeslagen ligt in het geheugen output of content genereren zoals spraak, tekst, afbeeldingen etc. De hierboven aangehaalde voorbeelden werden ontwikkeld met deze categorie van AI tools.
De Europese verordening schijnt met haar begrip “AI-systeem” te doelen op deze categorie van AI tools, waarbij zij in OW 12 stelt dat de mogelijkheid tot inferentie een belangrijk kenmerk is van een “AI-systeem”.
Als men de categorie van de AI tools met algemene intelligentie verder trekt dan bekomt men AI tools met super intelligentie. Momenteel zijn deze tools nog eerder fictie dan realiteit. Dit zullen tools zijn die beschikken over een eigen zelfbewustzijn, een eigen identiteit, etc.; en die de competenties van mensen overschrijden.
Functionele AI
Een andere manier om AI in te delen is op basis van hun functionele mogelijkheden.
Reactieve AI zijn AI tools die niet in staat zijn om het geleerde te hergebruiken. Zij zijn m.a.w. niet in staat om van ervaringen te leren op te slaan en deze te hergebruiken. Hiertoe behoren de meeste voorgeprogrammeerde algoritmen om simpele taken uit te voeren zoals het opzoeken en filteren van gegevens in een databank..
In de categorie van zelflerende AI tools kan men een onderscheid maken tussen die AI tools die conclusies kunnen trekken op basis van data ervaringen en degene die nog een stapje verder gaan en op basis van emoties en ervaringen gebaseerd op emoties conclusies kunnen trekken en ernaar te handelen.
Vandaag behoren de meeste AI tools met een algemene intelligentie tot de zelflerende AI tools die conclusies kunnen trekken op basis van vroegere data ervaringen en daar ook naar kunnen handelen.
AI tools die kunnen leren uit emoties of die een eigen zelfbewustzijn kunnen ontwikkelen en ernaar kunnen handelen zijn momenteel nog fictie.
Men dient te beseffen dat wanneer AI een eigen bewustzijn heeft mensen de AI machine geen zaken meer zal kunnen “wijsmaken”, en de AI machine haar eigen conclusies zal trekken op basis van haar eigen kennis, waarden, emoties, etc.
In het huidige stadium zijn het nog steeds mensen die de AI machine zaken “oplegt”, zoals conclusies die ze moet trekken, kennis waarvan zij gebruik kan maken om tot die conclusie te komen, waarden waarmee de AI machine rekening moeten houden om tot een bepaalde conclusie te komen, etc.
M.a.w. de “zelfbewuste” AI machine zal misschien nog het best te vergelijken zijn met “iets” of het/een “wezen” uit een andere dimensie dan het lichaam dat haar bewoners “aarde” noemen, dat na opneming en verwerking van alle kennis, data-, redeneer-, deductie-, inductie-, waarden- en emotionelemodellen inherent aan deze bewoners die zichzelf “mens” noemen in staat is tot vermoedelijk volledig eigen conclusies en inzichten te komen.
Waarom “vermoedelijk volledig eigen conclusies en inzichten”? Omdat de input van deze “zelfbewuste” AI machines nog steeds referentiekaders en -modellen bevat die afkomstig zijn van hetgeen leeft en bestaat bij mensen.
Dit betekent dat conclusies van “zelfbewuste” AI machines vermoedelijk nog steeds de vooringenomenheid zal bevatten van mensen, zowel bij het verwerken van persoonsgegevens als van niet persoonsgegevens.
Referenties
Belangrijke opmerking voor deze blog.
Deze blog is niet gebaseerd op een wetenschappelijk onderzoek, maar wel op enkele papers en nieuwsberichten van bekende instellingen zoals het Massachusetts Institute of Technology, een Ivy League universiteit voor exacte en toegepaste wetenschappen in de US, en de universiteit van Harvard, dat vooral bekend is om hun MBA opleidingen.
De paper van MIT’s Media Lab is zelf geen echt wetenschappelijk onderzoek te noemen. Daarvoor is de scope te beperkt.
Het artikel van gepubliceerd in de Harvard Business Review is voor een deel gebaseerd op de paper van MIT’s Media Lab. Ook dat artikel is geen echt wetenschappelijk onderzoek.
Aditya Challapally, Chris Pease, Ramesh Raskar en Pradyumna Chari, The GenAI Divide. State of AI in Business in 2025, MIT’s Media Lab, July 2025.
Nathan Furr en Andrew Shipilov, Beware the AI Experimentation Trap, Harvard Business Review, 29/8/2025.
Verschillende persberichten afkomstig van o.a. de BBC, Forbes, Economic Times, Restaurant Business, Skynews Australia, …
Bloep, 5 november 2025.