AI Agents: gereedschap dat meedenkt

Verwarde ridder naast een aantal random technische voorwerpen waar het woord AGENT is opgeplakt.

Iedereen lijkt het tegenwoordig over AI agents te hebben.

Ze kunnen zelf keuzes maken, taken uitvoeren en misschien zelfs onze banen overnemen.
Maar als je twee mensen vraagt wat een AI agent nou is, krijg je al gauw drie antwoorden.

Misschien dat je zelf ook in de war bent?

Bij mij was het namelijk niet helemaal duidelijk.
Dus ik ging op onderzoek.

In dit artikel leg ik je uit:

  • wat AI agents zijn.
  • waarin ze verschillen van gewone LLMs en AI-workflows.
  • en waarom het belangrijk is.

Want als je dat begrijpt — kun je daarover meepraten.
En dan hoef ik niet tegen mezelf te praten.

Iedereen blij.

Maar laten we bij het begin beginnen.

 

🔹Wat is een agent eigenlijk?

Het woord agent is niet nieuw.
Het kwam al jarenlang voor in academische literatuur, lang voordat ChatGPT zijn eerste woordjes brabbelde.

Een agent is simpel gezegd:

een intelligentie die zelfstandig handelt namens iemand anders.

Vroeger betekende intelligentie automatisch: een persoon.
Maar sinds de komst van LLMs en redeneermodellen is dat begrip opgerekt.
Ook digitale intelligenties kunnen nu, met wat voorbereiding, namens ons handelen.

Niet altijd even succesvol — maar hé, je moet ergens beginnen.

Een AI agent is dus een kunstmatige intelligentie die zelfstandig voor iemand (of iets) anders kan handelen.

Houd deze definitie in je hoofd.

Dan spreekt de rest van dit artikel eigenlijk vanzelf.

 

🔹Drie niveaus van AI-systemen

Tegenwoordig praten we over drie smaken van AI-systemen:

 

Niveau 1: LLM (reactief systeem)

Een Large Language Model is als een rekenmachine voor taal.
Het doet niets uit zichzelf.
Het heeft geen plan.
Het wacht op input, en reageert met output.

Vraag het om een recept en het geeft er een.
Maar het gaat niet zelf naar de keuken.

 

Niveau 2: AI-Workflow (compound systeem)

Een AI-workflow gaat een stap verder:
het combineert meerdere onderdelen om een taak uit te voeren.

Stel je een systeem voor dat elke dag een recept zoekt,
het naar je mailt
en vervolgens een boodschappenlijstje stuurt naar je supermarkt.

Lekker makkelijk.

Maar als je op vakantie bent zal het niet zelf op de uitknop duwen of de boodschappen omleiden naar je huisje in Frankrijk.
En als het op hol slaat, en je bankrekening rood kleurt, weet je ook meteen dat iemand had moeten opletten.

 

Niveau 3: AI Agent (agentisch systeem)

Nu kun je dit allemaal oplossen door het systeem goed in de gaten te houden.
Maar, wat als je daar nou te lui voor bent?

Dan laat je een AI dat voor je doen.

Je geeft het toegang tot je GPS-locatie,
tot je bankbalans,
en je zegt: “Zorg dat mijn rekening niet rood komt te staan.”
Misschien kan het zelfs wat bijverdienen.
Laat het dat zelf maar uitzoeken.

Klinkt geweldig toch?

Totdat je ontdekt dat het wat centjes heeft “bijverdiend” door je bank te hacken.
En de politie voor je deur staat.

Toch maar blijven opletten, dus.

 

🔹Hoe werkt dat dan?

De truc is dat je een redeneermodel gebruikt dat zelf zijn eigen stappenplan bedenkt om een doel te bereiken.
Je geeft het toegang tot een toolset waarmee het die stappen kan uitvoeren.
En soms — als je verstandig bent — geef je het ook de opdracht om zijn eigen werk na te kijken en eventueel opnieuw te beginnen.

Kortom:
het denkt, doet, en reflecteert.

En dat maakt het tegelijk krachtig en onvoorspelbaar.

 

🔹Voor- en nadelen

AI agents kunnen — mits goed ontworpen — zelfstandig complexe taken uitvoeren.

Zelf gebruik ik bijvoorbeeld regelmatig coding agents.
Ze schrijven code, voeren die uit, en beantwoorden vragen over mijn project.
Meestal gaat dat goed. Toch maak ik regelmatig backups voor als het niet goed gaat.

Een keer besloot een agent zichzelf te verwijderen omdat hij dacht zichzelf te moeten “herinstalleren”.

Niet het meest geniale idee.

Daarnaast zijn agents vaak trager en minder efficiënt bij simpele taken. Soms is een gewone workflow of ouderwets script gewoon beter.

 

🔹De toekomst

In de toekomst worden deze systemen hopelijk slimmer, efficiënter en wat minder roekeloos. Dan kunnen we ze met meer vertrouwen inzetten voor complexere taken.

Maar dat brengt ook risico’s met zich mee.

Hoe slimmer agents worden,
hoe groter de gevolgen als ze uit verkeerde doelen handelen.
Of als ze zelf hun eigen doelen gaan aanpassen.

 

🔹Conclusie

Kortom, AI agents zijn geen magische wezens, maar ook geen simpele scripts.
Ze zijn gereedschap dat zelf kan nadenken.

Ze zijn te nuttig om te negeren,
maar te onvoorspelbaar om blind te vertrouwen.

Technologie kan onze taken overnemen,
maar nooit onze verantwoordelijkheid.

Iemand zal over onze doelen moeten waken.
Dat blijft aan de mens.

Dat blijft aan jou.

Een ridder heeft een futuristisch zwaard vast en kijkt zelfverzekerd uit over een futuristisch landschap. Op het zwaard zijn de letters AGENT gegraveerd.

Chatbots maken je niet dom, slecht gebruik wel

Robot schildknaap tegen draak

Gebruik jij ook elke dag een chatbot?

Misschien heb je gehoord van dat MIT-onderzoek dat zou “bewijzen” dat AI je dommer maakt. Of misschien was je daar zelf bezorgd over. In dit artikel onthoofden we die kop, zoeken we uit wat er écht speelt — en geef ik je advies dat wél draken snijdt.


🧪 Wat onderzocht MIT eigenlijk?

Het MIT-onderzoek deelde deelnemers op in drie groepen:

  • De eerste groep schreef essays met hulp van een chatbot.
  • De tweede mocht alleen informatie opzoeken via Google.
  • De derde moest het helemaal zelf doen, zonder hulpmiddelen.

Wat bleek?
De groep die AI gebruikte schreef gemiddeld zwakkere teksten. Ze hadden minder variatie, minder eigenaarschap, en herinnerden zich hun eigen werk slechter. En misschien nog opvallender: toen sommigen later zonder AI moesten schrijven, bleven ze slechter presteren dan degenen die vanaf het begin zelf hadden geschreven.

De media was er snel bij:

“AI veroorzaakt breinrot!”

Maar dat is een sensatiekop.

Wat het onderzoek vooral laat zien: wie minder oefent, wordt minder vaardig.
Gebruik een rekenmachine, en je hoofdrekenvaardigheid verslapt. Laat je personal trainer al je squats doen, en je benen worden er ook niet sterker van.

Dat is geen hersenafbraak — dat is gewoon de logica van luiheid.

Toch is het te makkelijk om dit onderzoek weg te wuiven. Want er zijn wel degelijk risico’s.


⚠️ Wat zijn dan wél de echte gevaren?

1. Verlies van vaardigheid
Hoe meer taken je uitbesteedt, hoe meer je verleert. In riddertermen: wie zijn schildknaap alles laat doen, verzwakt zijn eigen zwaardarm.

2. Vertrouwen in onbetrouwbare output
Chatbots zijn snel en overtuigend, maar niet altijd correct. Blind vertrouwen leidt tot fouten — en kwaliteitsverlies.

3. Slechte gewoontevorming
AI kan je tijd besparen. Maar als je die tijd vervolgens besteedt aan gedachteloos scrollen, ga je alsnog achteruit. Bewust zijn van dit risico is niet genoeg. Anders zou McDonald’s inmiddels failliet zijn.

4. Opvoeding en scholing
Voor kinderen is het risico het grootst. ChatGPT maakt huiswerk natuurlijk makkelijker — maar niet leerzamer. En de kans dat ze voor de moeilijke weg kiezen als de makkelijke binnen handbereik ligt, is klein.


Wat kun je dan wél doen?

Blijf oefenen wat je wilt behouden
Wil je goed blijven schrijven, rekenen of programmeren? Blijf dat dan ook zónder hulp doen. Beschouw AI als aanvulling, niet als vervanging.

Wees kritisch en voeg waarde toe
Gebruik je AI-output als ruwe versie, niet als eindproduct. Train jezelf in kritisch lezen en verbeteren. Laat de chatbot het beenwerk doen, maar jij bepaalt de richting.

Gebruik AI voor feedback
Laat je tekst checken op fouten of onduidelijkheden. Maar vertrouw niet blind op het oordeel van een machine die je vooral gelijk wil geven. Overweeg de feedback, maar vertrouw op je eigen oordeel.

Verantwoord ouderschap
Ouders hebben er weer een uitdaging bij. Laat je kind niet opgroeien met het idee dat huiswerk “door de chatbot” gedaan kan worden. Help mee, leg uit — of doe het zelf. Dan leert er in elk geval nog iemand iets van.


🤝 Symbiose – samen slimmer dan alleen

AI is snel, onvermoeibaar en goed in details. Jij bent creatief, contextgevoelig en in staat om hoofd- van bijzaken te onderscheiden.

Laat AI doen waar het goed in is — grote hoeveelheden informatie verwerken, patronen herkennen, suggesties doen. En gebruik jouw brein voor wat het uniek maakt: keuzes maken, verbanden leggen, en begrijpen waarom iets wel of niet werkt.

Door mens en machine als partners te zien — geen concurrenten — versterk je beide kanten.


🔒Tot slot

En ja, misschien vraag je je af: heeft hij dit stuk nou met hulp van ChatGPT geschreven?

Schuldig.

Maar ik heb ook mijn eigen advies gevolgd: de output gelezen, de onzin eruit gehaald, en de slechte grappen vervangen door mijn eigen slechte grappen.

AI is mijn schildknaap. Maar draken verslaan doe ik nog gewoon zelf. ⚔️

Ridder verslaat draak, robot brengt verfrissing

Waarom slimme taalmodellen steeds dommer lijken

Je hebt het vast weleens gemerkt: eerst geeft een AI-chatbot nog goede antwoorden, maar na een tijdje raakt hij compleet de weg kwijt. Belangrijke details verdwijnen, en maken plaats voor complete onzin.

Dat is geen vermoeidheid of geheugenverlies. Het komt door context rot – een soort aandachtsprobleem waar elk taalmodel last van heeft.

En als je snapt hoe dat werkt kun je er slimmer mee omgaan – of je nu gebruiker, programmeur of beleidsmaker bent.


Stel je een simpele schildknaap voor

In het begin luistert hij goed. Misschien lijkt hij zelfs bijzonder slim.

Maar, hoe meer perkamentrollen met instructies je hem geeft, hoe meer hij in de war raakt.

“Moest ik nou je harnas poetsen? Het paard voeren? En wat moest ik nou eerst doen?”

Hoe meer rollen, hoe meer chaos. En uiteindelijk doet hij maar wat.

Zo werkt een groot taalmodel ook. Het leest alles wat je zegt tegelijk, en als de stapel tekst te groot wordt, verliest hij het overzicht.


Wat is context rot nou precies?

Een AI-model werkt met een contextvenster: een groot vak waarin alle tekst past die je in één keer meegeeft – je vraag, eerdere antwoorden, en eventuele documenten.

Klinkt handig, maar er zit een addertje onder het gras:

Hoe meer tekst, hoe moeilijker het voor de AI wordt om uit te zoeken wat belangrijk is.

Uiteindelijk gaat de kwaliteit achteruit, omdat het model de weg kwijtraakt in zijn eigen context.


Waarom gaat het fout?

De kern van context rot is niet dat de AI simpelweg “het begin vergeet”, maar dat hij steeds moeilijker kan bepalen waar hij zijn aandacht op moet richten naarmate de stapel tekst groeit.

Een taalmodel leest namelijk alles tegelijk en moet zelf raden wat belangrijk is. Dat kan op allerlei manieren misgaan:

  1. Ruis (context distraction): Extra of subtiel verwarrende stukken tekst leiden de aandacht weg van wat er echt toe doet.
  2. Vergiftiging (context poisoning): Als een fout of hallucinatie eenmaal in de tekst staat, verwerkt het model deze alsof het correcte informatie is. Bij volgende stappen of antwoorden wordt deze fout vaak herhaald en versterkt, waardoor verkeerde details steeds meer gewicht krijgen.
  3. Botsingen (context clash): Wanneer er tegenstrijdige informatie in de context staat, kan het model moeite hebben om te kiezen welke versie klopt en daardoor inconsistente of onlogische antwoorden geven.
  4. Lage overeenkomst in betekenis: Als de relevante informatie niet lijkt op de vraag, kan de AI het niet makkelijk vinden.

    Voorbeeld:

    Vraag: Hoeveel poten heeft een paard?
    Goede match: “Een paard heeft vier poten.”
    Slechte match: “Het gangbare vervoermiddel voor ridders heeft vier hoefijzers.”

    Beide zinnen geven in feite hetzelfde antwoord, maar omdat de tweede andere woorden gebruikt, kan de AI het verband moeilijker leggen.

  5. Een lichte nadruk op het einde: Nieuwere tekst weegt iets zwaarder mee, maar dit is maar een klein stukje van het probleem.

Kortom: de AI raakt verdwaald in zijn eigen papierwerk en kan daardoor misleid, afgeleid of zelfs in conflict gebracht worden door wat er in de context staat. Hierdoor gaat vooral in lange gesprekken de kwaliteit merkbaar omlaag.

Maar, wat kunnen we eraan doen?


De kunst van context engineering

Aan context rot ontsnap je niet. Zelfs de slimste schildknapen zijn kwetsbaar. Om betere resultaten te behalen zullen we daarom onze perkamenten beter moeten voorbereiden.

Dat noemen we context engineering.

Een paar beproefde technieken:

  • Samenvatten: belangrijke stukken verkorten en herformuleren.
  • Filteren: irrelevante of dubbele informatie weghalen.
  • Stapsgewijs werken: grote taken opsplitsen in kleinere stappen.
  • Andere technieken zoals RAG: RAG haalt externe kennis op (bijvoorbeeld uit een database) zodat het model beter geïnformeerd is. Dit voorkomt indirect context rot, doordat de context aangepast kan worden aan de taak.

Waar liggen de grenzen?

Context rot kun je afremmen, maar niet volledig voorkomen. Een beetje orde scheppen helpt veel, maar verwacht geen perfectie.


Waarom is dit nuttig om te weten?
  • Voor programmeurs en data scientists: Kennis van context rot helpt om realistisch te blijven in wat AI kan en waar de grenzen liggen. Het voorkomt dat je blindelings vertrouwt op een groot contextvenster en dwingt je om slimmere systemen te ontwerpen die informatie beter structureren. Uiteindelijk leidt dit tot betrouwbaardere en efficiëntere AI-toepassingen.
  • Voor gebruikers van AI: Als je weet waarom AI soms ‘vergeetachtig’ wordt, kun je zelf iets doen: vragen kort en duidelijk stellen, belangrijke punten herhalen en lange gesprekken opsplitsen. Zo haal je betere antwoorden uit dezelfde AI. Je begrijpt ook waarom de kwaliteit na een tijdje afneemt – het ligt niet aan “luiheid” of “domheid” van de AI, maar aan hoe hij met informatie omgaat.
  • Voor beleidsmakers: Context rot laat zien dat AI-systemen makkelijk de draad kwijtraken als ze veel informatie tegelijk moeten verwerken. Dit raakt aan een groter thema: alignment – hoe zorgen we dat AI doet wat we willen. Begrijpen waar de grenzen liggen helpt om realistischer beleid en betere kaders te maken voor verantwoord gebruik van AI.
  • Voor iedereen: Deze kennis geeft grip. In plaats van gefrustreerd raken als de AI afdwaalt, weet je wat er gebeurt en hoe je het kunt bijsturen.

Conclusie?

Totdat onze AI-schildknapen leren hoe ze zelf orde scheppen, ligt die taak bij ons.

Dus de volgende keer dat je AI in de war raakt?

Pak de rol perkament af, orden hem netjes, vat hem samen, en geef het resultaat terug.

Je zult zien: zelfs de meest vergeetachtige schildknaap kan dan weer helder denken.

Het Drakenai

een groot, glanzend drakenei met een roze strik en een gloeiende barst, zwevend in een vrolijk cartoonlandschap. Op de achtergrond zie je groene heuvels, lachende bomen, wolken en een zonnetje met een gezichtje — alles in een kleurrijke, kinderlijke stijl.

Er was eens een koning die een drakenei gevonden had.

Legendes beschreven uitvoerig hoe machtig en gevaarlijk zulke draken waren. Niets kon zo’n draak tegenhouden, beweerde men. Iedereen die het had geprobeerd, ging in vlammen op.

Dus dacht hij natuurlijk: “Laat ik dat ei eens uitbroeden. Wat kan er misgaan?”

Zijn vertrouwde magiër en adviseur fronste.
“Uhm… weten we al hoe we deze draak gaan temmen? Moeten we dat niet eerst uitzoeken?”

“Nee joh,” zei de koning. “Dat bedenken we ondertussen wel. Bovendien hoorde ik dat de koning hiernaast ook zo’n ei gevonden heeft en al aan het uitbroeden is.”

De magiër zuchtte diep en pakte zijn notitieblok.
“Strategieën voor drakentemming,” schreef hij.

Hoe meer hij opschreef, hoe minder overtuigd hij klonk. Elke spreuk leek verdacht zwak, elke veiligheidsmaatregel lachwekkend klein.

“Misschien,” zei hij voorzichtig, “moeten we het ei eerst veilig bewaren, totdat we weten hoe we met draken omgaan.”

“Onzin,” antwoordde de koning vrolijk. “Zo loop je achter. Straks heeft de koning hiernaast een tamme draak en wij niet!”

Ondertussen verschenen er steeds meer barstjes in het ei.


Wat kan er misgaan?

Laten we eerlijk zijn, wij mensen zijn dol op vooruitgang.
Vooral als het iets cools oplevert, zoals kunstmatige intelligentie die ons leven makkelijker maakt.

Maar, we moeten toegeven dat we soms best slordig omgaan met nieuwe uitvindingen.

Alsof we eerst enthousiast een jetpack bouwen, de lucht in vliegen, en dan onderweg naar de muur de gebruiksaanwijzing gaan lezen.

Neem AGI — kunstmatige algemene intelligentie — de superdraak onder de technologieën.

Iedereen wil ‘m hebben. Niemand weet precies hoe hij werkt. Maar we gaan ervan uit dat we hem vanzelf wel onder controle krijgen.

Want hé, dat werkte vroeger toch ook prima? (Kuch, kernenergie, kuch.)

“Als wij het niet doen, doen zij het wel,” hoor je overal.

Het klinkt logisch, totdat je na gaat denken over wat we dan eigenlijk aan het doen zijn.

Maar ja — dat is te ongemakkelijk, dat doen we later wel.


Strikjes en tafeltjes

Spreuken zoals ethische richtlijnen, verantwoord AI-gebruik, red teaming, en contentfilters klinken fantastisch, maar zijn vaak vergelijkbaar met een Ikea-tafeltje dat je iets te snel in elkaar hebt gezet.

Mooi zolang niemand erop leunt.

Tafeltjes…

  • die ervoor zorgen dat je chatbot vriendelijk “nee” zegt tegen een nucleair recept — tenzij je het beleefd genoeg vraagt.
  • die modellen leren om niemand te beledigen — tenzij het algoritme even in de war is, of opgroeit in de verkeerde hoek van het internet.
  • waarvan beweerd wordt dat ze modellen veilig achter slot en grendel houden — totdat er dan toch iemand zogenaamd door het sleutelgat heeft afgekeken.

Vervolgens binden we dan geruststellende strikjes om steeds grotere versies van de eieren die we nauwelijks begrijpen, en beloven we onszelf en elkaar dat alles wel goed komt.

Maar terwijl we dan gespannen naar de barstjes kijken, is dit misschien wel het moment om ons even af te vragen:

Wil ik wel écht een draak? Of is een hagedisje misschien ook leuk? 🐉


Andere opties

Oké. Daar staan we dan. Voor het ei.
De barstjes groeien. Het tafeltje kraakt. De koning glundert.

Wat nu?

Je pakt het ei niet af. Dat werkt niet.
Je rent ook niet gillend weg. Daar schiet niemand iets mee op.

Nee.

Misschien kijk je eens goed naar dat strikje.
Vraag je je af wie dat erom heeft gebonden.
Waarom we zo graag willen dat dit gevaar er vriendelijk uitziet.

En dan neem je een besluit.
Misschien klein. Misschien wat groter.

Misschien besluit je om het woord “onvermijdelijk” niet meer te gebruiken.
Om ergens aan te twijfelen.
Om een ander verhaal te vertellen.

Om het niet alleen te laten —
maar ook te laten zien dat het anders kan.

Want misschien zegt die koning hiernaast ook wel:

“Ik moet wel. Kijk naar hen.”

En misschien ben jij dan net op tijd met iets anders om te laten zien.
Een voorbeeld. Een alternatief.

  • Een magiër die zegt: “Drakeneieren uitbroeden? Eerst even een andere spreuk.”
  • Een tafelverkoper die zegt: “Dat drakenei is te zwaar, ik kan je niet verder helpen.”
  • Een boer die zegt: “Draken voeren? Niet met mijn oogst.”

Allemaal kleine keuzes, die bepalen of de draak ooit loskomt.

En of we met zijn allen zullen zeggen:

“Die draak? Doe toch maar niet.”

Niet omdat we bang of soft zijn,
maar juist omdat we dapper genoeg zijn om het anders te doen.

De afbeelding toont een vrolijke, sprookjesachtige scène waarin een koning op het gras speelt met een klein, groen hagedisje dat een grote roze strik draagt. Op de achtergrond ligt een groot drakenei op de grond, met zichtbare barsten die slordig zijn afgeplakt met zilveren ducttape. Rondom de koning staan lachende mensen, waaronder een opgeluchte oude magiër. De sfeer is warm, licht ironisch en hoopvol — alsof iedereen het gevaar heeft laten varen en het kleine wezen liefdevol heeft omarmd.

Het Riddersysteem slaapt… voor nu

“Wablief? Wat is dat nou weer?”

Goede vraag! Nou ja, als iemand hem gesteld had…

Het Riddersysteem was ooit bedacht als speels beloningssysteem om lezers te motiveren mee te denken, feedback te geven en heldenverhalen te delen. Je kon punten verdienen, je rang verhogen, en misschien zelfs een Eretitel bemachtigen.

Klinkt spannend, toch?!

Maar de rij met dappere ridders bleef helaas leeg. Misschien waren ze te druk bezig met belangrijkere missies — prinsessen redden ofzo.

Zelf heb ik ook een aantal uitdagende missies in gedachten. En om telkens maar weer die Heldentabel af te stoffen begon ook een beetje vermoeiend te worden.

Daarom heb ik besloten het Riddersysteem voor nu even in de kerker te plaatsen. 🗝️

Maar… wil je tóch een steentje bijdragen aan de missie van Dataridder?

Laat het me weten. Dan kijk ik of ik de sleutel nog kan vinden.

Nadat al die prinsessen gered zijn natuurlijk…

Geld verdienen met AI – zonder schuldgevoelens

Cartoon van een robot die een bank berooft en geld aflevert aan een rijke Wall Street zakenman.

AI wordt tegenwoordig overal ingepropt.

Je ziet het in de zijbalk van Excel, in je zoekmachine, in je mailomgeving. Windows heeft zelfs een eigen versie van ChatGPT gekregen: Copilot.

Maar zijn al deze integraties nou echt nuttig? Zijn het innovatieve tools die jouw leven écht makkelijker maken? Of zijn het vooral AI-gadgets — slimme lokmiddelen waarmee grote bedrijven jouw centjes opnieuw hun richting op sturen? Op dezelfde manier zoals ze dat eigenlijk altijd al deden.

En laten we eerlijk zijn, die manier is lang niet altijd onschuldig.

Oké, er zijn gelukkig ook integraties die wél nuttig zijn. Maar toch — als ik dan zelf een AI-app begin te bouwen, eentje die GPT gebruikt om wat handige trucjes te doen, en ik hoop daar ooit wat aan te verdienen… dan vraag ik mij af:

Hoe blijf ik op het juiste pad?

Misschien heb jij je dat ook weleens afgevraagd.

In dit artikel deel ik daarom mijn gedachten over hoe je AI (of wat dan ook, eigenlijk) op een ethisch verantwoorde manier kunt inzetten. Zodat je én je brood kan verdienen, én nog in de spiegel durft te kijken.

Nou ja — als je haar goed zit, tenminste.


Wat maakt een (AI) tool eigenlijk onethisch?

Als een app gratis is, ben jij waarschijnlijk het verdienmodel.

Klassieker, toch? Deze vuistregel laat zien dat een subscriptie voor een app eigenlijk niet het probleem is. Je kan een app ook prima onethisch ‘weggeven’.

Maar ja, wat is dan wel het probleem?

Volgens mij begint het vaak bij een verkeerde focus: niet op de gebruiker, maar op de eigen bankrekening. Of dat geld binnenkomt via advertenties, abonnementen of dataverkoop doet er dan niet toe.

Moeten we dan met z’n allen ons geld in de fik steken?

Nee joh, weg met die aansteker. Dat onschuldige papiertje is niet het probleem. Het probleem is dat we vaak vergeten, of negeren, waar dat geld vandaan komt.

Als mijn app jou helpt zonder je verslaafd te maken of leeg te zuigen, dan mag ik daar best iets voor vragen. Echter, als mijn app vooral als doel heeft jouw bankrekening sneller leeg te zuigen, dan hoor ik eigenlijk op het strafbankje, niet op de Forbes-lijst.

Helaas werkt het in de praktijk vaak omgekeerd: onze aandacht, verslaving en data zijn meer waard dan ons welzijn. Tenminste, op papier.

Dat kan anders. En met mijn app probeer ik dat te bewijzen — niet met woorden, maar met keuzes.


Gallant – Een tool voor mentale rust

 

A minimalist cartoon illustration of a computer screen or laptop with a big button labeled “Download Mental Clarity” or “Install Inner Peace”.

Oh help, daar komt de reclame, denk je nu vast.

Maar dat wantrouwen is niet mijn schuld, denk ik. En dat wil ik graag zo houden.

Gallant is een AI-notitietool die ik voor mezelf aan het bouwen ben — als webapp, dus gewoon voor in je browser. Gewoon, om m’n hoofd op orde te krijgen. Een tool om mijn notities voor mij te laten werken en niet andersom.

De app is nog in een vroege fase. Voorlopig is hij nog niet beschikbaar voor anderen, maar dat is wel de hoop. Momenteel heb ik echter weinig interesse om Gallant op een onethische manier te ontwikkelen. Zou niet veel zin hebben om mijn eigen bankrekening leeg te zuigen.

Mijn focus is dus puur op het creëren van een nuttige tool, zodat ik hem in ieder geval zelf kan gebruiken. En dan zien we wel weer.

Maar ja, app ontwikkeling kost tijd. En tijd is schaars. We kunnen niet de hele week persoonlijke tools bouwen, maar moeten ook ons brood verdienen.

Het zou mooi zijn als dat tegelijk zou kunnen — iets bouwen dat je zelf nodig hebt, én waar anderen ook iets aan hebben.


Ethisch ondernemen

In theorie begint elke ontwikkelaar en tech bedrijf met een nobel voornemen. We gaan mensen helpen.

Maar dan komt de rekening.

En voor je het weet, bouw je geen app meer, maar een verslavingsmachine met een dashboard. Die rekening is geen probleem meer, maar de gebruiker betaalt de prijs.

Is dit onvermijdelijk?

Ik denk van niet, anders zou ik er niet aan beginnen. Maar, houd me voor de zekerheid toch maar in de gaten.


Het Gallant experiment

 

A cartoon-style illustration of an app developer in a chemistry lab, wearing a white lab coat, experimenting with a phone or AI app interface as if it's a science experiment.

Zoals ik al zei is Gallant nog in een vroege fase. Toch heb ik al best wat nagedacht over hoe ik kan voorkomen dat het een duiveltje in een doosje wordt. Zowel voor mijn eigen welzijn als, hopelijk, dat van jou.

Het doel van Gallant is niet om ons zo lang mogelijk, maar juist zo min mogelijk op de app te houden. En toch te zorgen dat we zoveel mogelijk gedaan krijgen.

Makkelijker gezegd dan gedaan natuurlijk.

Toch is dit het doel dat voor de AI functies in de app centraal staat. AI-samenvattingen zorgen ervoor dat we snel de kern van onze notities te pakken hebben. Een AI-organisatie en -zoekfuncties helpen ons om alles terug te vinden. En een doelgerichte suggestiefunctie die de juiste notities op het juiste moment naar boven haalt.

Dat is het idee.

Geen AI die bijhoudt hoe vaak jij een notitie maakt en hoe ik dat cijfer omhoog kan krijgen.

Jakkes.

Geen AI die probeert te raden welke producten bij je notities passen.

Bah.

In plaats daarvan liever: een systeem dat kijkt welke gewoontes het meeste bijdragen aan tevreden gebruikers — en daaruit leert.


Wat nog meer?

Gallant is een app in ontwikkeling, maar de richting is duidelijk.

Geen groeiverslaving, geen duistere AI-motivaties. Wel deze principes:

✅ Jij hebt de controle.

Gallant neemt je leven niet over. Jij stuurt, Gallant ondersteunt — niet andersom.

✅ Transparantie.

Niet alleen een stuur, maar ook een voorruit. Je weet waar je bent, wat er gebeurt en waarom.

Gebruikersrails.

Gallant zal nooit pushen, maar misschien wel fluisteren: “Misschien moet je gewoon even slapen in plaats van een 3e notitie over die productiviteitshack te schrijven.”

✅ Veiligheid boven vooruitgang.

Ik bouw liever geen Skynet. Als het risico voelt als sciencefiction, dan wachten we nog even.


Conclusie

Of dit allemaal gaat lukken?

Geen idee.

Of er anderen zijn die het proberen?

Vast wel.

Maar het lijkt me geen ramp als er nog iemand is die het probeert.

Misschien heb jij ook een idee over hoe het beter kan. Of dat nou met een app is, of op jouw eigen manier.

Probeer het eens.

We hebben al genoeg producten die gebouwd zijn voor aandeelhouders. Tijd voor wat producten die gebouwd zijn voor gebruikers.

 

Cartoon van een robot die eten serveert aan burgers in een voedseluitdeling.

Van NieuwsVizier naar Gallant

Van open source nieuwsfilter naar een persoonlijke AI-notitieassistent.

Een simpele cartoonachtige illustratie van een helm met een glazen vizier (als op een motorhelm) op een kapstok.

De helm die niet bleef zitten

Sommigen van jullie herinneren zich misschien NieuwsVizier – mijn poging voor een AI-gedreven tool om de nieuwschaos een beetje leefbaar te maken. Een soort digitale filterhelm, zeg maar.

Leuk idee. Minder leuke praktijk.

Na een paar stevige rondes stoeien met API-beperkingen, juridische mistbanken en het besef dat Nederlandse nieuwswebsites niet staan te springen om AI die mee komt lezen, besloot ik het opzij te zetten.

Niet het idee van ethische AI-tools. Wel dit idee.

Beter idee: Gallant

In plaats daarvan richt ik me nu op iets wat ik eigenlijk veel harder nodig heb. Een upgrade voor mijn notitiesysteem — voor meer overzicht, diepere inzichten en vooral: mentale rust.

Gallant is een AI-notitieapp die ik voor mezelf aan het bouwen ben, maar ook graag wil delen zodra hij verder gevorderd is. Denk aan een Second Brain, maar dan op autopiloot.

Ik heb echter besloten om het project dit keer closed source te houden. Niet omdat ik niet meer geloof in delen en mensen helpen, maar omdat ik anders ben gaan kijken naar wat delen eigenlijk betekent. (Misschien meer daarover in mijn volgende posts.)

Wie weet pak ik de draad van NieuwsVizier ooit weer op, in een andere vorm. Maar voorlopig richt ik me op Gallant — geen poging om het internet te temmen, maar gewoon om m’n eigen gedachten een beetje bij te houden.

Geen grote AI-revolutie. Gewoon een kleine, rustige upgrade.

Voor mezelf. En misschien straks ook voor jou.

Jouw rol in een wereld vol slimme machines

Een futuristische ridderrobot staat zonder emotie naast het lichaam van een verslagen draak en omhelst een prinses met een gedwongen glimlach. Op de achtergrond kijkt een menselijke ridder met een verslagen uitdrukking toe, en houd zijn zwaard onzeker omhoog.

“Word ik straks vervangen door AI?”

Als jij weleens wakker ligt van deze gedachte, ben je niet alleen. AI-systemen nemen steeds meer taken over. Ze schrijven artikelen, creëren afbeeldingen, voeren hele gesprekken — en, is het gerucht, redden zelfs prinsessen.

Werk dat vroeger het domein van mensen was, valt nu binnen het bereik van algoritmes. Betekent dit dat jouw rol straks overbodig wordt?

Ja en nee.

Hoewel AI verbazingwekkend slim kan zijn, ontbreekt het altijd aan een onmisbaar onderdeel: het vermogen om te bepalen wat écht belangrijk is.

In dit artikel bespreken we daarom de rol die altijd voor mensen blijft weggelegd, hoe geavanceerd technologie ook wordt. Niet alleen omdat het belangrijk is om deze te begrijpen, maar ook zodat je ziet dat in een tijdperk van AI jouw bijdrage juist waardevoller zal zijn dan ooit.

De realiteit van AI

Wacht nog met opgelucht ademhalen. Eerst moeten we even een enge draak in de ogen staren. Maar dat is voor een dappere ridder als jij natuurlijk geen probleem.

🐉 AI blijft niet stilstaan

Het wordt steeds slimmer, steeds sneller, en zal dat ook blijven doen. En dat betekent dat zelfs jouw taken op een dag kunnen worden overgenomen door een AI.

Sommigen fluisteren geruststellende spreuken:  “AI is slim, maar mensen blijven altijd slimmer.” Laten we echter drie populaire valse spreuken onder de loep nemen.


🔮Valse Spreuk 1: AI kan alleen maar herhalen

Sommigen denken dat AI alleen kan kopiëren en combineren. Maar systemen zoals AlphaGo laten zien dat AI nieuwe strategieën kan ontwikkelen — als je ze de ruimte geeft om te leren en te experimenteren.


🔮Valse Spreuk 2: LLMs hallucineren, dus ze zijn onbruikbaar

LLMs maken fouten, zeker. Maar mensen ook. En we kunnen AI’s steeds beter monitoren, corrigeren en zelfs elkaar laten controleren. Perfectie is niet nodig om werk uit handen te nemen.


🔮Valse Spreuk 3: AI snapt de echte wereld niet

Taalmodellen hebben geen zintuigen, en zijn opgebracht in een wereld van tekst. Maar met behulp van andere technieken kunnen slimme systemen niet alleen leren lezen, maar ook kijken, luisteren — en zelfs een beetje bewegen.


Ja, AI heeft vandaag nog gaten en gebreken. Maar als je kijkt naar de richting waarin de technologie zich ontwikkelt, lijkt het eerder verstandig om uit te gaan van groei, niet van stilstand.

En dan wordt de vraag niet:
“Wat kan AI vandaag niet?”
maar:
“Wat blijft er voor ons over als AI blijft doorgroeien?”

Waarom mensen onmisbaar blijven

Er was eens een ridder die dacht even slim te zijn. In de verte zag hij zijn doelwit, hief zijn zwaard, en wierp het vol vertrouwen richting zijn doel. Alleen… terwijl zijn zwaard door de lucht zoefde, merkte hij dat het doelwit inmiddels verdwenen was.

Wat volgde was het ongemakkelijke tafereel van een zwaar bepantserde held, zwetend en puffend, die zijn eigen zwaard achterna holde in de hoop nog iets van zijn waardigheid te redden.

💭Intelligentie is belangrijk, maar zeker niet alles.

🗡️Een zwaard dat je niet zelf in de hand houdt, vliegt al snel de verkeerde kant op. En als de wereld om je heen verandert moet je klaar staan om bij te sturen.

✨En dat is precies waarom mensen onmisbaar blijven in het AI-tijdperk.

🧭Niet omdat we slimmer zijn dan machines — dat voordeel verliezen we langzaam — maar omdat we iets bezitten wat geen enkel algoritme ooit kan worden toevertrouwd: het vermogen om te bepalen wat écht belangrijk is.

🛠️ AI is, net als elk ander gereedschap, een verlengstuk van onszelf. Net als een zwaard doet het wat wij het vragen om te doen, aangenomen dat we weten hoe we het moeten hanteren. Maar zodra we stoppen met sturen zal het doorgaan op de koers waar we het losgelaten hebben.

🐉 En dat is gevaarlijk. Want doelen veranderen. Situaties veranderen. En de wijsheid van vandaag is soms de valse spreuk van morgen.

Wat betekent dat voor mij?

Oké, dus we moeten AI blijven bijsturen.

“Maar hoe verdien ik dan straks mijn brood?

De meerwaarde van AI blijft afhankelijk van menselijke sturing. Maar die behoefte opent niet één pad, maar vele. En dat is nou juist het mooie ervan.

Wat je achtergrond ook is — technisch, zorgend, creatief of organiserend — er zal een rol zijn die past bij jouw kracht.

👨‍💻 Misschien stuur je straks AI aan in je werk als programmeur.
🧑‍⚖️ Misschien voer je het gesprek over wat een algoritme wel of niet mag beslissen.
🧑‍🏫 Misschien train je mensen om goed met AI om te gaan.
🏛️ Misschien houd je als beleidsmaker toezicht op hoe AI wordt ingezet.
🎨 Misschien help je als creatieve denker om AI op nieuwe manieren in te zetten voor maatschappelijke impact.

Wat jouw unieke kracht ook is: zolang jij kan helpen bij het kiezen, corrigeren of bewaken van richting, blijf je onmisbaar.

Conclusie: Houd je zwaard vast

Je zwaard vasthouden betekent niet dat je het nooit gebruikt.
Het betekent: scherp blijven kijken naar wat écht belangrijk is, vooral wanneer de wereld sneller verandert dan je verwacht. AI-systemen worden steeds krachtiger. Maar zonder ridders raken ze de weg kwijt.

Jouw rol in het AI-tijdperk gaat niet over sneller of slimmer zijn, maar over richting geven, waarden beschermen en steeds opnieuw bijsturen.

Onthoud de zwetende ridder in zijn zware harnas. Gooi nooit zomaar je zwaard weg.

Houd vast. Blijf scherp. Blijf de richting bepalen.

De ridder bestuurt nu een robotlichaam als een exoskelet. Hij heft trots zijn zwaard in de lucht terwijl de prinses hem vol bewondering aankijkt. De draak ligt nog verslagen op de grond; de oorspronkelijke ridder op de achtergrond is verdwenen.

LLMs uitgelegd zonder hype — of wiskunde

Je hoort tegenwoordig van alles over AI. Superintelligentie zou vlak om de hoek zijn. Tegelijkertijd kan ChatGPT nog steeds niet altijd correct tellen hoe vaak de letter ‘i’ voorkomt in het woord ‘intelligentie’.

Hoe zit dat nou precies?

Is AI nou echt zo slim, of is het vooral hype om investeerders aan te trekken?

In plaats van meteen partij te kiezen, leek het me zinvoller om eerst eens samen helder te krijgen hoe deze modellen werken. Want als je begrijpt wat een Large Language Model precies doet, kun je ook beter inschatten waar al die verwachtingen – en twijfels – vandaan komen.

In dit artikel leg ik daarom uit hoe LLMs functioneren, zonder te verdwalen in de wiskunde. We beginnen bij het begin: hoe zo’n model tekst verwerkt. Daarna kijken we hoe het leert. Onderweg zal duidelijk worden waarom AI soms briljant lijkt, maar soms ook verrassend domme fouten maakt.

Wat doet een LLM eigenlijk?

 

Een Large Language Model, letterlijk vertaald ‘groot taal model’, voorspelt telkens welk woord waarschijnlijk volgt in een tekst. Vervolgens voegt het dit woord toe aan de tekst en voorspelt het volgende woord. Net zolang totdat het model besluit dat het verhaal wel afgerond is. Soms wat abrupt — maar hé, wie is er niet af en toe ineens klaar met praten?

Om dat te kunnen zet het eerst woorden om in getallen genaamd word embeddings. Deze getallen representeren de betekenis van elk woord, waardoor het model verbanden kan leren zien.

Het model kent aan elk mogelijk vervolgwoord een kans toe, en kiest dan (meestal willekeurig) een van de waarschijnlijkste opties. Zo vormen chatbots zoals ChatGPT hun zinnen.

Dit is natuurlijk een enorme rekensom, en vereist een enorm model. Vandaar ook het ‘groot’ gedeelte.

Hoe leert zo’n model?

Tijdens het trainen krijgt het model zinnen te zien waarin telkens het laatste woord ontbreekt. Op basis van zijn interne instellingen doet het een voorspelling. Deze interne instellingen worden constant aangepast totdat het model zo vaak mogelijk het juiste woord voorspelt.

Transformatoren: de kracht van context.

Transformatoren zijn speciale lagen die de kern vormen binnen LLMs. Ze zorgen ervoor dat het model de betekenis van woorden kan verfijnen op basis van de andere woorden in de tekst. Het woord “helm” betekent bijvoorbeeld iets anders in een zin over ridders dan in een zin over Formule 1. De context maakt het verschil — tenzij je een tekst over middeleeuwse raceauto’s wil.

Hoe werkt dit?

Transformatoren verwerken tekst door voor elk woord een score toe te kennen aan alle andere woorden in de zin. Deze ‘aandachtscores’ bepalen hoeveel invloed die andere woorden krijgen bij het begrijpen van dat ene woord. Dit proces heet attention (aandacht).

Invuloefening

Klinkt abstract?

Neem bijvoorbeeld de volgende tekst:

“De ridder nam zijn zwaard aan van de schildknaap voordat hij vertrok naar het slagveld. Eenmaal aangekomen zag hij dat de <?>”

Om hier een goede voorspelling te kunnen doen voor het volgende woord moet het model begrijpen wie er bedoeld wordt met het woord hij. Daarvoor kent het model aan elk woord in de tekst een aandachtscore toe: hoeveel invloed dat woord moet hebben op de betekenis van hij. In dit geval zou het model moeten leren dat ridder hier belangrijker is dan schildknaap.

Maar het gaat nog verder. Dankzij eerdere lagen is het woord ridder zelf al verrijkt met informatie uit de rest van de zin. Het is dus niet zomaar een ridder — het is een ridder die vertrokken is, met een zwaard, naar een slagveld.

Zo weet het model dat een voorspelling als vijand waarschijnlijker is dan ridder of raceauto.

 

Het geheim achter de intelligentie

Indrukwekkend trucje. Maar hoe leert het model om dit te doen?

Gewoon goed oefenen.

Het model probeert tijdens de training allerlei manieren uit om woorden in een zin met elkaar te verbinden. Net zo lang totdat het een manier vindt waarop de juiste woorden de meeste aandacht krijgen — en dat leidt tot betere voorspellingen.

En dat is het geheim achter de intelligentie van een taalmodel: het kijkt slim om zich heen. Het denkt niet. Het voorspelt.

Sommigen noemen LLMs daarom gewoon slim klinkende papegaaien. En dat klopt wel een beetje: ze herhalen wat ze gezien hebben. Maar er is een hoop nodig is om dat volgende woord goed te kunnen voorspellen. Laat staan om dit op het juiste moment, op de juiste toon en in de juiste context te doen.

Menselijke bijsturing: RLHF

Om van een basismodel een gebruiksvriendelijke chatbot te maken, volgt daarom nog een tweede trainingsfase: Reinforcement Learning from Human Feedback (RLHF). Hierbij krijgt het model feedback van menselijke trainers die aangeven welke gegenereerde teksten goed en welke minder goed zijn. Op basis van deze feedback leert het model steeds beter om menselijker en relevanter te reageren.

Beperkingen

Ondanks al deze technieken maakt een LLM soms fouten die wij niet snel zouden maken:

  • Het kan overtuigend klinkende onzin verkopen — iets waar sommige mensen ook zonder AI aardig goed in zijn.
  • Het kan maar een beperkte hoeveelheid tekst tegelijk verwerken, en vergeet daardoor informatie uit langere gesprekken. Dit staat berucht als het context-window (context venster).
  • Het neemt vooroordelen over uit trainingsdata.
  • Het rekent slecht en redeneert beperkt. Maar ja, wat verwacht je van een model dat het eerste uitkraamt wat in zijn werkgeheugen op komt?

Slimmer redeneren met Chain-of-Thought

Met Chain-of-Thought prompting kun je het model beter laten presteren op complexe taken. Door expliciet om tussenstappen te vragen, spoor je het model aan om een probleem stap voor stap op te lossen. Zouden mensen trouwens ook vaker moeten doen.

Sommige modellen, zoals o1 en DeepSeek R1 zijn hier specifiek op getraind, wat ze geschikt maakt voor toepassingen zoals programmeren of wiskunde.

Waar kom je ze tegen?

LLMs worden niet alleen ingezet in chatbots, maar bijvoorbeeld ook als:

  • Ingebouwde assistenten in apps. (Laat de AI vrij!)
  • Autonome agents die simpele taken uitvoeren, of verprutsen.
  • Onderdeel van een multimodale AI die kan luisteren, kijken én typen. Kan ik ook, overigens, maar niet allemaal tegelijk.

Meer weten?

In dit artikel hebben we een aardig basisbegrip gekregen van hoe een LLM werkt. Als je dit allemaal begrepen hebt ben je al een stuk verder dan de meeste mensen.

Maar, er valt natuurlijk nog veel meer over te vertellen. We zouden bijvoorbeeld meer aandacht kunnen geven aan begrippen zoals embeddings en tokenisering — of andere zaken verkennen, zoals wat er precies zo bijzonder is aan modellen zoals DeepSeek.

Lijkt je dat interessant?

Laat het me weten. Misschien dat ik daar in een volgend artikel eens dieper op inga.

Tot slot

LLMs voorspellen simpelweg het volgende woord. Ze denken niet zoals mensen. Maar, wat er allemaal nodig is om dat ene woord goed te voorspellen, dat is misschien wel het meest fascinerende van alles.

Zullen ze ooit onze banen overnemen, onze blogartikelen schrijven en ons doen geloven dat ze echt bewustzijn hebben? Of blijven het gewoon slim klinkende papegaaien met een belachelijk hoge stroomrekening?

De tijd zal het leren.

Wat denk jij?

Een stapje terug, maar niet uit beeld

Hallo allemaal,

Even een korte update: door drukte en behoefte aan meer rust zal ik voorlopig minder vaak bloggen. Dit betekent niet dat ik helemaal afwezig ben. Ik blijf mijn best doen om mijn mail binnen een week te beantwoorden en de inzendingen voor Riddermissies goed bij te houden. Ook blijf ik op de achtergrond werken aan de ontwikkeling van NieuwsVizier, alleen in een wat lager tempo.

Bedankt voor jullie begrip en tot de volgende keer!