Inleiding
In dit artikel ga ik van twee aannames uit:
- Je hecht waarde aan feitelijk juist nieuws.
- Je wilt leven in een samenleving waar we samen tot beslissingen komen.
Deze aannames zijn belangrijk, want onze waarden bepalen wat we als probleem ondervinden.
Maar hoe beïnvloedt AI deze waarden?
In Nederland groeit de bezorgdheid over AI-gedreven desinformatie (1) en polarisatie (2): algoritmes bepalen steeds vaker welke informatie we zien, wat we geloven en hoe we met elkaar in gesprek gaan.
Als Dataridder geloof ik echter dat dezelfde technologie die voor misleiding en verdeeldheid zorgt, óók kan worden ingezet om waarheid en samenwerking te bevorderen.
AI en de verspreiding van desinformatie
Met de opkomst van AI-gegenereerde content, zoals deepfakes en synthetische media, wordt het steeds moeilijker om feit van fictie te onderscheiden.
Uit onderzoek van het World Economic Forum (WEF) blijkt dat door AI gegenereerde desinformatie wereldwijd als het grootste risico van deze tijd wordt beschouwd (3). Deze technologieën kunnen worden misbruikt om geloofwaardige maar valse informatie te creëren, waardoor maatschappelijke en politieke spanningen oplopen.
In ons eigen land zien we al voorbeelden van nepnieuws dat online circuleert. Zoals deze nep-foto van Frans Timmermans in een privéjet (4).
Deze nep-foto van de man die bekend staat als de ‘klimaatpaus’ werd binnen 4 dagen gedeeld met duizenden gebruikers op social media, waarna mensen hem bekritiseerden voor vermeend hypocriet gedrag. Dit illustreert hoe snel en breed nepnieuws zich kan verspreiden, en de impact die het kan hebben op de beeldvorming. Hierdoor groeit het wantrouwen, niet alleen in de media, maar ook in elkaar.
AI en polarisatie
Naast desinformatie heeft AI ook invloed op de manier waarop we met elkaar in gesprek gaan.
Op sociale mediaplatforms worden gebruikers vaak content voorgeschoteld die hun bestaande overtuigingen bevestigt, ook wel bekend als het ‘filter bubble-effect’.
Dit beperkt de blootstelling aan andere perspectieven en leidt tot extremere standpunten. Organisaties als de NLAIC (Nederlandse AI Coalitie) wijzen erop dat deze digitale bubbels de samenleving kunnen versnipperen, met spanningen tot gevolg (5).
Wanneer mensen voornamelijk geconfronteerd worden met eigen overtuigingen, vervaagt het vermogen om naar anderen te luisteren. Dat kan onderlinge verhoudingen verslechteren en democratische waarden onder druk zetten. Als Ridders van de Waarheid willen we hier juist tegenwicht aan bieden.
Gelukkig zijn we niet alleen.
Maatregelen tegen AI problemen in Nederland
1. Technologische oplossingen
- Detectie en monitoring
Het ELSA Lab ontwikkelt AI-systemen die desinformatie en polariserende content kunnen identificeren en monitoren. Zo krijgen we zicht op de verspreiding van nepnieuws én kunnen we tijdig ingrijpen (5). - Samenwerking tussen techbedrijven
Grote technologiebedrijven bundelen hun krachten om AI-nepinformatie te bestrijden. Ze ontwikkelen gezamenlijke tools en voeren bewustwordingscampagnes die burgers helpen nepnieuws te herkennen (6). - Nieuwsfilter Apps
AI-aangedreven nieuwsfilter apps zoals GroundNews (7), die gebruikers beschermen tegen media bias. Zelf werk ik momenteel aan een vergelijkbare app gericht op Nederland.
2. Beleidsmaatregelen
- Overheidsinitiatieven
Het Nederlandse kabinet werkt aan plannen om desinformatie tegen te gaan, met speciale aandacht voor de risico’s van generatieve AI (8). - Regulering en transparantie
Er is behoefte aan duidelijke richtlijnen voor het gebruik van AI in media en communicatie. Zo wordt transparantie gewaarborgd en kunnen partijen die AI inzetten beter ter verantwoording worden geroepen.
3. Educatie en bewustwording
- Mediawijsheid
Het bevorderen van kritisch denken is cruciaal. Door burgers (jong en oud) te leren hoe ze bronnen kunnen checken en valse informatie kunnen herkennen, versterk je hun weerbaarheid tegen nepnieuws (9). - Onderwijsprogramma’s
Door lessen over AI, desinformatie en polarisatie een plek te geven in het curriculum, bereiden we jongeren voor op de uitdagingen van het digitale tijdperk (9).
Conclusie
AI biedt veel mogelijkheden, maar het brengt ook risico’s met zich mee die niet onderschat mogen worden.
In Nederland zien we dat desinformatie en polarisatie alledaagse realiteiten zijn geworden, mede door AI-gedreven content. Tegelijkertijd zien we ook een combinatie van technologische innovatie, doordacht beleid en educatie om deze problemen te bestrijden.
In toekomstige artikelen zal ik dieper ingaan op ethische vragen en mogelijke oplossingen, zoals de app waar ik aan werk.
Maar er is een grens aan wat ik alleen kan bereiken.
Laten we daarom samenwerken als Ridders en Dataridders van de Waarheid: goed geïnformeerd, kritisch denkend én in staat om AI op een verantwoorde manier in te zetten.
Dataridders, de plicht roept.
Bronnen
- Sociaal en Cultureel Planbureau – Helft Nederlanders bezorgd over online gedrag en misinformatie
- Ibestuur – Nederlanders plaatsen nepnieuws en polarisatie bovenaan AI-onderzoeksagenda
- NU.nl – Experts zien door AI gegenereerde desinformatie als grootste risico van 2024
- AD – Nepfoto Frans Timmermans
- NLAIC – ELSA Lab AI, Media & Democracy
- Odido – Hoe grote techbedrijven samen AI-nepinformatie bestrijden
- Ground News
- Tweakers – Nederlands kabinet deelt nieuwe plannen om desinformatie te bestrijden
- NOS- Jongeren missen nieuws door algoritmes techbedrijven
- Consultancy.nl – AI-desinformatie op korte termijn grootste bedreiging voor wereldstabiliteit
- Apache – Nieuwsalgoritmes kunnen burgers breder informeren
- KPMG – Bekendheid met algoritmes groeit, vertrouwen daalt
- Youtube – Filter Bubbles and Echo Chambers