In juni 2024 gaf het Dreigingsbeeld Terrorisme Nederland (DTN) een scherpe waarschuwing af: terroristische en extremistische actoren blijven onlineplatforms misbruiken om propaganda te verspreiden, activiteiten te coördineren en tot geweld aan te zetten. Deze content varieert van openlijk terroristisch materiaal tot zogenoemde ‘borderline’-content - materiaal dat niet duidelijk binnen de wettelijke definities van terroristische of illegale content valt, maar desalniettemin een erosief effect heeft op democratische waarden en sociale cohesie. Daarom wordt dit ook wel aangeduid als ‘awful but lawful’ (‘afschuwelijk maar wettelijk toegestaan’). De online verspreiding van schadelijke content is niet nieuw, maar de reikwijdte, snelheid en verfijning ervan zijn door technologische innovaties drastisch toegenomen. De opkomst van generatieve kunstmatige intelligentie (AI) en grote taalmodellen (LLM’s) stelt extremistische actoren in staat om content te creëren en te verspreiden op ongekende schaal, snelheid en precisie, vaak in meerdere talen tegelijk. Jihadistische groeperingen zoals ISIS en Al-Qaida, evenals rechts-extremistische groeperingen in Europa en Noord-Amerika, maken reeds gebruik van deze technologieën in hun propagandacampagnes. De belangen zijn groot. Dergelijke content kan haat aanwakkeren, terroristisch geweld normaliseren en maatschappelijke polarisatie verdiepen. Jongeren, die hun informatie voornamelijk via sociale media verkrijgen, zijn bijzonder kwetsbaar voor online radicalisering. Extremistische actoren misbruiken niet alleen reguliere sociale mediaplatforms, maar ook gamingplatforms, streamingwebsites en file sharing omgevingen. De verschuiving van deze content van obscure, moeilijk toegankelijke uithoeken van het internet tien jaar geleden naar openbaar toegankelijke platforms vandaag de dag benadrukt de urgentie van dit probleem. Tegelijkertijd roept dit vraagstuk complexe dilemma’s op die op het snijvlak van veiligheid, technologie en fundamentele rechten liggen. Schadelijke content wordt vaak verhuld met humor, ironie of satire, waardoor de grens tussen vrijheid van meningsuiting en aanzetten tot geweld vervaagt. Te brede contentmoderatie kan legitiem debat onderdrukken, terwijl ontoereikende moderatie samenlevingen blootstelt aan manipulatie en radicalisering. De rol van de technologiesector is cruciaal bij het aanpakken van de verspreiding van schadelijke content, maar hun aanpak is niet eensluidend en staat steeds vaker ter discussie. Hoewel platforms een grote verantwoordelijkheid dragen voor detectie en moderatie, blijft hun samenwerking met onafhankelijk onderzoek en publieke instellingen beperkt. Deze terughoudendheid weerspiegelt bredere zorgen dat grote technologiebedrijven prioriteit geven aan winstgevendheid van bedrijfsvoering ten koste van maatschappelijke verantwoordelijkheid. Ze investeren fors in geautomatiseerde detectiesystemen, terwijl teams van menselijke moderatoren tegelijkertijd worden ingekrompen. Dergelijke trends dreigen zowel de kwaliteit als de legitimiteit van moderatie te ondermijnen, aangezien algoritmische hulpmiddelen op zichzelf vaak ongeschikt zijn om de nuance en context van impliciete extremistische content te herkennen. Tegen deze achtergrond gaf het Wetenschappelijk Onderzoek- en Datacentrum (WODC) op verzoek van de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) opdracht tot een studie - uitgevoerd door ICCT - naar de haalbaarheid van het opstellen van een duidingskader dat een betrouwbare detectie en moderatie van extremistische en terroristische, online content mogelijk maakt, zonder dat dit ten koste gaat van de vrijheid van meningsuiting. Onderdeel van de categorie problematische content, is de zogenoemde ‘borderline content’,
Back to publications
Report
02 Dec 2025