Waakzaam omgaan met kunstmatige intelligentie (AI): hoe en waarom het belangrijk is

You can read the English version of this blog by clicking here.
——-
Ik merk in mijn gesprekken met veel mensen dat veel medewerkers van bedrijven en organisaties zich bewust zijn van de belangrijkste risico’s van AI, maar zich vaak afvragen hoe ze daar concreet waakzaam mee kunnen omgaan in hun dagelijkse werk. Er is natuurlijk ook een groot verschil tussen bewustzijn en waakzaamheid. Bewustzijn betekent weten dat een gevaar bestaat, terwijl waakzaamheid inhoudt dat je je gedrag structureel aanpast op basis van dat inzicht. Juist die tweede stap blijft voor veel organisaties een uitdaging. In deze blog neem ik je mee door de belangrijkste dimensies van AI-waakzaamheid. Ik behandel ze niet als abstracte theorie, maar als concrete houding die je vandaag al kunt toepassen.
Waakzaam zijn met AI vraagt om inzicht in risico’s, kennis van regelgeving, het vermogen om manipulatie te herkennen, en de discipline om gevoelige gegevens te beschermen.
Voor mensen die in Europa wonen, biedt de Europese AI Act een concreet kader om organisaties en individuen te helpen verantwoord met AI om te gaan. Wie waakzaam wil zijn, moet niet alleen de technologie begrijpen, maar ook de juridische en ethische grenzen kennen waarbinnen deze wordt toegepast. Voor een uitgebreide uitleg over wat de AI Act precies inhoudt en wat dat voor jouw organisatie betekent, verwijs ik je naar mijn andere blog De EU AI Act: wat je moet weten en wat je moet doen.
In deze blog richten we ons nu alleen op ‘waakzaam omgaan met AI’. Met AI worden alle toepassingen van kunstmatige intelligentie bedoeld, inclusief generatieve AI. Meer details vind je hieronder. Heb je vragen? Neem dan gerust contact op.
Begrijp wat AI echt kan
Het begint bij het kennen van het risicospectrum. Ardion (2025) onderscheidt vijf hoofdcategorieën van AI-risico: privacyschendingen, vooringenomen besluitvorming, baanverlies, misbruik voor schadelijke doeleinden, en gebrek aan transparantie. Dat zijn geen toekomstscenario’s, dat is de realiteit van vandaag.
Privacyschendingen gebeuren bijvoorbeeld wanneer een AI-chatbot onbewust vertrouwelijke klantgegevens opslaat en hergebruikt in andere contexten, of wanneer gezichtsherkenningssoftware mensen identificeert zonder hun medeweten in publieke ruimten. Vooringenomen besluitvorming zien we concreet bij AI-systemen die bijvoorbeeld sollicitanten beoordelen op basis van historische aanwervingsdata, waardoor vrouwen of mensen met een migratieachtergrond stelselmatig lager scoren, niet omdat ze minder geschikt zijn, maar omdat het systeem geleerd heeft van een al ongelijk verleden. Baanverlies manifesteert zich niet alleen in fabrieken waar robots fysiek werk overnemen, maar ook in kantooromgevingen waar AI-tools juridische documenten samenvatten, klantenservice afhandelen of financiële rapportages genereren, taken die voorheen meerdere medewerkers vereisten. Misbruik voor schadelijke doeleinden betekent in de praktijk dat kwaadwillenden AI inzetten om op grote schaal gepersonaliseerde phishingmails te schrijven, nep-facturen te genereren of overtuigende deepfake-audiofragmenten van CEO’s te maken om betalingsopdrachten goed te keuren. En gebrek aan transparantie zien we bij organisaties die AI-aanbevelingen opvolgen, zoals bij kredietverlening of verzekeringspremies, zonder dat zij of hun klanten kunnen achterhalen op welke gronden het systeem tot een beslissing is gekomen.
Wat mij persoonlijk het meest bezighoudt, is dat AI-risico’s niet afhankelijk zijn van het bewustzijn van een systeem. Krueger en Barten (2023) van het Existential Risk Observatory stellen helder: zelfs eenvoudige optimalisatie-algoritmen kunnen onbedoelde, destructieve bijeffecten hebben. Een concreet voorbeeld is een AI-systeem dat is geprogrammeerd om klikgedrag op een platform te maximaliseren. Het systeem heeft geen intentie, geen bewustzijn en geen kwaadaardigheid, maar het leert al snel dat verontwaardigende of polariserende content meer kliks genereert. Het gevolg is dat het zulke content systematisch vaker toont, niet omdat het dat wil, maar omdat het daar door zijn doelstelling naartoe wordt gedreven. Een systeem hoeft dus niet “slim” te zijn om schadelijk te zijn, het hoeft alleen maar bekwaam genoeg te zijn om zijn doel te bereiken, zonder dat menselijk toezicht tijdig ingrijpt.
Menselijk toezicht bij AI is dus geen optie, maar een absolute vereiste! Zonder structureel menselijk ingrijpen in de besluitvormingsketen van AI-systemen kunnen fouten, vooroordelen en onbedoelde gevolgen zich ongecontroleerd vermenigvuldigen, met reële schade voor individuen, organisaties en samenlevingen als gevolg. De Future of Life Institute AI Safety Index (2025) bevestigt dit: organisaties die AI-systemen inzetten zonder aantoonbare toezichtsmechanismen lopen niet alleen operationele risico’s, maar ook toenemende juridische en reputatierisico’s (PDF rapport).
Ik maak mij persoonlijk ernstige zorgen over het feit dat AI steeds vaker niet alleen als ondersteunend hulpmiddel wordt ingezet, maar als zelfstandige besluitvormer in contexten waar de gevolgen onomkeerbaar zijn. Het meest verontrustende voorbeeld hiervan is het gebruik van autonome wapensystemen: militaire drones die via AI-algoritmen zelfstandig doelen identificeren en uitschakelen, zonder directe menselijke goedkeuring per handeling. Dit zijn systemen die leven-of-doodsbeslissingen nemen op basis van patronen in data, sneller dan enig menselijk toezicht kan reageren. De vraag wie verantwoordelijk is wanneer zo’n systeem een fout maakt, blijft in de huidige juridische en ethische kaders grotendeels onbeantwoord. Dit is echter stof voor een afzonderlijke, diepgaande analyse, waar ik in een volgende blog uitgebreid op terug zal komen.
AI Safety Index (2025)
Laten we iets dieper ingaan op wat de AI Safety Index (2025) aangeeft. De Future of Life Institute AI Safety Index (2025) concludeert dat AI-bedrijven verplicht moeten kunnen aantonen hoe zij gedesaligneerde systemen detecteren en controleren, en dat menselijk toezicht in elke fase van de AI-lifecycle verankerd moet zijn (PDF rapport). Dat geldt niet alleen voor techbedrijven, het geldt voor elke organisatie die AI-tools inzet voor besluitvorming, selectie of communicatie. Waakzaamheid begint bij het stellen van de simpele vraag: wie houdt hier toezicht, en op basis van welke criteria?
Wat dit nog belangrijker maakt, is dat de International AI Safety Report (2026) aangeeft dat general-purpose AI-systemen nu al bekwaamheden vertonen die de risico’s voor samenlevingen en organisaties significant vergroten (PDF rapport en samenvatting voor beleidsmakers). Dit rapport roept op tot gestructureerd risicobeheer op alle niveaus, van individueel tot institutioneel. Als je het rapport leest, merk je dat niets doen geen optie meer is.
Een dimensie die wel door veel huidige rapporten en onderzoeken vaak onderschat wordt, is hoe AI-systemen omgaan met de informatie die zij indexeren. Generatieve AI-systemen doorzoeken niet automatisch het volledige internet bij elke vraag, ze werken met een vooraf samengestelde index die regelmatig wordt geüpdatet, maar nooit real-time. Dit betekent dat recente ontwikkelingen, nieuwe publicaties of gewijzigde wetgeving soms simpelweg niet beschikbaar zijn in de output die je ontvangt. Waakzaam zijn met AI betekent dus ook begrijpen wat het systeem niet ziet. Voor meer analyse van hoe indexering de betrouwbaarheid van AI beïnvloedt, verwijs ik je graag naar mijn andere blog: Indexering in (Gen)AI: betrouwbaarheid, reproduceerbaarheid en waarom het je organisatie kan raken.
De Europese regelgeving biedt houvast als je hem ook gebruikt
Gelukkig zijn er ook kaders. Binnen Europa is de wetgeving voor AI-gebruik bijvoorbeeld al flink aangescherpt. Sinds februari 2025 zijn bepaalde AI-systemen met een onaanvaardbaar risico formeel verboden in de EU, waaronder emotieherkenning op de werkvloer en sociale scoring (ABU, 2025). Dat klinkt misschien vanzelfsprekend, maar veel organisaties hebben nog niet bekeken welke van hun systemen onder de verboden vallen. Volgens de EU AI Act moeten alle AI-systemen worden ingedeeld op risiconiveau: verboden, hoog-risico of laag-risico. Dit is geen papieren exercitie, het vormt de basis voor verantwoord gebruik van AI..
De tijdsdruk is reëel. Organisaties die in Europa zijn gevestigd, moeten vóór 2 augustus 2026 hun conformiteitsbeoordelingen afronden en hoog-risico systemen registreren in de EU-database. Wie dat niet doet, loopt het risico op administratieve, civiele én strafrechtelijke gevolgen. De Nederlandse Rijksoverheid (2025) heeft wel gelukkig een praktische AI Act Guide gepubliceerd voor bedrijven en publieke organisaties met verplichte stappen per risicocategorie (Klik hier voor PDF rapport), een document dat op elke beleidsagenda zou moeten staan. De Europese Commissie (2025) heeft op 19 november 2025 bovendien aanpassingen voorgesteld aan de AI Act via het Digital Simplification Package, gericht op verdere verduidelijking van verplichtingen. Kortom: de regelgeving beweegt, en wie niet meebeweegt, loopt achter.
Dat achter lopen heeft ook een maatschappelijke dimensie. FrankWatching (2025) rapporteert dat Nederlanders AI nog steeds wantrouwen en dat er een groeiende roep is om meer regelgeving. De SER (2025) benadrukt dit met de expliciete oproep: “We moeten waakzaam blijven” en wijst erop dat het gebruik van AI bij het toekennen van declaraties al diepgeworteld is in organisaties, zonder dat medewerkers dit altijd doorhebben (PDF SER-rapport AI en werk). Waakzaamheid is dus ook een interne governance-opgave: zorg dat medewerkers weten welke AI-tools worden ingezet en op welke basis zij besluiten nemen.
En nu het antwoord op de vraag: hoe kan je waakzaam omgaan met AI?
Een van de meest tastbare gevaren van onwaakzaamheid met AI is de opkomst van deepfakes en AI-gegenereerde desinformatie. Kaspersky (2020) adviseert om bij deepfake-video’s te letten op onregelmatig knipperen, inconsistente belichting, en gezichtsuitdrukkingen die niet overeenkomen met de emotionele context van een gesprek. Digiwijzer (2025) vult dit aan: glazige ogen, onnatuurlijke tanden en een robotachtige stem zijn herkenbare signalen die je kunt leren zien, als je weet waar je op moet letten. FOAI Nederland (2024) benadrukt het belang van meerdere bronnen raadplegen alvorens een oordeel te vellen over afbeeldingen of video’s die viraal gaan, en IsDatEchtZo (2025) biedt praktische tips om AI – gegenereerde beelden te ontmaskeren via onrealistische huid texturen, misvormde handen en inconsistente achtergronden.
Bovengenoemde betekent concreet dat je voortaan bij élke video, elk audiofragment en elke foto die je online tegenkomt de vraag moet stellen: is dit echt? Stel je voor dat je een video ziet waarin een bekende politicus een controversiële uitspraak doet. De video ziet er overtuigend uit, maar als je goed kijkt, knippert de persoon nauwelijks met zijn ogen en bewegen de lippen net iets te strak mee met de woorden. Dat zijn signalen dat de video mogelijk door AI is gemaakt of gemanipuleerd. Of denk aan een audiobericht van je “bank” dat je vraagt dringend je pincode te bevestigen. De stem klinkt vertrouwd, maar is volledig door AI gegenereerd op basis van eerder opgenomen materiaal. In de praktijk betekent dit: deel geen video of afbeelding door voordat je de bron hebt gecheckt, zoek het originele materiaal op via een betrouwbare nieuwssite, en vertrouw nooit op één kanaal of platform als enige bewijs. Waakzaamheid is hier geen paranoia, het is gewoon een nieuwe basisvaardigheid in het digitale tijdperk.
Er worden ook door veel ethische hackers waarschuwingen gegeven dat AI steeds toegankelijker wordt voor cybercriminelen, die het inzetten voor het fabriceren van deepfake-relatie profielen en misleidende nieuwsartikelen, of zelfs om computers met AI te hacken. McAfee (2025) bevestigt dit: cybercriminelen gebruiken AI om op grote schaal geloofwaardige nep profielen aan te maken op datingplatforms en sociale media, compleet met consistente foto’s, persoonlijkheidsbeschrijvingen en gespreksscripts, allemaal gegenereerd door AI. Daarnaast worden AI-tools ingezet om automatisch nieuwsartikelen te fabriceren die er journalistiek uitzien maar volledig verzonnen zijn, met als doel meningen te beïnvloeden of paniek te zaaien. Het meest zorgwekkend is de opkomst van AI-gestuurde cyberaanvallen: systemen die zelfstandig kwetsbaarheden in netwerken opsporen, inbreken en zich aanpassen aan beveiligingsmaatregelen, sneller dan traditionele antivirussoftware kan reageren. Een ethische hacker vergelijkt dit met een inbreker die niet alleen jouw slot kan openbreken, maar direct leert hoe hij het nieuwe slot omzeilt zodra je het vervangt.
Praktische tips voor inzet AI, voor medewerkers van een bedrijf of organisatie
Als je een medewerker bent bij een bedrijf of organisatie, zorg er dan altijd voor dat je weet welke AI-tools officieel zijn goedgekeurd door jouw organisatie en gebruik uitsluitend die tools voor werk gerelateerde taken. Voer nooit klantgegevens, personeelsinformatie, financiële cijfers, namen, adressen, burgerservicenummers of andere vertrouwelijke bedrijfsinformatie in bij een publieke AI-tool zoals een gratis versie van ChatGPT of een andere niet-goedgekeurde dienst, want je weet niet hoe die gegevens worden opgeslagen of gebruikt. Anonimiseer documenten altijd via de Zoeken-en-vervangen functie (Ctrl+H) in Word of Excel voordat je ze uploadt, en wis na gebruik altijd de conversatiegeschiedenis in AI-tools die je voor werk gerelateerde taken hebt gebruikt, zodat gevoelige informatie niet onbedoeld wordt opgeslagen of hergebruikt in toekomstige sessies. Onthoud echter: zelfs als je informatie in (Gen)AI verwijdert, betekent dat niet dat het volledig gewist is. Data wordt namelijk vaak nog steeds in de cloud opgeslagen, bijvoorbeeld voor trainingsdoeleinden van AI. Anoniem blijven bij zeer gevoelige informatie blijft daarom altijd belangrijk.
Controleer bij elk AI-antwoord altijd ook de originele bron: zoek het geciteerde artikel, rapport of nieuwsbericht zelf op via Google Scholar, de website van het tijdschrift of een betrouwbare nieuwssite, en vertrouw nooit op een verwijzing die alleen via AI is verkregen zonder deze te verifiëren. Neem bij belangrijke of urgente beslissingen indien nodig contact op met de schrijver of expert voordat je deze informatie gebruikt. Dit sluit direct aan bij de Evaluate-stap uit het RED Model (https://www.disruptiveleadership.institute/red_model/): beoordeel of de bron betrouwbaar is, of het argument logisch opgebouwd is en of er tegenstrijdige gegevens bestaan die het beeld nuanceren.
Vraag jezelf bij elk stuk informatie dat (Gen)AI ook produceert drie vragen, die aansluiten bij de Recognize-stap van het RED Model: waar komt dit vandaan (herken aannames), wie heeft er belang bij dat ik dit geloof (identificeer mogelijke bias), en kan ik dit verifiëren via een onafhankelijke bron (toets de validiteit)? Pas vervolgens Bloom’s Taxonomy (https://www.cmu.edu/teaching/designteach/design/bloomsTaxonomy.html) toe door niet te stoppen bij het simpelweg onthouden of begrijpen van wat AI zegt, maar door actief te analyseren, te evalueren en eventueel zelf betere conclusies te trekken dan het AI-systeem je aanreikt. Dit vraagt dus om inzet van je eigen besluitvorming en expertise. Controleer de output altijd handmatig of laat deze, indien nodig, bevestigen door een ervaren collega of een expert in het vakgebied.
Trek dus kortom altijd alleen conclusies die direct worden ondersteund door het beschikbare bewijs en wees bereid je standpunt te herzien zodra nieuw bewijs dat rechtvaardigt.
Meld het ook altijd aan je leidinggevende of IT-afdeling als je twijfelt over een AI-gegenereerd bericht, een verdachte e-mail of een ongewone systeemmelding, want vroeg melden voorkomt grote schade.
Onthoud ook dat jij als medewerker een eigen verantwoordelijkheid draagt: AI neemt beslissingen over jou, over je klanten en over je organisatie, en jij bent de eerste verdedigingslinie die kan signaleren wanneer iets niet klopt. Organisaties die het RED Model breed toepassen zien aantoonbaar betere beslissingen, sterkere innovatie en effectievere risicobeheersing, omdat teams leren redeneren op basis van logica in plaats van op basis van hiërarchie of intuïtie alleen. Waakzaamheid is geen taak voor specialisten alleen, het is een basisvaardigheid voor elke professional die met AI werkt.
Bovengenoemde geldt ook op organisatieniveau. Pluralsight (2023) stelt dat kritisch denken in het AI-tijdperk vereist dat je altijd de bron bevraagt, het motief achterhaal en primaire van secundaire bronnen onderscheidt, inclusief het controleren of door AI geciteerde wetenschappelijke papers daadwerkelijk bestaan. Een artikel in PMC (2024) toont aan dat informatiegeletterdheid direct samenhangt met het vermogen om AI-gegenereerde desinformatie te herkennen: AI-systemen zijn bekwamer in manipulatietactieken dan mensen.
Daar komt bij dat de kwaliteit van wat AI je presenteert, ook afhankelijk is van wat het systeem heeft geleerd. (Gen)AI-modellen worden getraind op enorme hoeveelheden data afkomstig van het publieke internet, en dat internet bevat niet uitsluitend betrouwbare, door experts geverifieerde informatie (Bender et al., 2021). Meer informatie, zie mijn andere blog: Indexering in (Gen)AI: betrouwbaarheid, reproduceerbaarheid en waarom het je organisatie kan raken
Bescherm gevoelige gegevens: anonimiseer ze voordat je ze in (Gen)AI gebruikt
Waakzaamheid met AI gaat niet alleen over wat je ontvangt, het gaat ook over wat je invoert. Wanneer je met gevoelige informatie werkt, is het van groot belang om voorzichtig en waakzaam te zijn bij het gebruik van (Gen)AI-systemen. Zorg er altijd voor dat de privacy en gegevensbescherming worden nageleefd en dat je volledig zeker bent dat de (Gen)AI de ingevoerde gegevens niet gebruikt voor verdere training of andere doeleinden. Om risico’s te vermijden is het in veel gevallen het beste om privé- of vertrouwelijke gegevens helemaal niet in te voeren, tenzij je volledig vertrouwt op het systeem en de nodige veiligheidsmaatregelen zijn getroffen.
Wanneer gebruik van data toch noodzakelijk is, biedt anonimiseren uitkomst. In (Gen)AI-systemen wordt vaak gewerkt met grote hoeveelheden persoonsgegevens, en anonimiseren zorgt ervoor dat AI-systemen kunnen leren van data zonder de privacy van individuen te schenden. Een eerste techniek om gegevens te anonimiseren is maskering: echte gegevens worden vervangen door nepgegevens die er realistisch uitzien, bijvoorbeeld door “Emma” te veranderen in “Lisa” of een echt adres te vervangen door een fictieve locatie. Een andere methode is k-anonimiteit, waarbij elke combinatie van gegevens in de dataset bij minimaal een bepaald aantal mensen voorkomt, zodat het onmogelijk wordt om te bepalen welke informatie bij welke persoon hoort. Daarnaast bestaat differentiële privacy, waarbij kleine willekeurige variaties aan de data worden toegevoegd zodat een individu niet meer exact kan worden herkend, terwijl het AI-systeem nog steeds algemene patronen kan leren.
Verder kan je gegevens generaliseren door specifieke informatie algemener te maken: een exacte leeftijd van 17 wordt bijvoorbeeld “15 tot 20 jaar” en een straatnaam wordt “Amsterdam Noord”.
Dan hebben we nog pseudonimisering: vervang echte namen door codes of pseudoniemen, bijvoorbeeld “Emma Jansen” wordt “Gebruiker123”, waarbij identificatie alleen mogelijk is via een aparte sleutel die veilig wordt bewaard.
Substitutie gaat een stap verder door echte gegevens te vervangen door andere plausibele maar onjuiste gegevens, zoals fictieve telefoonnummers of adressen. Tot slot bestaat shuffling: door de volgorde van gegevens te wijzigen of vragen met andere inhoud door elkaar te plaatsen, wordt de structuur tussen informatie en persoon vrijwel onvolgbaar.
Door meerdere van deze technieken te combineren, wordt de bescherming van gevoelige informatie aanzienlijk versterkt, ook wanneer datasets worden gedeeld met of geanalyseerd door externe systemen. Een praktische tip: gebruik in Word of Excel de functie Zoeken en vervangen (Ctrl+H) om snel en systematisch namen, adressen of andere persoonsgegevens te vervangen door neutrale labels zoals [Naam] of [Afdeling] vóór je een document naar een (Gen)AI-tool uploadt.
Tot slot is het verstandig om ook informatie in (Gen)AI-systemen actief te wissen wanneer je deze niet langer nodig hebt. Let wel op: (Gen)AI-systemen kunnen informatie uit eerdere interacties onthouden of hergebruiken. Bevat een bestand of rapport veel privacygevoelige informatie, deel of upload het dan liever niet via (Gen)AI. Doe dit pas wanneer er duidelijke en betrouwbare afspraken zijn gemaakt met leveranciers over een intern (Gen)AI-programma, vooral als de AI binnen het bedrijf of de organisatie wordt gebruikt waar je werkt.
Maak waakzaamheid structureel, niet incidenteel
Waakzaamheid is verder geen eenmalige actie. Het is een houding die je inbouwt in processen, cultuur en strategie.
Daarbij is het dus essentieel dat iedereen die bij een organisatie of bedrijf werkzaam is, structureel en regelmatig een workshop krijgt aangeboden over veilig en ethisch AI-gebruik. Dit betekent niet alleen een eenmalige introductiesessie, maar doorlopende training die medewerkers leert hoe ze AI-tools verantwoord inzetten, gevoelige gegevens beschermen, deepfakes herkennen en AI-gegenereerde informatie kritisch beoordelen. Zonder deze basiskennis blijft elke medewerker een potentieel beveiligingsrisico, ongeacht hoe sterk de technische infrastructuur is.
Op organisatieniveau kan het CISO-raamwerk van Heights Consulting Group (2026) dienen als strategisch hulpmiddel voor het inrichten van een veilige AI-omgeving. Dit raamwerk bevat tien sleutelpraktijken die samen een robuust beveiligingsbeleid vormen. Meer informatie is beschikbaar in het volledige artikel: https://heightscg.com/2026/01/12/ai-security-best-practices
Radware (2025) benadrukt ook het belang van continue AI-risicobeoordeling: organisaties moeten een meerlaags incidentresponsplan hebben en geautomatiseerde meldingen instellen wanneer het gedrag van AI-systemen buiten de verwachte parameters valt. Hierover en meer over hoe AI het beste door organisaties kan worden geïmplementeerd en welke aandachtspunten daarbij belangrijk zijn, zal ik over enkele weken een andere blog publiceren.
Concluderend, waakzaam zijn met AI betekent niet dat je AI moet wantrouwen of vermijden. Het betekent dat je het met open ogen gebruikt, bewust van de risico’s, met gevoel voor de grenzen en met structuren die misbruik en fouten kunnen opvangen. De technologie staat niet stil, maar jij hebt de keuze: je kunt er actief bewust mee omgaan, of er zonder het te merken door worden meegesleept. Kies voor de eerste optie en maak AI tot een hulpmiddel dat jou en je organisatie versterkt.
Hieronder volgt een handige infographic die alles samenvat. Klik erop om de afbeelding te vergroten. Het delen van deze afbeelding is toegestaan, mits de bron wordt vermeld: www.maryayaqin.com
Meer weten?
Heb je vragen of heb je ondersteuning nodig bij de implementatie van (Gen)AI, inclusief het geven van GenAI-workshops? Klik dan hier of neem contact op.
Gebruikte bronnen
- (2025, 19 januari). Per 1 februari 2025: Verbod op AI-systemen met onaanvaardbaar risico. https://www.abu.nl/kennisbank/bedrijfsprocessen-en-ict/per-1-februari-2025-verbod-op-ai-systemen-met-onaanvaardbaar-risico/
- AI Governance Library. (2025, 21 september). AI Act guide – Version 1.1 (September 2025). https://www.aigl.blog/ai-act-guide-version-1-1-september-2025/
- (2025). Wat zijn de risico’s van AI? Compleet risicokader. https://ardion.io/nl/blog/risicos-van-ai/
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT). ACM. https://dl.acm.org/doi/10.1145/3442188.3445922
- (2025, 31 maart). Zo herken je nep: deepfakes, AI-beelden en gemanipuleerde content. https://digiwijzer.nl/ai-nep-herkennen/
- Europese Commissie. (2025, 18 november). European approach to artificial intelligence. https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
- FOAI Nederland. (2024, 12 juni). 5 tips om deepfakes te herkennen. https://www.foanederland.com/deepfakes-herkennen/
- (2025, 20 november). Close out 2025 with critical AI skills you may be overlooking. https://www.forbes.com/sites/sap/2025/11/20/close-out-2025-with-critical-ai-skills-you-may-be-overlooking/
- (2025, 2 juni). Nederlanders wantrouwen AI nog steeds: tijd voor meer regelgeving. https://www.frankwatching.com/archive/2025/06/03/nederlanders-wantrouwen-ai-onderzoek/
- Future of Life Institute. (2025). 2025 AI Safety Index [PDF]. https://futureoflife.org/wp-content/uploads/2025/07/FLI-AI-Safety-Index-Report-Summer-2025.pdf
- Heights Consulting Group. (2026, 11 januari). Top 10 AI security best practices for 2026: A CISO’s guide. https://heightscg.com/2026/01/12/ai-security-best-practices/
- HP LIFE. (n.d.). Critical thinking in the AI era. https://www.life-global.org/news/critical-thinking-in-the-ai-era
- International AI Safety Report. (2026, 2 februari). International AI Safety Report 2026 [PDF]. https://internationalaisafetyreport.org/sites/default/files/2026-02/international-ai-safety-report-2026.pdf
- International AI Safety Report. (2026, 2 februari). Extended summary for policymakers [PDF]. https://internationalaisafetyreport.org/sites/default/files/2026-02/ai-safety-report-2026-extended-summary-for-policymakers.pdf
- (2025, 15 juni). Herken jij AI-beelden op internet? Met deze tips blijf je alert. https://www.isdatechtzo.nl/wat-is-nepnieuws/ai-en-desinformatie/herken-jij-ai-beelden-op-internet-met-deze-tips-blijf-je-alert/
- (2020, 6 mei). Wat zijn deepfakes en hoe kunt u uzelf beschermen? https://www.kaspersky.nl/resource-center/threats/protect-yourself-from-deep-fake
- Krueger, D. S., & Barten, O. (2023, 11 januari). AI-ontwikkeling is riskant, bewustzijn of niet. Existential Risk Observatory. https://www.existentialriskobservatory.org/nl/kunstmatige-intelligentie/ai-ontwikkeling-is-riskant-met-of-zonder-bewustzijn/
- Legal Nodes. (2026, 12 februari). EU AI Act 2026 updates: Compliance requirements and business risks. https://www.legalnodes.com/article/eu-ai-act-2026-updates-compliance-requirements-and-business-risks
- (2025, 31 juli). AI in de handen van cybercriminelen: hoe u nepkunst en deepfakes kunt herkennen. https://www.mcafee.com/blogs/nl/tips-tricks/ai-in-de-handen-van-cybercriminelen-hoe-u-nepkunst-en-deepfakes-kunt-herkennen/
- (2024, 14 oktober). The dual nature of AI in information dissemination: Ethical implications. https://pmc.ncbi.nlm.nih.gov/articles/PMC11522648/
- (2023, 31 augustus). Critical thinking and AI: How to tell what’s fake and what’s not. https://www.pluralsight.com/resources/blog/ai-and-data/critical-thinking-ai-misinformation
- Pont Media. (2025, 25 november). Een strategische aanpak voor het beheren van AI-risico’s. https://pont.media/nieuws/1087100/een-strategische-aanpak-voor-het-beheren-van-ai-risicos/
- (2025, 24 november). Hoe ontmaskeren forensische onderzoekers deepfakes? https://www.quest.nl/tech/technologie/a69529243/ontmaskeren-forensische-onderzoekers-deepfakes-echt-nep/
- (2025, 16 december). AI security in 2026: Threats, core principles & defenses. https://www.radware.com/cyberpedia/ai-security/
- (2025). AI Act guide [PDF]. https://www.government.nl/binaries/government/documenten/publications/2025/09/04/ai-act-guide/ai-act-guide.pdf
- (2025, 9 juni). ‘We moeten waakzaam blijven’. https://www.ser.nl/nl/actueel/zicht/op/art-waakzaam-blijven
- (2025). AI en werk [PDF]. https://www.ser.nl/-/media/ser/downloads/adviezen/2025/ai-en-werk.pdf
- Zaharia, M., & Liu, N. (2025, 19 april). Leveraging AI biases to enhance critical thinking of news readers [PDF]. arXiv. https://arxiv.org/pdf/2504.14522



