Blog

AI-phishing in 2026: waarom spelfouten spotten niet meer werkt

Taalfouten in phishing zijn verleden tijd door AI. Ontdek hoe criminelen deepfakes en AI-tools zoals WormGPT inzetten, en hoe u uw team hiertegen wapent.
Een aandachtige medewerker analyseert een hyper-gepersonaliseerde e-mail op zijn laptop, terwijl Cyberplan waarschuwt dat AI-gegenereerde phishing-mails tegenwoordig taalkundig perfect en zeer misleidend zijn.

De dagen dat je een phishing-mail herkende aan kromme zinnen en vreemde afzenders zijn voorbij. Kunstmatige intelligentie heeft de spelregels herschreven. Dit moet je weten om je bedrijf te beschermen.

Je hebt het vast geleerd: controleer op taalfouten, kijk of het e-mailadres klopt, wees alert op vage aanhef. Jarenlang waren dit de gouden regels om phishing te herkennen. Maar in 2026? Die regels zijn achterhaald.

Cybercriminelen gebruiken nu dezelfde AI-technologie die jij misschien inzet om e-mails te schrijven of presentaties te maken. Het verschil? Zij zetten het in om je te misleiden. En dat doen ze angstaanjagend goed.

De cijfers liegen niet: AI-phishing explodeert

Laten we beginnen met de harde feiten. In het eerste kwartaal van 2025 registreerde de Anti-Phishing Working Group ruim 1 miljoen phishing-aanvallen, gevolgd door meer dan 1,13 miljoen in het tweede kwartaal. Dat is het hoogste niveau sinds 2023.

Nog verontrustender: meer dan 82% van alle phishing-mails bevat nu AI-gegenereerde content. Dat betekent geen spelfouten, geen kromme zinnen, geen opvallende vertalingen. De mails zijn taalkundig perfect, cultureel passend en vaak hyper-gepersonaliseerd.

De financiële impact is navenant. De gemiddelde kosten van een datalek bedragen inmiddels 4,88 miljoen dollar. Business Email Compromise, de gerichte variant waarbij criminelen zich voordoen als collega’s of leveranciers, kostte bedrijven wereldwijd 2,77 miljard dollar in 2024.

Hoe AI phishing fundamenteel verandert

Van spray-and-pray naar chirurgische precisie

Vroeger stuurden criminelen miljoenen identieke mails in de hoop dat iemand zou klikken. Nu combineert AI de kwaliteit van handmatige spear-phishing met de schaal van geautomatiseerde campagnes.

Stel je voor: een AI-agent scant het LinkedIn-profiel van je inkoopmanager. Hij ziet dat zij recent een beurs in Parijs bezocht en dat jullie samenwerken met leverancier X. Binnen seconden genereert de AI een mail:

“Hoi Sarah, leuk je even kort gesproken te hebben in Parijs vorige week. Zoals besproken stuur ik hierbij de herziene offerte van [Leverancier X]. Kun je hier naar kijken voor het einde van het kwartaal?”

Deze mail bevat drie waarheidselementen. Voor Sarah is dit een extreem geloofwaardig bericht. De twijfel die normaal opkomt bij een phishing-mail, die is er simpelweg niet.

De criminele AI-toolkit

Naast het manipuleren van legitieme AI-modellen bestaat er een bloeiende markt voor specifieke criminele tools. WormGPT en FraudGPT zijn de bekendste voorbeelden, maar inmiddels zijn er tientallen varianten.

WormGPT, momenteel in versie 4, wordt actief verkocht via Telegram en dark web forums voor zo’n 60 tot 100 euro per maand. Het genereert niet alleen perfecte phishing-mails, maar ook polymorfe malware die zichzelf herschrijft om antivirussoftware te omzeilen.

FraudGPT gaat nog een stap verder met een volledig SaaS-model, inclusief klantenservice, voor zo’n 200 dollar per maand. De drempel voor cybercriminaliteit is nog nooit zo laag geweest.

En voor wie zelfs dat te duur vindt: KawaiiGPT, een recente toevoeging aan het criminele arsenaal, is volledig gratis beschikbaar en in minder dan vijf minuten op te zetten.

Voorbij e-mail: deepfakes en voice cloning

De dreiging beperkt zich niet meer tot tekst. AI-gegenereerde stemklonen en deepfake-video’s maken een razendsnelle opmars.

De 25-miljoen-dollar videocall

Begin 2024 werd een medewerker van engineeringbedrijf Arup in Hong Kong het slachtoffer van wat wel de grootste gedocumenteerde deepfake-fraude tot nu toe wordt genoemd. Tijdens een videovergadering met de CFO en andere collega’s autoriseerde hij vijftien transacties voor in totaal 25 miljoen dollar.

Het probleem? Iedereen in die videocall was nep. De aanvallers hadden met AI overtuigende deepfakes gecreëerd van meerdere leidinggevenden, die real-time met elkaar interacteerden.

Drie seconden zijn genoeg

Moderne AI kan een stem klonen met slechts drie tot vijf seconden audiomateriaal. Dat materiaal halen criminelen uit webinars, podcasts, voicemails of social media posts.

In 2025 werd de CEO van WPP, het grootste advertentiebedrijf ter wereld, geïmiteerd via een nepgesprek op Microsoft Teams. Gelukkig was de poging niet succesvol dankzij een alerte medewerker.

Minder fortuinlijk was een Brits energiebedrijf dat 220.000 euro verloor toen een medewerker een telefoontje kreeg van iemand die precies klonk als de Duitse CEO van het moederbedrijf.

De verliezen door deepfake-fraude overschreden 200 miljoen dollar in alleen het eerste kwartaal van 2025. En dat zijn slechts de gerapporteerde gevallen.

Waarom traditionele training niet meer werkt

Hier komt de kern van het probleem: de training die je medewerkers hebben gehad, is ontworpen voor een wereld die niet meer bestaat.

Oude training focuste op het herkennen van vorm: spelfouten, slechte logo’s, vreemde afzenders. AI elimineert al deze signalen. De mails zijn grammaticaal perfect, visueel onberispelijk en contextueel accuraat.

Onderzoek onder 12.511 medewerkers van een Amerikaanse fintech-onderneming toonde aan dat generieke phishing-trainingen geen significant effect hadden op klikgedrag of meldingsbereidheid.

Het psychologische spel

AI-phishing speelt meesterlijk in op menselijke cognitive biases. Je brein heeft twee systemen: het snelle, intuïtieve systeem en het langzame, analytische systeem. Traditionele phishing met taalfouten activeert je analytische systeem: “Hé, dit klopt niet.”

AI-phishing is geoptimaliseerd voor wat psychologen cognitive ease noemen. Alles vloeit, alles klopt, alles voelt vertrouwd. Je brein blijft op de automatische piloot. De kans dat je kritisch nadenkt is minimaal.

Voeg daar urgentie aan toe (“Deze factuur vervalt over twee uur”), autoriteit (“Bericht van de CEO”) en validatie door correcte feiten, en je hebt een recept voor succesvolle manipulatie.

Training 2.0: van syntax naar intentie

De oplossing is niet méér training van dezelfde soort. Het is fundamenteel andere training.

Focus op intentie, niet op vorm

Het nieuwe curriculum moet medewerkers leren de vraag te stellen: “Wat wil deze mail dat ik doe?” Is er een verzoek om geld, data of een klik? Als de intentie risicovol is, moet de waakzaamheid omhoog, ongeacht hoe perfect de mail eruitziet.

De pauzeknop als verdedigingslinie

Het belangrijkste doel van moderne training is het doorbreken van de automatische piloot. Leer mensen om bij elk gevoel van urgentie een mentale pauze van tien seconden te nemen. Die korte onderbreking kan het verschil maken tussen een afgewende aanval en een miljoenenverlies.

Out-of-band verificatie als standaard

Dit is misschien wel de belangrijkste gedragsverandering: reageer nooit op een gevoelig verzoek via hetzelfde kanaal als waarlangs het binnenkwam.

Krijg je een mail van de CFO met een betaalverzoek? Loop naar zijn kantoor, bel op zijn bekende interne nummer (niet het nummer in de mail), of stuur een bericht via een ander platform. Het kost een minuut extra. Het kan miljoenen besparen.

Codewoorden tegen deepfakes

Voor spraak- en videogesprekken wordt het afspreken van een codewoord binnen teams of families steeds belangrijker. Als de “CEO” belt met een vreemd verzoek, vraag naar het codewoord. Een AI-kloon kent dit niet.

Technologie als bondgenoot

Training alleen is niet genoeg. Je hebt ook technologie nodig die de strijd aangaat met aanvallende AI.

Gedragsanalyse vervangt handtekeningendetectie

Traditionele e-mailfilters keken naar bekende handtekeningen van slechte bestanden of verdachte IP-adressen. Tegen polymorfe AI-aanvallen die elke keer uniek zijn, werkt dat niet.

Moderne oplossingen gebruiken AI om een baseline van normaal gedrag vast te stellen. Het systeem leert wie met wie mailt, op welke tijden, over welke onderwerpen. Als iemand plotseling afwijkt van dat patroon, slaat het alarm, zelfs als de mail technisch schoon is.

Phishing-resistente authenticatie

Om de impact van gestolen inloggegevens te minimaliseren, is sterke authenticatie cruciaal. FIDO2-sleutels en passkeys zijn resistent tegen phishing. Zelfs als iemand op een perfecte nepsite zijn gegevens invult, faalt de inlogpoging omdat de cryptografische sleutel niet overeenkomt.

NIS2 dwingt actie af

De urgentie wordt versterkt door wetgeving. De NIS2-richtlijn, sinds oktober 2024 van kracht in België, verplicht organisaties tot concrete maatregelen.

Essentiële entiteiten moeten tegen april 2026 voldoen aan cybersecurity-vereisten, inclusief awareness en training voor leidinggevenden. Er is zelfs expliciete aandacht voor persoonlijke aansprakelijkheid van bestuurders.

Het Centre for Cybersecurity Belgium beveelt specifiek aan om een continu awareness- en trainingsprogramma te implementeren, inclusief scenariogebaseerde training en regelmatige tests via bijvoorbeeld phishing-simulaties.

Wat kun je morgen al doen?

De dreiging is reëel, maar je bent niet machteloos. Dit zijn concrete stappen die je direct kunt nemen:

Start met een nulmeting. Voer een realistische phishing-simulatie uit om te zien hoe je organisatie ervoor staat. Niet de makkelijke variant met overduidelijke fouten, maar een AI-niveau test.

Herzie je betalingsprocessen. Implementeer verplichte out-of-band verificatie voor alle financiële transacties boven een bepaald bedrag. Twee handtekeningen, twee kanalen.

Train op intentie. Vervang de jaarlijkse awareness-video door maandelijkse micro-learnings die focussen op het herkennen van manipulatieve intentie en urgentiesignalen.

Creëer een meldcultuur. Het doel is niet nul procent kliks, dat is onmogelijk met AI-phishing. Het doel is honderd procent meldingen. Beloon mensen die verdachte mails melden, zelfs als het vals alarm is.

Implementeer technische waarborgen. DMARC, SPF en DKIM correct configureren. Multi-factor authenticatie overal. Gedragsgebaseerde e-mailfiltering overwegen.

De menselijke firewall versterken

In de strijd van AI tegen AI blijft de mens de cruciale factor. Niet als zwakste schakel, maar als laatste verdedigingslinie. Door technologie te combineren met een weerbare, goed getrainde organisatiecultuur, versterk je die menselijke firewall tegen de volmaakte, kunstmatige misleiding.

De cybercrimineel van 2026 hoeft geen technisch genie te zijn. Hij hoeft alleen bereid te zijn om AI in te zetten voor kwade doeleinden. Jouw verdediging moet even geavanceerd zijn als de aanval.

Veelgestelde vragen over AI-phishing

Hoe herken ik AI-gegenereerde phishing-mails?

Kijk niet langer naar taalfouten, want die zijn er niet meer. Focus in plaats daarvan op de intentie van het bericht. Vraagt iemand om geld, data of een klik? Is er sprake van urgentie of druk? Verifieer dergelijke verzoeken altijd via een ander kanaal dan waarlangs het binnenkwam.

Wat is het verschil tussen WormGPT en ChatGPT?

ChatGPT en andere legitieme AI-modellen hebben ethische filters die weigeren phishing-content te genereren. WormGPT en vergelijkbare tools zijn specifiek ontwikkeld voor cybercriminaliteit, zonder enige ethische beperking. Ze worden verkocht op het dark web en via Telegram.

Valt mijn bedrijf onder NIS2?

NIS2 is van toepassing op organisaties die essentiële of belangrijke diensten leveren in 17 aangewezen sectoren. Gebruik de scope-test tool van het Centre for Cybersecurity Belgium om te controleren of je organisatie onder de wetgeving valt. Essentiële entiteiten moeten tegen april 2026 voldoen aan de basisvereisten.

Hoe bescherm ik mijn organisatie tegen deepfake-fraude?

Implementeer verplichte verificatieprocedures voor financiële verzoeken, ongeacht hoe overtuigend de beller of video lijkt. Spreek codewoorden af binnen teams voor urgente situaties. Train medewerkers specifiek op het herkennen van deepfake-signalen en het belang van verificatie via een tweede kanaal.

Hoeveel kost een effectief awareness-programma?

De kosten variëren afhankelijk van de omvang van je organisatie, maar via de KMO-portefeuille kun je tot 45% subsidie krijgen voor cybersecurity-opleidingen in Vlaanderen. Gezien de gemiddelde kosten van een datalek (4,88 miljoen dollar), is de investering in preventie vrijwel altijd rendabel.

Wat moet ik doen als mijn bedrijf slachtoffer wordt van AI-phishing?

Meld het incident direct bij je IT-afdeling en bij het CCB via hun incident notification platform. Snelheid is cruciaal: hoe eerder je meldt, hoe beter de schade beperkt kan worden. Behandel het incident als bedrijfsrisico, niet als persoonlijk falen van de medewerker.

Wil je weten hoe jouw organisatie scoort op het gebied van phishing-weerbaarheid? Cyberplan voert realistische phishing-simulaties uit die de huidige AI-dreiging nabootsen, inclusief concrete verbeterpunten voor je awareness-programma. Boek een vrijblijvend kennismakingsgesprek.