7.9 C
Amsterdam
zaterdag 8 november 2025
HomeThemaOnderzoek & TrendsCybercriminelen zetten large language models steeds vaker in voor geavanceerde en geautomatiseerde...

Cybercriminelen zetten large language models steeds vaker in voor geavanceerde en geautomatiseerde cyberaanvallen

Date:

Related stories

Robuuste technologie in facilitybeheer: de Getac UX10 als betrouwbare veldoplossing

De digitalisering binnen facility management zorgt ervoor dat bedrijven...

Elektrisch rijden groeit verder, maar hybride leaseauto maakt opvallende comeback

Bijna de helft van de zakelijke leaserijders rijdt inmiddels (deels) elektrisch, blijkt uit data van MultiTankcard. Opvallend is de comeback van de hybride leaseauto, gedreven door marktdruk, fabrikantenbeleid en fiscale onzekerheid.

Workday: “AI faalt niet door techniek, maar door gebrek aan leiderschap”

AI heeft pas impact als het gedragen wordt door leiderschap. Workday deelt tien inzichten waarmee organisaties AI echt laten werken. Focus ligt op data, eenvoud, governance en vooral: mensen meenemen in verandering.

Nederlandse bedrijven blijven voorzichtig met AI: focus ligt op risico’s, niet op innovatie

Uit IBM-onderzoek blijkt dat Nederlandse leiders terughoudend zijn in het gebruik van AI. In tegenstelling tot andere EMEA-landen ligt de nadruk vooral op risicobeperking in plaats van innovatie of productiviteit.

Verzuim is geen HR-dossier, maar strategisch systeemvraagstuk

Tijdens een bijeenkomst van Colbe en TrueTribe bleek dat Nederlandse werkgevers onvoldoende inzicht hebben in verzuim en de relatie met welzijn. Experts pleiten voor een integrale aanpak waarin data, leiderschap en systemische verandering centraal staan.
spot_imgspot_img

Cisco Talos waarschuwt voor een alarmerende trend: cybercriminelen maken steeds vaker gebruik van large language models (LLM’s) om hun cyberaanvallen te automatiseren en te verbeteren. Volgens het nieuwe Talos-onderzoek blijken cybercriminelen niet alleen reguliere AI-diensten, maar ook gebruikmaken van speciaal aangepaste modellen en zogeheten ‘jailbroken’ versies. Hiermee kunnen zij overtuigende phishingcampagnes opzetten en complexe schadelijke code te schrijven.

Dankzij hun vermogen om overtuigende teksten te genereren, problemen op te lossen, computercode te schrijven en nog veel meer, winnen LLM’s overal aan populariteit. Volgens Hugging Face (een platform dat modellen host) zijn er op dit moment al meer dan 1,8 miljoen verschillende modellen om uit te kiezen. De meeste van die modellen hebben ingebouwde beveiligingen en beperkingen (zogenaamde ‘guardrails’ en ‘alignments’) om te voorkomen dat de gebruiker hun tool voor criminele doeleinden inzet.

Ongecensureerde LLM’s: een groeiende dreiging
Talos constateert echter dat er heel wat ‘ongecensureerde’ LLM’s zijn waarmee cybercriminelen zeer realistische phishingberichten en frauduleuze communicatie kunnen opstellen, vaak zonder taalfouten of verdachte formuleringen. Hierdoor zijn slachtoffers sneller geneigd om persoonlijke of zakelijke informatie prijs te geven. Voorbeelden zijn Ollama en WhiteRabbitNeo. Die laatste promoot zichzelf als een model dat zowel defensieve als offensieve cybersecurity ondersteunt.

Volgens de analyse van Cisco bestaan er ook methoden om ingebouwde beperkingen (‘alignments’) te verwijderen. Zo kan een gebruiker het trainingsbestand aanpassen, het basismodel verder finetunen en het LLM op die manier de-censureren.

Malafide LLM’s: cybercriminele bouwen hun eigen tools
Sommige cybercriminelen hebben hun eigen LLM’s ontwikkeld die ze actief promoten op het darkweb. Deze malafide LLM’s zijn in staat om autonoom schadelijke software te creëren, zoals ransomware, remote access trojans, wipers, shellcode en diverse scripts schrijven.

Daarnaast helpen malafide LLM’s bij het maken van content, zoals phishingmails, landingspagina’s en configuratiebestanden. Ze verifiëren gestolen creditcards, scannen websites en code op kwetsbaarheden, en bedenken zelfs nieuwe winstgevende criminele strategieën. Voorbeelden van zulke malafide apps zijn GhostGPT, WormGPT, DarkGPT, DarkestGPT en FraudGPT.  Uit onderzoek van Talos blijkt dat FraudGPT onderdeel is van een bredere scamcampagne.

Legitieme LLM’s: een aantrekkelijk doelwit voor misbruik
Gezien de beperkte levensvatbaarheid van ongecensureerde LLM’s en het grote scamrisico van malafide LLM’s, kiezen cybercriminelen er vaak voor om legitieme LLM’s te misbruiken. Deze modellen bieden een krachtig platform voor aanvallers, mits ze erin slagen de ingebouwde beveiligingen te omzeilen. Het grootste obstakel daarbij zijn de ingebouwde trainingsrichtlijnen en beveiliginsmaatregelen die voorkomen dat het model reageert op vragen met onethische, illegale of schadelijke inhoud. Om deze beperkingen te omzeilen, maken cybercriminelen gebruik van technieken zoals prompt injection. Hiermee proberen ze de modellen te ‘jailbreaken’ en de ingebouwde restricties te omzeilen, zodat het model alsnog schadelijke output kan genereren.

“Om het misbruik van large language models tegen te gaan, is het cruciaal dat organisaties hun beveiliging daarop inrichten,” aldus Jan Heijdra, Field CTO Security bij Cisco Nederland. “Dit betekent dat organisaties AI-gebruik moeten monitoren, verdachte prompts moeten detecteren en medewerkers moeten trainen om AI-gegenereerde phishingmails te herkennen. Daarnaast adviseren we om uitsluitend te werken met vertrouwde modellen en goed beveiligde platforms.”

Redactie
Redactiehttps://www.kantoor.nl
Artikelen geschreven door de redactie van Kantoor.nl. Alles op het gebied van Marketing, Sales, AI, online business, media, technologie en e-commerce. Heb je nieuws? Mail ons: redactie@kantoor.nl.

Laatste Nieuws

spot_img

Subscribe

- Never miss a story with notifications

- Gain full access to our premium content

- Browse free from up to 5 devices at once

Latest stories

spot_img

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.