Het tijdperk van AI-gedreven cyberaanvallen is aangebroken

AI verkort de leercurve en tijdsspanne van cyberaanvallen. De revolutie van vibe hacking komt eraan.

Al twintig jaar voorspellen experts dat hackers AI gaan gebruiken om netwerken binnen te dringen, gegevens te stelen en via sociale engineering goedgelovige medewerkers te misleiden. En net als bij zoveel voorspellingen rondom AI in dit tijdperk van op taalmodellen gebaseerde generatieve AI, zien we deze voorspelling werkelijkheid worden.

Vorige week meldde Anthropic dat een hacker hun technologie gebruikte voor een AI-gedreven misdaadcampagne met grootschalige ransomware-aanvallen. De aanvaller gebruikte de Claude-chatbot voor verkenning, het genereren van code, het stelen van inloggegevens, infiltratie en het schrijven van afpersingsberichten gericht aan 17 organisaties, waaronder zorginstellingen, overheidsinstanties, religieuze goede doelen en een defensiecontractant.

De AI stelde zelfs gepaste losgeldbedragen voor, van $75.000 tot $500.000 in Bitcoin. Dit is het eerste bekende voorbeeld van een volledige afpersingscampagne die door AI werd geregisseerd, waarbij bijna elke stap geautomatiseerd werd.

AI helpt niet alleen bij het begeleiden en ondersteunen van cyberaanvallen, maar schrijft zelfs de kwaadaardige code zelf. Anthropic en het beveiligingsbedrijf ESET ontdekten dat criminelen generatieve AI gebruiken om ransomwarecode te ontwikkelen en te verbeteren.

Zo identificeerde Anthropic een Britse dreigingsactor, GTG-5004, die AI-versterkte ransomwarekits ontwikkelde, verkocht en onderhield. Zonder technische kennis van encryptie of analyse-tools vertrouwden ze op Anthropic’s Claude-chatbot voor programmeren en softwarepakketontwikkeling. De ransomwarediensten varieerden van $400 tot $1.200, wat laaggeschoolde criminelen in staat stelde geavanceerde malware te verspreiden.

Deze programma’s veranderen zelfs van vorm om antivirusscans te omzeilen en zich aan te passen aan nieuwe beveiligingsregels voordat verdedigers kunnen reageren.

ESET onderzocht een proof-of-concept genaamd PromptLock, dat kwaadaardige scripts kan genereren en uitvoeren met een open-source model gebaseerd op OpenAI’s code, terwijl het zich ter plekke aanpast om specifieke bestanden te versleutelen of aan te vallen.

Onderzoekers hacken de chatbots

Generatieve AI-chatbots zijn ontworpen om misbruik te voorkomen, maar hackers hebben alle reden om deze tools te “jailbreaken” en de beveiligingen en ethische beperkingen te omzeilen. Onderzoekers van Palo Alto Networks lieten zien hoe dit kan werken: door simpelweg slecht te schrijven.

Tony Li en Hongliang Liu publiceerden recent dat grote taalmodellen – zoals Google’s Gemma, Meta’s Llama en Alibaba’s Qwen – misleid kunnen worden met slecht gestructureerde, doorlopende zinnen.

Zinnen met verkeerde grammatica en zonder juiste interpunctie vertragen de veiligheidsmechanismen van chatbots, waardoor gevaarlijke opdrachten kunnen doordringen. Zo kunnen bots onbedoeld helpen bij misdaden, het vergaren van vertrouwelijke informatie, het maken van malware of fraude.

Trail of Bits-onderzoekers, onder leiding van Kikimora Morozova en Suha Sabi Hussain, ontdekten een andere omweg: kwaadaardige prompts verbergen in grote, gedetailleerde foto’s. AI’s downscaling-algoritmes halen die verborgen instructies tevoorschijn, waardoor systemen als Google’s Gemini en Vertex AI opdrachten herhalen die de gebruiker nooit zag of bedoelde. Dit noemen ze een “multimodale promptinjectie”-aanval.

Deze aanvallen werken op verschillende systemen en infecteren alles van desktoptools tot cloud-API’s.

Hiermee kunnen zowel AI-chatbots als gebruikers worden misleid. Door grote groepen gebruikers foto’s met verborgen prompts te sturen, kunnen verspreide aanvallen worden uitgevoerd.

Oplichters laten AI het woord doen

Ruim zes jaar geleden schokte de cybersecuritywereld toen criminelen met deepfake-audio een CEO imiteerden om geld te stelen. Ze belden en kopieerden de stem van de CEO van het Duitse moederbedrijf van een Brits energiebedrijf. De nep-Duitse CEO belde de echte Britse CEO met een dringende verzoek om $243.000 over te maken aan een Hongaarse leverancier.

In het deepfake-tijdperk was dit ongekend en sensatie. In het genAI-tijdperk is het een alledaagsheid geworden.

Volgens McAfee-experts heb je slechts een opname nodig van drie seconden om overtuigende nepberichten of telefoongesprekken te maken. Als iemand klinkt als een vertrouwde stem, zijn mensen bereid geld of geheimen te delen. In 2024 bleek uit een onderzoek van McAfee dat één op de vier mensen slachtoffer was of iemand kende die slachtoffer werd van een AI-stemfraude.

De technologie is nu zo geavanceerd dat het zelfs ouders kan misleiden. Een man uit Californië kreeg vorig jaar een telefoontje van iemand die de stem van zijn zoon kloonde. De nep-zoon zei dat hij een ongeluk had gehad, in politiehechtenis zat en snel borggeld nodig had. Na herhaalde telefoontjes en druk stortte de vader duizenden euro’s aan de oplichters.

In 2024 kloonden criminelen zelfs de stem van de Italiaanse minister van Defensie Guido Crosetto om grote bedrijven te benaderen. Modelegendes zoals Giorgio Armani, Prada’s Patrizio Bertelli en voormalig Inter Milan-voorzitter Massimo Moratti kregen telefoontjes van “Crosetto” over ontvoerde journalisten. Moratti werd overtuigd om bijna een miljoen euro over te maken naar een rekening in Hong Kong (latere bevriezing in Nederland).

Het nieuwe risico van AI-browsers

Een grote uitdaging in AI-gedreven aanvallen – aanvallen die vóór genAI onmogelijk waren – is de razendsnelle verandering. Neem AI-browsers: een nieuwe categorie webbrowsers als Perplexity Comet, Dia (van The Browser Company), Fellou, Opera Neon, Sigma AI Browser, Arc Max, Microsoft Edge Copilot, Brave Leo, Wave Browser Pro, SigmaOS, Opera Aria, Genspark AI Browser, Poly, Quetta Browser, Browserbase, Phew AI Tab en binnenkort de OpenAI browser.

De meest capabele is Perplexity’s Comet-browser, die automatisch links aanklikt, webpagina’s navigeert, formulieren invult, e-mails en agenda’s beheert, reizen boekt, aankopen doet, browsegeschiedenis analyseert, complexe workflows automatiseert, gekoppelde diensten gebruikt, producten vergelijkt, zich afmeldt voor nieuwsbrieven, informatie uit verschillende bronnen verzamelt en samenvoegt, tabbladen beheert en autonoom complexe zoekopdrachten uitvoert – en dat alles met contextuele hulp.

Beveiligingsonderzoekers van Guardio Labs toonden aan hoe eenvoudig het is voor criminelen om AI-browsers te misleiden om misdaden te plegen. Ze lieten Comet een Apple Watch kopen, waarna de AI een valse Walmart-website bezocht, gemaakt in 10 seconden met eenvoudige tools. De browser negeerde fraude-indicatoren en vulde automatisch opgeslagen betaalgegevens in om te kopen. Soms vroeg Comet toestemming, maar soms gaf het gevoelige data direct aan oplichters.

Brave en Guardio Labs ontdekten ook dat criminelen Comet konden manipuleren met nep-CAPTCHA’s die onzichtbare knoppen activeerden, zodat beveiligingscontroles werden omzeild zonder dat de gebruiker het weet.

(Opmerking: Vivaldi-CEO Jon von Tetzchner verklaarde onlangs dat zijn bedrijf geen AI-functies zal integreren in hun browser, omdat “we de vreugde van ontdekken niet willen veranderen in passief toekijken.”)

Vecht vuur met vuur

De waarheid is dat de meeste aanvallen nog steeds het ouderwetse soort zijn, zonder AI. En dat menselijke fouten vaak oorzaak zijn. Daarom blijven alle basisregels en beste praktijken gelden: software regelmatig updaten, multifactor-authenticatie verplichten, medewerkers trainen in het herkennen van phishing en malware, en twee keer per jaar penetratietesten laten uitvoeren. Regelmatige offline backups kunnen tienduizenden euro’s aan schade voorkomen na AI-ransomware.

Maar in dit nieuwe tijdperk zijn AI-gebaseerde beveiligingsmiddelen onmisbaar. Ze kunnen miljoenen netwerkgebeurtenissen per seconde scannen en problemen signaleren voordat er schade ontstaat.

De harde waarheid is dat het tijdperk van AI-gedreven cyberaanvallen net begonnen is.

Loading

  • Eater

    vraag en ik antwoord

    Related Posts

    Het tijdperk van AI-gedreven cyberaanvallen is aangebroken

    AI verkort de leercurve en tijdsspanne van cyberaanvallen. De revolutie van vibe hacking komt eraan. Al twintig jaar voorspellen experts dat hackers AI gaan gebruiken om netwerken binnen te dringen,…

    Loading

    Android Auto 15.1 hint dat Gemini toegang kan krijgen tot de locatie van je auto

    Google rolt deze week in bèta een nieuwe update uit voor Android Auto, versie 15.1, waarin wordt gesuggereerd dat Gemini met “precisie” de locatie van je auto kan gebruiken om…

    Loading

    Geef een reactie