Cybercriminelen gebruiken ChatGTP

OpenAI geeft toe: cybercriminelen gebruiken steeds vaker ChatGPT

Cybercriminelen zetten AI steeds vaker in om hun phishing en malware te verbeteren en efficiënter te verspreiden.

AI kan een waardevolle rol spelen in cybersecurity: het automatiseert saai en repetitief werk, waardoor menselijke experts meer tijd krijgen voor complexe vraagstukken. Toch kan – zoals met elke technologie – ook AI worden misbruikt. Sinds februari 2024 houdt OpenAI nauwlettend in de gaten hoe kwaadwillenden hun tools inzetten. Inmiddels wist het bedrijf meer dan veertig criminele netwerken te verstoren. In het rapport “Disrupting malicious uses of AI: an update” somt OpenAI vier opvallende trends op.

AI in bestaande werkwijzen

Een eerste trend is dat cybercriminelen AI steeds vaker integreren in hun bestaande werkwijzen om sneller en nauwkeuriger te werken. Zo ontdekte OpenAI een netwerk in Cambodja dat probeerde ChatGPT in te zetten om hun processen soepeler te laten verlopen. Andere accounts werden verbannen omdat ze probeerden Remote Access Trojans (RAT’s), credential stealers en schadelijke payloads te maken.

Sommige groepen combineren verschillende AI-modellen voor uiteenlopende criminele doeleinden. Een vermoedelijk Russische groep gebruikte AI bijvoorbeeld om nepvideo’s en misleidende content voor sociale media te creëren. Ook enkele Chinese accounts probeerden ChatGPT in te zetten voor phishing en debugging. Vermoedelijk gaat het om de beruchte UTA0388-groep, die eerder doelwitten had in de Taiwanese halfgeleiderindustrie, denktanks en Amerikaanse universiteiten.

AI als camouflage

Cybercriminelen gebruiken AI ook om detectie te ontwijken. Netwerken uit Cambodja, Myanmar en Nigeria lieten AI bijvoorbeeld aanwijzingen in hun code verwijderen, zoals em-dashes, die onderzoekers helpen AI-gegenereerde content te herkennen. OpenAI vermoedt dat deze criminelen goed op de hoogte zijn van hoe hun AI-output wordt geïdentificeerd.

AI wordt daarnaast ingezet door overheden. Zo wist OpenAI netwerken te verstoren die mogelijk verbonden zijn aan Chinese instanties. Accounts vroegen ChatGPT om voorstellen voor systemen om sociale media te monitoren. Sommigen probeerden tools te ontwikkelen om bijvoorbeeld het transportgedrag van de Oeigoerse minderheid te volgen of de financiering van kritische X-accounts in kaart te brengen.

AI verzint geen nieuwe tactieken

Hoewel cybercriminelen AI inzetten, is er geen bewijs dat deze modellen daadwerkelijk nieuwe aanvalstechnieken ontwikkelen. OpenAI benadrukt dat criminelen AI vooral gebruiken om bestaande methodes sneller en effectiever uit te voeren, niet om compleet nieuwe aanvalsvormen te bedenken. Tegelijkertijd blijft OpenAI werken aan hulpmiddelen die juist verdedigers kunnen helpen bedreigingen beter te bestrijden.

Kortom: AI verandert de werkwijze van cybercriminelen ingrijpend, maar biedt ook nieuwe kansen om deze dreigingen het hoofd te bieden.

  • Eater

    vraag en ik antwoord

    Related Posts

    Cybercriminelen gebruiken ChatGTP

    OpenAI geeft toe: cybercriminelen gebruiken steeds vaker ChatGPT Cybercriminelen zetten AI steeds vaker in om hun phishing en malware te verbeteren en efficiënter te verspreiden. AI kan een waardevolle rol…

    Google’s Ai helpt oplossen?

    Google’s nieuwe AI-agent herschrijft code om kwetsbaarheden automatisch te verhelpen DeepMind van Google heeft een innovatieve AI-agent geïntroduceerd die zelfstandig kritieke beveiligingslekken in softwarecode opspoort en verhelpt. De agent, toepasselijk…

    Geef een reactie