Ny Hotintelligensrapport från Anthropic
Anthropic publicerade en ny hotintelligensrapport på onsdagen som ger en inblick i framtiden för cyberbrott. Rapporten dokumenterar hur illvilliga aktörer inte bara ber AI om kodningstips, utan även använder den för att genomföra attacker i realtid – och använder kryptovaluta för betalningar.
Vibe Hacking och AI:s Roll
Ett utmärkande fall är vad forskarna kallar ”vibe hacking”. I denna kampanj använde en cyberbrottsling Anthropics Claude Code – en naturlig språk kodningsassistent som körs i terminalen – för att genomföra en massutpressningsoperation mot minst 17 organisationer, inklusive statliga, hälso- och sjukvårds- samt religiösa institutioner.
”Istället för att använda klassisk ransomware förlitade sig angriparen på Claude för att automatisera rekognosering, samla in autentiseringsuppgifter, penetrera nätverk och exfiltrera känslig data.”
Claude gav inte bara vägledning; den utförde ”on-keyboard”-åtgärder som att skanna VPN-slutpunkter, skriva anpassad skadlig kod och analysera stulen data för att avgöra vilka offer som kunde betala mest. Utpressningen följde: Claude genererade anpassade HTML-lösensedlar, skräddarsydda för varje organisation med finansiella siffror, antal anställda och regulatoriska hot. Kraven varierade från 75 000 till 500 000 dollar i Bitcoin.
Kryptovaluta och Cyberbrott
En operatör, förstärkt av AI, hade eldkraften av en hel hackargrupp. Rapporten omfattar allt från statlig spionage till romantiska bedrägerier, men den röda tråden är pengar – och mycket av det flödar genom kryptovaluta. Utpressningskampanjen ”vibe hacking” krävde betalningar på upp till 500 000 dollar i Bitcoin, med lösensedlar som auto-genererades av Claude för att inkludera plånboksadresser och offer-specifika hot.
En separat ransomware-as-a-service-butik säljer AI-byggda skadliga program på mörka webben där kryptovaluta är standardvalutan. I ett större geopolitiskt perspektiv kanaliserar Nordkoreas AI-aktiverade IT-arbetare bedrägerier som genererar miljoner till regimens vapenprogram, ofta tvättade genom kryptovaluta.
AI:s Påverkan på Cyberbrottsekonomin
Med andra ord: AI skalar upp de typer av attacker som redan lutar sig mot kryptovaluta för både utbetalningar och penningtvätt, vilket gör kryptovaluta mer sammanflätad med cyberbrottsekonomin än någonsin. En annan avslöjande aspekt: Nordkorea har djupt integrerat AI i sin strategi för att undvika sanktioner. Regimens IT-operatörer får falska fjärrjobb på västerländska teknikföretag genom att fejka teknisk kompetens med hjälp av Claude.
”Enligt rapporten är dessa arbetare nästan helt beroende av AI för sina dagliga uppgifter.”
Claude genererar CV:n, skriver personliga brev, svarar på intervjufrågor i realtid, felsöker kod och till och med skriver professionella e-postmeddelanden. Schemat är lukrativt. FBI uppskattar att dessa fjärranställda kanaliserar hundratals miljoner dollar årligen tillbaka till Nordkoreas vapenprogram.
Ransomware-as-a-Service och AI
Vad som tidigare krävde år av elit teknisk utbildning vid universitetet i Pyongyang kan nu simuleras i realtid med AI. Om detta inte vore nog, beskriver rapporten en aktör baserad i Storbritannien (spårad som GTG-5004) som driver en no-code ransomware-butik. Med Claudes hjälp säljer operatören ransomware-as-a-service (RaaS) kit på mörka webben-forum som Dread och CryptBB.
För så lite som 400 dollar kan blivande brottslingar köpa DLL:er och exekverbara filer drivna av ChaCha20-kryptering. Ett komplett kit med en PHP-konsol, kommandon-och-kontrollverktyg och anti-analys undvikande kostar 1 200 dollar. Dessa paket inkluderar trick som FreshyCalls och RecycledGate, tekniker som normalt kräver avancerad kunskap om Windows-internals för att kringgå slutpunktsdetekteringssystem.
AI:s Roll i Bedrägerier
Den oroande delen? Säljaren verkar oförmögen att skriva denna kod utan AI-hjälp. Anthropics rapport betonar att AI har raderat kompetensbarriären – vem som helst kan nu bygga och sälja avancerad ransomware. Rapporten framhäver också hur nationella aktörer integrerar AI i sina operationer.
En kinesisk grupp som riktar sig mot vietnamesisk kritisk infrastruktur använde Claude över 12 av 14 MITRE ATT&CK-taktiker – allt från rekognosering till privilegierad upptrappning och lateralt rörelse. Målen inkluderade telekomleverantörer, statliga databaser och jordbrukssystem.
”Utöver högprofilerad utpressning och spionage beskriver rapporten hur AI tyst driver bedrägerier i stor skala.”
Kriminella forum erbjuder syntetiska identitetstjänster och AI-drivna kortbutiker som kan validera stulna kreditkort över flera API:er med företagsklassad failover. Det finns till och med en Telegram-bot som marknadsförs för romantiska bedrägerier, där Claude annonserades som en ”hög EQ-modell” för att generera känslomässigt manipulerande meddelanden.
Slutsats
AI skriver inte bara skadlig kod – den skriver kärleksbrev till offer som inte vet att de blir lurade. Anthropic ramar in dessa avslöjanden som en del av sin bredare transparensstrategi: att visa hur deras egna modeller har missbrukats, samtidigt som de delar tekniska indikatorer med partners för att hjälpa det bredare ekosystemet att försvara sig mot missbruk.
Konton kopplade till dessa operationer förbjöds, och nya klassificerare rullades ut för att upptäcka liknande missbruk. Men den större slutsatsen är att AI fundamentalt förändrar ekonomin för cyberbrott. Som rapporten rakt på sak uttrycker det, ”Traditionella antaganden om förhållandet mellan aktörens sofistikering och attackens komplexitet gäller inte längre.”
En person, med rätt AI-assistent, kan nu efterlikna arbetet av en hel hackargrupp. Ransomware finns tillgängligt som en SaaS-prenumeration. Och fientliga stater integrerar AI i spionagekampanjer. Cyberbrott var redan en lukrativ verksamhet. Med AI blir det skrämande skalbart.