Bedrägerier inom kryptovalutasektorn
Bedrägerier utgör en stor del av den olagliga verksamheten inom kryptovalutasektorn. Enligt uppgifter från Federal Bureau of Investigation (FBI) förlorade amerikanska medborgare 9,3 miljarder dollar till kryptobedrägerier under förra året. Framväxten av artificiell intelligens (AI) har ytterligare förvärrat situationen. Enligt blockchain-analysföretaget TRM Labs har AI-faciliterade bedrägerier ökat med 456 % under 2024 jämfört med tidigare år. Med utvecklingen av generativ AI (GenAI) kan illvilliga aktörer nu använda sofistikerade chattbotar, deepfake-videor, klonade röster och automatiserade nätverk av bedrägeritokens i en skala som aldrig tidigare skådats. Som ett resultat är kryptobedrägerier inte längre en mänskligt driven verksamhet, utan snarare algoritmisk, snabb, adaptiv och alltmer övertygande.
Bedrägerier i blixtens hastighet
Ari Redbord, global chef för policy och regeringsfrågor på TRM Labs, berättade för Cryptonews att generativa modeller används för att starta tusentals bedrägerier samtidigt. ”Vi ser ett kriminellt ekosystem som är smartare, snabbare och oändligt skalbart,” sa han.
Redbord förklarade att GenAI-modeller kan anpassa sig till offrets språk, plats och digitala fotavtryck. Till exempel noterade han att inom ransomware används AI för att välja offer som mest sannolikt kommer att betala, utarbeta lösenkrav och automatisera förhandlingschattar. Inom social ingenjörskonst nämnde Redbord att deepfake-röster och videor används för att bedra företag och individer i så kallade ”exekutiv impersonation” och ”familje-nödsituation” bedrägerier. Slutligen kan on-chain-bedrägerier som involverar AI-verktyg som skriver skript flytta medel mellan hundratals plånböcker inom sekunder, vilket tvättar pengar i en takt som ingen människa skulle kunna matcha.
AI-drivna försvar
Kryptovalutaindustrin vänder sig nu till AI-drivna försvar för att slå tillbaka mot dessa bedrägerier. Blockchain-analysföretag, cybersäkerhetsföretag, börser och akademiska forskare bygger maskininlärningssystem som är utformade för att upptäcka, flagga och mildra bedrägerier långt innan offren förlorar sina medel. Redbord angav att artificiell intelligens är inbyggd i varje lager av TRM Labs blockchain-intelligensplattform. Företaget använder maskininlärning för att bearbeta triljoner datapunkter över mer än 40 blockchain-nätverk. Detta gör att TRM Labs kan kartlägga plånboksnätverk, identifiera typologier och lyfta fram avvikande beteende som indikerar potentiell olaglig verksamhet.
”Dessa system upptäcker inte bara mönster – de lär sig dem. När datan förändras, så gör modellerna, och anpassar sig till den dynamiska verkligheten på kryptomarknaderna,” kommenterade Redbord.
Detta gör att TRM Labs kan se vad mänskliga utredare annars skulle kunna missa – tusentals små, till synes orelaterade transaktioner som tillsammans bildar signaturen av ett bedrägeri, tvättnätverk eller ransomware-kampanj.
AI vs. AI Användningsfall
Dessa verktyg visar redan sig vara effektiva. Matt Vega, Sardines stabschef, berättade för Cryptonews att när Sardine upptäcker ett mönster, utför företagets AI en djup analys för att hitta trendrekommendationer för att stoppa en attackvektor från att inträffa. ”Detta skulle normalt ta en människa en dag att slutföra, men med AI tar det sekunder,” sa han.
Till exempel förklarade Vega att Sardine arbetar nära med ledande kryptobörser för att flagga ovanligt användarbeteende. Användartransaktioner körs genom Sardines beslutsplattform, och AI-analys hjälper till att avgöra utfallet av dessa transaktioner, vilket ger börserna förhandsinformation.
Ett blogginlägg från TRM Labs förklarar vidare att i maj bevittnade företaget en live deepfake under ett videosamtal med en sannolik finansiell grooming-bedragare. ”Vi misstänkte att denna bedragare använde deepfake-teknologi på grund av personens onaturliga utseende,” förklarade Redbord.
Även om TRM Labs var framgångsrika har denna specifika bedrägeri och andra relaterade till den stulit cirka 60 miljoner dollar från ovetande offer. Cybersäkerhetsföretaget Kidas använder också AI för att upptäcka och förhindra bedrägerier. Ron Kerbs, grundare och VD för Kidas, berättade för Cryptonews att när AI-drivna bedrägerier har ökat kan Kidas egna modeller nu analysera innehåll, beteende och audiovisuella inkonsekvenser i realtid för att identifiera deepfakes och LLM-skapad phishing vid interaktionspunkten.
”Detta möjliggör omedelbar riskbedömning och realtidsintervention, vilket är det enda sättet att motverka automatiserade, storskaliga bedrägeriverksamheter,” sa Kerbs.
Kerbs tillade att bara förra veckan lyckades Kidas verktyg framgångsrikt avbryta två distinkta kryptobedrägeriförsök i Discord. ”Denna snabba identifiering visar verktygets avgörande realtidsbeteendeanalysförmåga, vilket effektivt förhindrar kompromettering av användarkonton och potentiell ekonomisk förlust,” sa han.
Skydda mot AI-drivna bedrägerier
Även om det är tydligt att AI-drivna verktyg används för att upptäcka och förhindra sofistikerade bedrägerier, kommer dessa attacker att fortsätta öka. ”AI sänker inträdesbarriären för sofistikerad brottslighet, vilket gör dessa bedrägerier mycket skalbara och personliga, så de kommer säkert att få mer fäste,” kommenterade Kerbs. Han tror att semi-autonoma illvilliga AI-agenter snart kommer att kunna orkestrera hela attackkampanjer, vilket kräver minimal mänsklig övervakning med otraceable röst-till-röst deepfake impersonation i live-samtal.
Även om detta är oroande, påpekade Vega att det finns specifika steg som användare kan ta för att förhindra att de blir offer för sådana bedrägerier. Till exempel förklarade han att många attackvektorer är spoofade webbplatser, som användare så småningom kommer att besöka och sedan klicka på falska länkar. ”Användare bör leta efter grekiska alfabetets bokstäver på webbplatser. Det amerikanska multinationella teknikföretaget Apple blev nyligen offer för detta, då en angripare skapade en falsk webbplats med en grekisk ’A’-bokstav i Apple.” Användare bör också hålla sig borta från sponsrade länkar och vara uppmärksamma på URL:er.
Dessutom arbetar företag som Sardine och TRM Labs nära med reglerande myndigheter för att avgöra hur man kan bygga skyddsnät som använder AI för att mildra risken för AI-drivna bedrägerier.
”Vi bygger system som ger brottsbekämpning och efterlevnadsproffs samma hastighet, skala och räckvidd som brottslingar nu har – från att upptäcka realtidsavvikelser till att identifiera koordinerad cross-chain tvättning. AI gör att vi kan flytta riskhantering från något reaktivt till något förutsägbart,” sa Redbord.