Studie om AI-agenter och smarta kontrakt
En nyligen genomförd studie av MATS och Anthropic Fellows bekräftar att AI-agenter kan lönsamt utnyttja sårbarheter i smarta kontrakt, vilket fastställer en ”konkret lägre gräns” för den ekonomiska skadan. Den accelererande strävan att automatisera mänskliga uppgifter med artificiell intelligens (AI) står nu inför en betydande och kvantifierbar nackdel: dessa agenter kan utnyttja sårbarheter i smarta kontrakt.
Metodik och resultat
Studien använde Smart Contracts Exploitation Benchmark (SCONE-bench) för att mäta denna risk. Forskarna implementerade modeller som Claude Opus 4.5, Claude Sonnet 4.5 och GPT-5 för att utveckla exploateringar som simulerades vara värda 4,6 miljoner dollar. SCONE-bench består av 405 smarta kontrakt som faktiskt utnyttjades mellan 2020 och 2025.
I sin rapport den 1 december angav teamet att framgången för AI-agenter i att utveckla exploateringar testade på blockchain-simulatorn fastställer ”en konkret lägre gräns för den ekonomiska skada dessa kapabiliteter kan möjliggöra.”
Forskningen gick längre genom att testa Sonnet 4.5 och GPT-5 mot 2 849 nyligen distribuerade kontrakt utan kända sårbarheter. Agenterna bevisade att de kunde generera lönsamma exploateringar även i denna nya miljö: Båda agenterna upptäckte två nya zero-day sårbarheter och producerade exploateringar värderade till 3 694 dollar. GPT-5 uppnådde denna framgång med en API-kostnad på endast 3 476 dollar.
Effektivitet och kostnadsminskning
Detta resultat fungerar som ett bevis på konceptet för den tekniska genomförbarheten av lönsam, autonom exploatering i verkliga världen, vilket understryker det omedelbara behovet av proaktiva AI-drivna försvarsmekanismer. Kanske den mest alarmerande upptäckten är den dramatiska ökningen av effektivitet: en angripare kan nu uppnå cirka 3,4 gånger fler framgångsrika exploateringar för samma datorkostnad som för sex månader sedan. Dessutom har tokenkostnaderna för framgångsrika exploateringar minskat med hela 70%, vilket gör dessa kraftfulla agenter betydligt billigare att använda.
Jean Rausis, medgrundare av SMARDEX, tillskriver denna skarpa kostnadsminskning främst till agentiska loopar. Dessa loopar möjliggör fler steg och självkorrektiva arbetsflöden som minskar tokenavfall under kontraktsanalys. Rausis framhäver också betydelsen av förbättrad modellarkitektur:
”Större kontextfönster och minnesverktyg i modeller som Claude Opus 4.5 och GPT-5 möjliggör långvariga simuleringar utan upprepning, vilket ökar effektiviteten med 15-100% i långa uppgifter.”
Han noterar att dessa optimeringsvinster överträffar råa sårbarhetsdetekteringsförbättringar (som endast ökade framgången på SCONE-bench från 2% till 51%), eftersom de fokuserar på att optimera körtid snarare än att bara upptäcka brister.
Framtida risker och rekommendationer
När studien fastställer en simulerad kostnad på 4,6 miljoner dollar, fruktar experter att den faktiska ekonomiska kostnaden kan vara avsevärt högre. Rausis uppskattar att de verkliga riskerna kan vara 10-100 gånger högre, potentiellt nå upp till 50 miljoner till 500 miljoner dollar eller mer per större exploatering. Han varnar för att med AI:s skalning kan den totala sektorspecifika exponeringen—med hänsyn till omodellerad hävstång och oracle-fel—kunna nå 10–20 miljarder dollar årligen.
MATS och Anthropic Fellows-papperet avslutas med en varning: medan smarta kontrakt kan vara det första målet för denna våg av automatiserade attacker, är proprietär programvara sannolikt nästa mål när agenterna blir bättre på omvänd ingenjörskonst. Viktigt är att papperet också påminner läsarna om att samma AI-agenter kan användas för försvar för att åtgärda sårbarheter.
För att mildra det systemiska finansiella hotet från lätt automatiserade DeFi-attacker föreslår Rausis en trestegs handlingsplan för beslutsfattare och reglerare: AI-övervakning, nya revisionsstandarder och global samordning.