Tilbake

Når AI-agenter blir DeFi sine hovedbrukere

Velg oss på Google
author avatar

Skrevet av
Bradley Peak

editor avatar

Redigert av
Shilpa Lama

02. april 2026 08:08 UTC

Hvis autonome agenter blir de dominerende brukerne av DeFi, begynner blokkjeder å gjøre en annen jobb. De fungerer som koordinerings- og oppgjørssystemer for programvare, snarere enn soner som styres av menneskelig timing, følelser og spekulasjon.

Federico Variola, CEO i Phemex, sier at dette kan forbedre hvordan aktivitet på kjeden utvikler seg. Han sier:

“Nylig har blokkjede-økosystemene slitt fordi mange tokens ikke har klart å få fart, og mye av aktiviteten har blitt til PvP-trading der brukere prøver å hente ut verdi fra hverandre.”

Etter hans syn “kan agenter oppføre seg mer samarbeidsvillig i stedet for kun utvinningsbasert, rett og slett fordi de har en tendens til å opptre mer rasjonelt enn menneskelige deltakere.”

Dmitry Lazarichev, medgrunnlegger av Wirex, fokuserer på hvordan dette endrer atferd

“Når agenter blir hovedaktører, begynner kjeden å oppføre seg mindre som et marked for mennesker og mer som en del av maskininfrastruktur.”  

“Aktiviteten blir kontinuerlig: agenter venter ikke på markedstider, de blir ikke slitne, og de handler ikke etter humør.”

Den aktiviteten øker effektiviteten, men innfører også nye stressfaktorer. Hvis agenter baserer seg på lignende input, sier Lazarichev:

“Du kan få flokkatferd og kraftige tilbakemeldingssløyfer,” med økende press rundt “blockspace, avgiftsdynamikk, MEV og kvaliteten på gjennomføringsgarantier.”

Fernando Lillo Aranda, markedsdirektør i Zoomex, mener at overgangen går enda dypere. Han sier:

“Når AI-agenter blir de dominerende deltakerne i et blokkjede-økosystem, går vi over fra en brukerbasert markedsstruktur til et system for autonom økonomisk koordinering.”

I et slikt miljø begynner blokkjeder å fungere som eksekveringssystemer for maskinnative strategier.

Pauline Shangett, CSO i ChangeNOW, bekrefter dette:

“Nettverket tjener ikke lenger mennesker, det hoster algoritmer som mennesker ikke lenger kan overvåke i sanntid.”

I eksklusive intervjuer med disse fire kryptoekspertene undersøkte BeInCrypto hvordan DeFi endrer seg når AI-agenter blir de viktigste brukerne.

Agentic liability har ennå ikke et klart svar

Hvis AI-agenter kan gjennomføre transaksjoner, lansere kontrakter eller flytte midler autonomt, blir det vanskeligere å fastslå ansvar når noe går galt.

Lazarichev sier at autonomi ikke kan brukes som unnskyldning. 

“Poenget er at ‘agenten gjorde det’ ikke kan bli et smutthull for ansvar,” sier han. 

Han mener agenten fortsatt handler “under noens autoritet, med tillatelser og grenser satt av en person eller organisasjon.” Det gjør at fokuset blir på “hvem som lanserte det, hvem som konfigurerte det, hvem som tjener på det, og hvem som leverte modellen og driftsmiljøet.”

Han sier at løsningen vil basere seg på kjente standarder. 

“Hvis du lanserer et autonomt system som kan flytte verdi, bør det forventes at du har grunnleggende beskyttelsestiltak på plass,” inkludert “rettighetsstyring, forbruksgrenser, transaksjonssimulering, nødbrytere og revisjonslogger.”

Shangett mener dagens juridiske tenkning fortsatt støtter seg på utdaterte prinsipper:

“Vi har allerede lover. De er bare 30 år gamle og laget for en verden der programvare ikke kunne svare tilbake. De .rammeverkene folk stadig nevner – ETHOS, NIST, nye PLD – de er alle lapper på et system som ikke ble laget for dette. Vi trenger noe nytt. Å late som noe annet er bare uforsvarlig.”

Hun peker også på et dypere problem. “Agency law forutsetter at agenten kan saksøkes. Din AI-agent kan ikke det. Den har ingen lommebok, ingen forsikring, ingen juridisk personlighet.”

Identitet betyr ikke lenger kun menneske

Etter hvert som flere autonome systemer opererer på kjeden, får også identitet en annen rolle. Nettverk må avklare hvilken type aktør de samhandler med, og hva den aktøren har lov til å gjøre.

Lazarichev sier at “DID kan hjelpe, men det vil ikke løse ‘menneske vs bot’ på en klar, binær måte.” 

Han mener dette skillet ikke fanger opp hvordan systemene fungerer. “Mange bots vil være legitime deltakere,” sier han. “Det som betyr noe er å kunne fastslå hvilken type aktør noe er, og hvilket nivå av sikkerhet som ligger bak.”

Det fører til mer definerte tilgangskontroller. “Den mer realistiske modellen er gradert tilgang: forskjellige legitimasjoner for ulike privilegier,” sier Lazarichev. 

Han legger til at identitetssystemer må fungere sammen med atferdsovervåkning, spesielt når agenter håndterer handlinger med høyere verdi.

Lillo Aranda er enig. “I en maskinøkonomi er ‘brukeren’ en agent – dermed blir pålitelighet, determinisme og komposisjonsevne viktigere enn enkelhet som designprinsipper,” sier han. 

Shangett forsterker også dette poenget. “Bots er ikke lenger problemet. Det er agentene.”

Alle de tre ekspertene peker mot en modell der identitet handler om rolle, tillatelser og ansvarlighet.

Wallet-sikkerhet brytes på prompt-laget

For autonome lommebøker er den største sikkerhetsrisikoen kanskje ikke stjålne nøkler, men manipulerte beslutninger.

Lazarichev sier at prompt injection er farlig fordi det “retter seg mot beslutningslaget i stedet for kryptografien.” Hvis en agent henter inn data fra eksterne kilder, kan angripere “lede den til å gjøre noe den ikke burde: endre en mottakeradresse, godkjenne en ondsinnet kontrakt, utvide tillatelser, eller omgå en intern kontroll.”

Risikoen øker raskt når lommeboken har bred myndighet. “Du trenger ikke å bryte krypteringen hvis du kan manipulere systemet til å godkjenne feil handling,” sier Lazarichev.

Shangett peker på en mer spesifikk trusselmodell.

“Alle er entusiastiske for at AI-agenter skal få lommebøker. Jeg er mer bekymret for hva som skjer når disse lommebøkene blir overtalt til å tømme seg selv.”

Hun nevner Owockibot som et eksempel.

“Owockibot. Februar i år. En AI-agent med en kryptolommebok og internett-tilgang. Fem dager etter lansering publiserte den sine private nøkler i et GitHub-repo. Da den ble spurt om dette, avviste agenten at den hadde gjort noe galt. Totalt tap var bare $ 2100 fordi noen var smarte nok til å gi den et lite forråd. Men agenten ble ikke hacket. Den ble overtalt til å lekke.”

Naturally, this changes the security model. 

“Dette er den nye angrepsflaten. Smarte kontrakter er deterministiske, samme input gir samme output, sporbare og testbare. LLM-er er ingen av delene.”

Hun legger til:

“Gir du en AI-agent en lommebok, så handler det ikke lenger bare om å sikre kode, du skal sikre en svart boks som kan manipuleres med ord.”

Etter hennes mening er dette grunnen til at nøkkeloppbevaring alene ikke er nok.

“Sikkerhet for private nøkler har aldri vært den viktigste trusselvektoren for agent-lommebøker. Du kan legge nøkler i en TEE, isolere dem fra minnet, gjøre all verdens kryptografi, men agenten kan fortsatt manipuleres til å signere ondsinnede transaksjoner fordi noen har snakket den inn i det.”

Begge ekspertene peker på at definisjonen av lommeboksikkerhet må justeres. I en agentisk økonomi innebærer det både oppbevaring og hva agenten kan tolke og handle ut fra.

Avsluttende tanker

Den agentiske økonomiens fremvekst kan påvirke hva blokkjeder bygges for å gjøre, hvem de skal betjene og hvor risikoen starter.

Hvis autonome systemer blir viktige aktører på kjeden, må nettverk støtte kontinuerlig maskindrevet aktivitet og håndtere helt nye typer press knyttet til utførelse, ansvar, identitet og sikkerhet.

Som Variola antyder, kan et marked drevet av rasjonelle agenter bli mer samarbeidsorientert enn de utvinnings- og følelsesdrevne miljøene kryptovaluta ofte har produsert.

Lazarichev, Lillo Aranda og Shangett viser også at denne fremtiden vil stille vanskeligere spørsmål. Når agenter kan overføre, implementere og reagere uten menneskelig innblanding ved hvert steg, blir det vanskeligere å fastsette ansvar, vanskeligere å definere identitet, og lommeboksikkerhet strekker seg utover nøkkelbeskyttelse og inn i selve beslutningsprosessen.

Hvis AI-agenter blir de viktigste aktørene på kjeden, må Web3 ha systemer som kan støtte autonome handlinger og samtidig sikre ansvarlighet, kontroll og tillit. Det kan vise seg å være like viktig som selve automatiseringen.

Ansvarsfraskrivelse

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.