AI-agenter dominerte ETHDenver 2026, fra autonome finansløsninger til roboter på blokkjeden. Men etter hvert som entusiasmen rundt “agentbaserte økonomier” øker, dukker et vanskeligere spørsmål opp: Kan institusjoner bevise hva AI-systemene deres ble trent på?
Blant oppstartsbedriftene som retter seg mot dette problemet er Perle Labs, som hevder at AI-systemer trenger en verifiserbar kjede for eierskap til treningsdataene sine, spesielt i regulerte og risikofylte miljøer. Med et fokus på å bygge en reviderbar og akkreditert datainfrastruktur for institusjoner, har Perle hentet inn $ 17,5 millioner så langt, med siste finansieringsrunde ledet av Framework Ventures. Andre investorer inkluderer CoinFund, Protagonist, HashKey og Peer VC. Selskapet rapporterer at mer enn én million annotatorer har bidratt med over én milliard poengsatte datapunkter på deres plattform.
BeInCrypto snakket med Ahmed Rashad, daglig leder for Perle Labs, i forbindelse med ETHDenver 2026. Rashad hadde tidligere en operasjonell lederrolle i Scale AI under selskapets hypervekstfase. I samtalen diskuterte han dataproveni, model collapse, adversarielle risikoer, og hvorfor han mener suveren intelligens blir et krav for å bruke AI i kritiske systemer.
BeInCrypto: Du beskriver Perle Labs som det «suverene intelligenslaget for AI». For lesere som ikke kjenner til debatten rundt datainfrastruktur, hva betyr egentlig det i praksis?
Ahmed Rashad: “Ordet suveren er bevisst valgt, og det har flere lag.
Den mest bokstavelige meningen er kontroll. Hvis du er en regjering, et sykehus, en forsvarsentreprenør eller en stor bedrift som tar i bruk AI i et risikofylt miljø, må du eie intelligensen bak systemet, ikke overlate det til en black box du ikke kan inspisere eller revidere. Suveren betyr at du vet hva AI-en din ble trent på, hvem som validerte det, og at du kan bevise det. De fleste i bransjen i dag kan ikke si det.
Den andre betydningen er uavhengighet. Å handle uten innblanding utenfra. Dette er akkurat det institusjoner som DoD, eller en bedrift, trenger når de skal bruke AI i sensitive miljøer. Du kan ikke ha en kritisk AI-infrastruktur som avhenger av dataflyter du ikke kontrollerer, ikke kan verifisere og ikke kan forsvare mot manipulering. Dette er ikke en teoretisk risiko. NSA og CISA har begge utstedt operasjonelle retningslinjer om sårbarheter i datasupply chain som en nasjonal sikkerhetsutfordring.
Den tredje betydningen er ansvarlighet. Når AI går fra å generere innhold til å ta avgjørelser – medisinske, finansielle, militære – må noen kunne svare: Hvor kom intelligensen fra? Hvem verifiserte den? Er denne loggen permanent? På Perle er målet vårt å ha hvert bidrag fra hver ekspertannotator registrert på blokkjeden. Det kan ikke skrives om. Denne uforanderligheten gjør ordet suveren nøyaktig og ikke bare ambisiøst.
I praksis bygger vi et lag for verifisering og akkreditering. Hvis et sykehus tar i bruk et AI-diagnostikksystem, skal det kunne spore hvert datapunkt i treningssettet tilbake til en akkreditert fagperson som har validert det. Det er suveren intelligens. Det er det vi mener.”
BeInCrypto: Du var en del av Scale AI i deres hypervekstfase, inkludert store forsvarskontrakter og Meta-investeringen. Hva lærte den erfaringen deg om hvor tradisjonelle AI-dataprosesser svikter?
Ahmed Rashad: “Scale var et fantastisk selskap. Jeg var der i perioden hvor det gikk fra $ 90M til nå $ 29B, alt det tok form, og jeg fikk se hvor det begynte å sprekke.
Det grunnleggende problemet er at datakvalitet og skala trekker i motsatt retning. Når du vokser 100x, er presset alltid på å bevege seg raskt: mer data, raskere annotering, lavere kostnad per etikett. Og det går utover presisjon og ansvarlighet. Du ender opp med ugjennomsiktige prosesser: Du vet sånn omtrent hva som kom inn, du har noen kvalitetsmålinger på hva som kom ut, men midten er en black box. Hvem validerte dette? Var de faktisk kvalifisert? Var annotasjonen konsekvent? Disse spørsmålene er nesten umulige å svare på i skala med tradisjonelle metoder.
Det andre jeg lærte, er at det menneskelige elementet nesten alltid blir behandlet som en kostnad som skal minimeres, og ikke som en ressurs som skal utvikles. Transaksjonsmodellen – betaling per oppgave og optimalisering for gjennomstrømning – fører til at kvaliteten blir stadig dårligere. Det brenner ut de beste bidragsyterne. De som kan gi virkelig ekspertanmerkninger av høy kvalitet er ikke de samme menneskene som vil utføre mikrotasker for noen småpenger. Du må bygge annerledes hvis du vil ha den typen innspill.
Den erkjennelsen er grunnlaget for Perle. Dataproblemet løses ikke ved bare å ha flere folk. Det løses ved å behandle bidragsytere som fagfolk, bygge inn verifiserbare akkrediteringer i systemet, og gjøre hele prosessen etterprøvbar helt ut.”
BeInCrypto: Dere har nådd én million annotatorer og over én milliard poengsatte datapunkter. De fleste plattformer for datamerking er avhengig av anonym crowdarbeid. Hva er strukturelt annerledes med deres omdømmesystem?
Ahmed Rashad: “Den grunnleggende forskjellen er at på Perle, eiers du arbeidshistorikken din, og den er permanent. Når du fullfører en oppgave, blir loggen over det bidraget, kvaliteten det nådde, hvordan det sammenlignet med ekspertkonsensus, skrevet på blokkjeden. Det kan ikke endres, kan ikke slettes, kan ikke omfordeles. Over tid blir det en akkreditering som vokser.
Sammenlign det med anonym crowdarbeid, hvor en person nærmest er utskiftbar. De har ingen interesse av kvalitet fordi deres omdømme ikke eksisterer, hver oppgave er løsrevet fra den forrige. Insentivstrukturen gir det du forventer: minimum innsats.
Vårt system snur det på hodet. Bidragsytere bygger verifiserbare spor. Plattformen kjenner igjen fagkompetanse. For eksempel kan en radiolog som konsekvent leverer medisinske bildeanmerkninger av høy kvalitet, bygge en profil som viser det. Dette omdømmet gir tilgang til oppgaver med høyere verdi, bedre honorar og mer meningsfullt arbeid. Det er en synergieffekt: kvalitet forsterkes fordi det blir belønnet.
Vi har passert en milliard poeng på tvers av vårt annotatornettverk. Det er ikke bare et volummål, det er én milliard sporbare, tilskrevne datainnsamlinger fra verifiserte mennesker. Det er fundamentet for pålitelig AI-treningsdata, og det er umulig å replisere med anonym crowdarbeid.”
BeInCrypto: Model collapse diskuteres mye i forskningsmiljøene, men sjelden i mainstream AI-samtaler. Hvorfor tror du det er slik, og burde flere være bekymret?
Ahmed Rashad: “Det kommer ikke inn i mainstream samtaler fordi det er en langsom krise, ikke en dramatisk en. Model collapse, der AI-systemer trent mer og mer på AI-genererte data begynner å forringes, mister nyanser og presses mot gjennomsnittet, gir ikke en overskriftsvennlig hendelse. Det gir en gradvis forvitring av kvalitet som er lett å ikke oppdage før det blir alvorlig.
Mekanismen er enkel: Internett fylles opp med AI-generert innhold. Modeller trent på dette lærer fra sine egne utdata i stedet for ekte menneskelig kunnskap og erfaring. Hver generasjon med trening forsterker forvrengningene fra den forrige. Det er en tilbakemeldingssløyfe uten naturlig korrigering.
Bør flere være bekymret? Ja, spesielt i risikofylte områder. Når model collapse påvirker en algoritme for innholdsanbefalinger, får du dårligere anbefalinger. Når det gjelder et medisinsk diagnosetilfelle, et juridisk system eller et forsvarsverktøy, er konsekvensene fundamentalt annerledes. Toleransen for forringelse forsvinner.
Dette er grunnen til at det menneskebekreftede datalaget ikke er valgfritt når AI blir en del av kritisk infrastruktur. Du trenger en kontinuerlig kilde til ekte, mangfoldig menneskelig intelligens å trene mot, ikke AI-utganger filtrert gjennom en annen modell. Vi har over én million annotatører som representerer reell fagekspertise på tvers av dusinvis av felt. Det mangfoldet er motgiften mot modellkollaps. Du kan ikke fikse det med syntetiske data eller mer datakraft.
BeInCrypto: Når AI går fra digitale miljøer til fysiske systemer, hva endrer seg grunnleggende når det gjelder risiko, ansvar og standardene som benyttes under utviklingen?
Ahmed Rashad: Irreversibiliteten endres. Det er kjernen. En språkmodell som hallusinerer gir et feil svar. Du kan rette det opp, merke det, gå videre. Et robotisert kirurgisk system som opererer på feil konklusjon, et autonomt kjøretøy som gjør en dårlig klassifisering, en drone som handler på et feilidentifisert mål, de feilene har ingen angreknapp. Kostnaden ved feil går fra pinlig til katastrofal.
Det endrer alt om hvilke standarder som bør gjelde. I digitale omgivelser har AI-utvikling i stor grad fått gå fort frem og korrigere seg selv. I fysiske systemer er den modellen uholdbar. Opplæringsdataene bak disse systemene må verifiseres før de tas i bruk, ikke kontrolleres etter en hendelse.
Det endrer også ansvarsforhold. I en digital sammenheng er det relativt enkelt å spre ansvaret: var det modellen? Dataene? Utrullingen? I fysiske systemer, spesielt der mennesker skades, vil myndigheter og domstoler kreve klare svar. Hvem trente dette? På hvilke data? Hvem validerte de dataene og etter hvilke standarder? Selskapene og myndighetene som kan svare på de spørsmålene, vil få lov å operere. De som ikke kan det, vil møte et ansvar de ikke hadde forutsett.
Vi bygde Perle for akkurat denne overgangen. Menneskelig verifisert, ekspertkildebasert, auditerbar på blokkjeden. Når AI begynner å operere i lager, operasjonssaler og på slagmarken, må intelligenslaget under møte en helt annen standard. Det er denne standarden vi bygger mot.
BeInCrypto: Hvor reell er trusselen om datapåvirkning eller fiendtlig manipulasjon i AI-systemer i dag, spesielt på nasjonalt nivå?
Ahmed Rashad: Trusselen er reell, dokumentert, og blir allerede behandlet som en nasjonal sikkerhetsprioritet av folk med tilgang til gradert informasjon om dette.
DARPA sitt GARD-program (Guaranteeing AI Robustness Against Deception) brukte flere år på å utvikle forsvar mot fiendtlige angrep på AI-systemer, inkludert datapåvirkning. NSA og CISA kom i 2025 med felles veiledning som eksplisitt advarer om at sårbarheter i datasupply chain og ondsinnet endrede opplæringsdata utgjør reelle trusler mot integriteten til AI-systemer. Dette er ikke teoretiske white papers. Dette er operative veiledninger fra etater som ikke publiserer advarsler om hypotetiske risikoer.
Angrepsflaten er betydelig. Hvis du kan kompromittere opplæringsdataene til et AI-system brukt for trusseldeteksjon, medisinsk diagnose eller logistikkoptimalisering, trenger du ikke hacke selve systemet. Du har allerede formet hvordan det ser verden. Det er en mye mer elegant og vanskeligere å oppdage angrepsvei enn tradisjonelle cybersikkerhetsinntrengninger.
Kontrakten på $ 300 millioner som Scale AI har med forsvarsdepartementets CDAO, for å implementere AI på graderte nettverk, eksisterer delvis fordi myndighetene forstår at de ikke kan bruke AI trent på ikke-verifiserte offentlige data i sensitive miljøer. Spørsmålet om dataproveniensen er ikke akademisk på det nivået. Det er operasjonelt.
Det som mangler i den offentlige samtalen er at dette ikke bare er et myndighetsproblem. Alle virksomheter som implementerer AI i et konkurranseutsatt miljø, finansielle tjenester, farmasi, kritisk infrastruktur, har en eksponering for fiendtlig påvirkning av data som de sannsynligvis ikke har full oversikt over. Trusselen er reell. Forsvaret bygges fortsatt.
BeInCrypto: Hvorfor kan ikke en stat eller en stor virksomhet bare bygge dette verifiseringslaget selv? Hva er det reelle svaret når noen motsetter seg det?
Ahmed Rashad: Noen prøver. Og de som prøver, lærer raskt hva det egentlige problemet er.
Å bygge teknologien er den enkle delen. Den vanskelige delen er nettverket. Verifiserte, godkjente fageksperter, radiologer, lingvister, jurister, ingeniører, forskere, dukker ikke bare opp fordi du lager en plattform for dem. Du må rekruttere dem, godkjenne dem, bygge insentivstrukturer som holder dem engasjert og utvikle kvalitetskonsensusmekanismer som gjør bidragene deres meningsfulle i stor skala. Det tar år, og krever kompetanse som de fleste myndigheter og virksomheter ganske enkelt ikke har internt.
Det andre problemet er mangfold. En offentlig etat som bygger sitt eget verifiseringslag vil, av natur, rekruttere fra en begrenset og relativt homogen gruppe. Verdien av et globalt ekspertnettverk handler ikke bare om godkjenning, men om spennvidden i perspektiv, språk, kulturell kontekst og fagekspertise du bare får ved å operere i reell skala over hele verden. Vi har over én million annotatører. Det kopierer du ikke internt.
Det tredje problemet er insentivdesign. Å holde høykvalitetsbidragsytere engasjert over tid krever åpen, rettferdig og programmerbar kompensasjon. Blokkjedeinfrastruktur gjør det mulig på en måte interne systemer normalt ikke kan: uforanderlige bidragslogger, direkte attribuering og verifiserbar betaling. Et offentlig innkjøpssystem er ikke bygd for å gjøre dette effektivt.
Det ærlige svaret på motstanden er: Du kjøper ikke bare et verktøy. Du får tilgang til et nettverk og et godkjenningssystem det tok år å bygge. Alternativet er ikke ‘bygg det selv’, men ‘bruk det som allerede eksisterer eller aksepter risikoen for datakvalitet ved å ikke ha det’.
BeInCrypto: Hvis AI blir kjerneinfrastruktur for nasjonen, hvor ligger et suverent intelligenslag i den stacken om fem år?
Ahmed Rashad: Om fem år tror jeg det vil ligne slik revisjon fungerer i finans i dag: et ufravikelig verifiseringslag mellom data og bruk, med regulering og profesjonelle standarder knyttet til det.
Akkurat nå utvikles AI uten noe tilsvarende finansrevisjon. Selskapene rapporterer selv om opplæringsdataene sine. Det finnes ingen uavhengig verifisering, ingen profesjonell akkreditering av prosessen, ingen tredjepartsbekreftelse på at intelligensen bak en modell møter en definert standard. Vi er i en tidlig fase, tilsvarende finans før Sarbanes-Oxley, der alt drives på tillit og egenerklæring.
Etter hvert som AI blir kritisk infrastruktur og driver strømnett, helsesystemer, finansmarkeder og forsvarsnettverk, blir denne modellen uholdbar. Myndighetene vil kreve revisjonsmulighet. Innkjøpsprosesser vil kreve verifisert dataproveiens som kontraktsbetingelse. Ansvarsregler vil pålegge konsekvenser for feil som kunne vært unngått med riktig verifisering.
Perle sin plass i denne stacken er som verifiserings- og godkjenningslaget, en instans som kan dokumentere nøyaktig, etterprøvbart og uforanderlig hvilke data modellen ble trent på, av hvem, og etter hvilke standarder. Dette er ikke et tillegg til AI-utvikling om fem år. Det er et krav.
Hovedpoenget er at suveren intelligens ikke er et smalt anliggende for forsvarsleverandører. Det er grunnlaget som gjør AI anvendbar i ethvert miljø der feil har reelle konsekvenser. Etter hvert som AI tas i bruk i flere slike sammenhenger, blir fundamentet den mest verdifulle delen av stacken.