med lite oppmerksomhet.
0G sier de passerte en viktig milepæl for flere måneder siden. Nå trener de opp den samme modellen offentlig, med mål om å vise hva desentralisert AI faktisk kan levere, og hvorfor det tidligere resultatet fortjener mer oppmerksomhet.
I juli 2025 trente 0G og China Mobile opp en modell kalt DiLoCoX-107B med 107 milliarder parametere. Forskningen ble senere publisert på arXiv etter fagfellevurdering. Ifølge artikkelen oppnådde systemet 357 ganger bedre kommunikasjonseffektivitet enn tradisjonelle AllReduce-metoder. Likevel fikk resultatet knapt omtale i markedet.
Teamet sier at tidspunktet ikke var i deres favør. Midten av 2025 var kryptofokus rettet mot mainnet-lanseringer og token-historier, mens tekniske resultater fikk langt mindre interesse. Arbeidet var seriøst, men fikk ikke gjennomslag utenfor en liten krets som fulgte feltet tett.
Nå, med desentralisert AI tilbake i fokus, ønsker 0G å trekke resultatene frem igjen.
Et offentlig omskoleringsinitiativ
Denne gangen foregår opptreningen åpent.
0G planlegger å dokumentere hvert steg, inkludert sjekkpunkter, konvergensmålinger og datakilder. De sier også at prosessen vil bli verifisert gjennom Trusted Execution Environments med zerogAuth. Når arbeidet er ferdig, blir modellvektene åpen kildekode.
Til syvende og sist ønsker 0G å vise at desentralisert AI kan revideres, gjenskapes og verifiseres på en måte de fleste lukkede systemer ikke kan matche.
Mer enn en parameter-konkurranse
Mye av mediedekningen om AI dreier seg fortsatt om antall parametere. Større tall trekker til seg oppmerksomhet, men 0G hevder at modellens verdi ligger i hele systemet rundt.
For teamet starter den virkelige testen med treningen og fortsetter videre med verifisering, lagring, distribusjon og integrering i fungerende produkter.
Et av hovedpoengene er kommunikasjonseffektivitet. DiLoCoX bruker pipeline-parallelisme, en dobbel optimaliseringspolicy for lokale og globale oppdateringer, et ett-stegs forsinket overlappingsmekanisme og adaptiv gradientkomprimering. Enkelt forklart kutter designet ned mengden kommunikasjon som er nødvendig i distribuert trening, som ofte er flaskehalsen i slike systemer.
0G setter også modellen inn i en helhetlig stack som inneholder verifisering på blokkjeden, desentralisert lagring, data tilgjengelighet, inferens og oppgjør. Resultatet er et fungerende miljø, ikke kun et engangs forskningsprosjekt.
Verifisering er også en viktig del. Med Trusted Execution Environments kan brukere kontrollere mer enn bare at en modell finnes. De kan også undersøke hvordan den ble trent, og hvilke data som ble brukt i prosessen. For desentralisert AI endrer det tillitsmodellen på en meningsfull måte.
Den virkelige historien er båndbredde
Ifølge 0G var det viktigste med DiLoCoX-107B resultater måten modellen ble trent på.
Teamet sier at 107B-modellen kjørte på vanlige internettforbindelser med én gigabit per sekund i stedet for i spesialiserte datasentermiljøer. Det utfordrer en av de største antakelsene i AI, nemlig at grensetesting krever sjeldne og dyre nettverksforhold.
Hvis det holder seg over tid, kan virkningen bli betydelig. Lavere tekniske krav åpner døren for langt flere aktører, fra forskningsgrupper til selskaper og offentlige institusjoner. Da blir koordinering hovedutfordringen, og desentraliserte systemer er bygget for nettopp slike problemer.
En annen prismodell
0G sier også at systemet reduserer kostnadene med omtrent 95 % sammenlignet med sentraliserte alternativer.
Selskapet tilskriver denne reduksjonen til fjerning av dyr, sentralisert administrasjon, heller enn billigere maskinvare. Dersom disse tallene stemmer i praksis, blir avansert modelltrening tilgjengelig for langt flere organisasjoner, inkludert universiteter, selskaper og myndigheter som ikke har budsjett til hyperskala AI-investeringer.
Det kan endre hvem som får muligheten til å bygge seriøse modeller i utgangspunktet.
Kan desentralisert AI konkurrere
Skeptikere har lenge ment at desentralisert AI ikke kan holde følge med ytelsen. 0G mener denne tradisjonelle motsetningen er i ferd med å svekkes.
Etter hvert som resultatene forbedres og kostnadene faller, handler diskusjonen mindre om ideologi og mer om resultat. Kan systemet trene sterke modeller, verifisere dem, og gjøre det til en pris som flere lag har råd til?
Åpen deltakelse innebærer fortsatt reell risiko. Distribuert trening kan utsette systemene for datapåvirkning, manipulasjon av gradienter og ulik bidragkvalitet. 0G sier de møter disse utfordringene med arkitektoniske sikkerhetstiltak, avviksdeteksjon og kryptografisk verifisering.
Målet er ikke perfekt sikkerhet. Målet er å gjøre feil synlige og sporbare.
Hva verifiable AI egentlig betyr
For 0G handler verifiserbar AI om å erstatte tillit gjennom omdømme med tillit gjennom innsikt.
I stedet for å stole på leverandøren får brukere muligheten til å sjekke selv hvordan en modell ble trent og hvordan den fungerer. Den idéen er åpenbart verdifull i områder der ansvarlighet betyr mye, blant annet i finans, helsevesen og offentlig sektor.
Det er her desentralisert AI begynner å skille seg ut, med systemer folk kan inspisere i stedet for å stole blindt på.
Fra forskningsdemo til fungerende system
Desentralisert AI-feltet har kommet langt på kort tid. Tidlige konseptbevis blir nå erstattet av systemer bygget for trening, verifisering, lagring, inferens og økonomisk oppgjør i ett og samme miljø.
0G vil at DiLoCoX-107B skal stå som et bevis på denne utviklingen. Den offentlige rekonstruksjonen handler like mye om prosessen som om ytelsen. Selskapet prøver å vise at desentralisert AI kan produsere seriøse modeller og samtidig være åpen for innsyn.
Veien videre
Større modeller er fortsatt på horisonten. 0G tror modeller med hundrevis av milliarder, og til slutt billioner av parametere, er innen rekkevidde.
Neste steg handler mindre om et enkelt vitenskapelig gjennombrudd, og mer om bedre koordinering og sterkere nettverksdeltakelse. I desentralisert AI kan organisering vise seg å være like viktig som regnekraft.
Retraining av DiLoCoX-107B er et forsøk på å gjenåpne en samtale 0G mener markedet gikk glipp av første gang. Det er også en test på om åpen, etterprøvbar AI kan vekke oppmerksomhet basert på resultater i stedet for hype.
Foreløpig satser selskapet på at offentlig retrening, transparent dokumentasjon og åpen tilgang vil gi desentralisert AI et sterkere utgangspunkt i neste konkurranserunde.