Trusted

Vitalik Buterin advarer: Superintelligent AI kan komme raskere enn du tror

2 mins
Oppdatert av Harsh Notariya

I korte trekk

  • Ethereums medgründer understreker behovet for defensiv akselerasjon for å dempe trusler fra superintelligent AI.
  • Buterin taler for AI-systemer knyttet til menneskelige beslutninger for å minimere risikoen for misbruk, spesielt av militæret.
  • Han foreslår ansvarsregler, "soft pause"-knapper og AI-maskinvarekontroll for å forsinke farlige fremskritt.

Ethereum medgründer Vitalik Buterin har hevet advarsler om risikoene forbundet med superintelligent AI og behovet for en sterk forsvarsmekanisme.

Buterins kommentarer kommer på et tidspunkt hvor den raske utviklingen av kunstig intelligens har ført til betydelig økte bekymringer om AI-sikkerhet.

Buterins AI-reguleringsplan: ansvar, pauseknapper og internasjonal kontroll

I et blogginnlegg datert 5. januar, skisserte Vitalik Buterin sin idé bak ‘d/acc eller defensiv akselerasjon,’ hvor teknologi bør utvikles for å forsvare snarere enn å forårsake skade. Dette er imidlertid ikke første gang Buterin har tatt opp risikoene forbundet med kunstig intelligens

“En måte AI som har gått galt kan gjøre verden verre på, er (nesten) den verste mulige måten: det kan bokstavelig talt forårsake menneskelig utryddelse,” sa Buterin i 2023.

Buterin har nå fulgt opp sine teorier fra 2023. Ifølge Buterin er superintelligens potensielt bare noen få år unna å eksistere. 

“Det ser ut til at vi har tre års tidslinjer til AGI og ytterligere tre år til superintelligens. Og derfor, hvis vi ikke vil at verden skal bli ødelagt eller på annen måte falle i en irreversibel felle, kan vi ikke bare akselerere det gode, vi må også bremse det dårlige,” skrev Buterin.

For å redusere AI-relaterte risikoer, foreslår Buterin opprettelsen av desentraliserte AI-systemer som forblir tett knyttet til menneskelig beslutningstaking. Ved å sikre at AI forblir et verktøy i menneskers hender, kan trusselen om katastrofale utfall minimeres.

Buterin forklarte deretter hvordan militæret kunne være de ansvarlige aktørene for et ‘AI doom’-scenario. Bruken av AI i militæret øker globalt, som sett i Ukraina og Gaza. Buterin mener også at enhver AI-regulering som trer i kraft mest sannsynlig vil unnta militæret, noe som gjør dem til en betydelig trussel.

Ethereum medgründer skisserte videre sine planer for å regulere AI-bruk. Han sa at det første trinnet for å unngå risikoer forbundet med AI er å gjøre brukerne ansvarlige.

“Selv om koblingen mellom hvordan en modell utvikles og hvordan den ender opp med å bli brukt ofte er uklar, bestemmer brukeren nøyaktig hvordan AI brukes,” forklarte Buterin, og fremhevet rollen brukerne spiller.

Hvis ansvarsreglene ikke fungerer, vil neste trinn være å implementere “myke pause”-knapper som tillater AI-regulering å bremse tempoet i potensielt farlige fremskritt.

“Målet ville være å ha muligheten til å redusere verdensomspennende tilgjengelig datakraft med ~90-99 % i 1-2 år i en kritisk periode, for å kjøpe mer tid for menneskeheten til å forberede seg.”

Han sa at pausen kan implementeres ved AI-stedverifisering og registrering.

En annen tilnærming ville være å kontrollere AI-maskinvare. Buterin forklarte at AI-maskinvare kunne utstyres med en chip for å kontrollere den.

Chippet vil tillate AI-systemene å fungere bare hvis de får tre signaturer fra internasjonale organer ukentlig. Han la videre til at minst ett av organene bør være ikke-militært tilknyttet.

Likevel innrømmet Buterin at hans strategier har hull og bare er ‘midlertidige nødløsninger.’

Disclaimer

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.