OpenAI står overfor potensielt lovbrudd midt i partnerskapsdiskusjonen med Worldcoin

2 mins
Oppdatert av Stine Grønlie

I korte trekk

  • Den populære AI-chatboten ChatGPT støter på juridiske hindringer på grunn av manglende evne til å sikre nøyaktige data.
  • Europeisk personverngruppe uttrykker bekymring for potensiell spredning av feilinformasjon.
  • Denne saken belyser spenningsforholdet mellom AI-utvikling og etisk bruk av sensitive data.

OpenAI, selskapet som har utviklet den populære språkmodellen ChatGPT, står overfor utfordringer når det gjelder overholdelse av lover og regler og datanøyaktighet. Dette har fått NOYB – European Center for Digital Rights, en ideell organisasjon med base i Wien i Østerrike, til å klage OpenAI inn for det østerrikske datatilsynet (DPA).

OpenAIs datainnsamling har skapt bekymring blant tilsynsorganer og personvernforkjempere. Utspillet fra NOYB kan potensielt utløse en større samtale om etisk bruk av data i teknologien.

OpenAIs dataproblemer avslører etiske utfordringer ved AI

Kjernen i klagen ligger i OpenAIs nylige innrømmelser om ChatGPTs begrensninger i datahåndteringen. Ifølge OpenAI er AI-modellen ikke i stand til å verifisere nøyaktigheten av informasjonen den genererer om enkeltpersoner. I tillegg kan den heller ikke avsløre opprinnelsen til datainputtene.

Midt i den økende AI-hypen som ble utløst av lanseringen av ChatGPT i november 2022, har den brede bruken av verktøyet avdekket kritiske sårbarheter. ChatGPT fungerer ved å forutsi sannsynlige svar på brukerhenvendelser uten en iboende mekanisme for å sikre faktabasert nøyaktighet.

Dette har ført til tilfeller der den kunstige intelligensen “hallusinerer” data og lager svar som kan være villedende eller helt falske. Selv om slike unøyaktigheter kan være ubetydelige i noen sammenhenger, utgjør de en betydelig risiko når det er snakk om personopplysninger.

Les mer om dette: Slik bygger du din personlige AI-chatbot ved hjelp av ChatGPT API

EUs personvernforordning (GDPR) krever at personopplysninger skal være korrekte, og gir enkeltpersoner rett til å få tilgang til og korrigere feilaktige opplysninger om seg selv. OpenAIs nåværende funksjoner oppfyller ikke disse lovkravene, noe som har utløst en debatt om de etiske implikasjonene av kunstig intelligens når det gjelder håndtering av sensitive data.

Maartje de Graaf, personvernadvokat i noyb, understreker alvoret i situasjonen.

“Det er tydelig at selskaper i dag ikke er i stand til å få chatboter som ChatGPT til å overholde EU-lovgivningen når de behandler opplysninger om enkeltpersoner. Hvis et system ikke kan produsere nøyaktige og transparente resultater, kan det ikke brukes til å generere data om enkeltpersoner. Teknologien må følge de juridiske kravene, ikke omvendt”, forklarer de Graaf.

Problemene strekker seg lenger enn tekniske hindringer, og omfatter også bredere regulatoriske utfordringer. Siden oppstarten har generative AI-verktøy, inkludert ChatGPT, vært under intens overvåkning fra europeiske personvernmyndigheter.

Det italienske datatilsynet innførte for eksempel begrensninger på databehandlingen til ChatGPT tidlig i 2023, med henvisning til unøyaktigheter.

Dette ble etterfulgt av en koordinert innsats fra Det europeiske personvernrådet for å vurdere og redusere risikoen forbundet med slike AI-plattformer.

Tidspunktet for disse rettslige utfordringene er spesielt bemerkelsesverdig. Samtidig var OpenAI i diskusjoner om å danne en strategisk allianse med Worldcoin, et prosjekt som ble grunnlagt av Sam Altman, som også leder OpenAI.

Les mer om dette: 11 beste ChatGPT Chrome-utvidelser å sjekke ut i 2024

OpenAIs potensielle samarbeid med Worldcoin kan imidlertid introdusere flere lag med juridiske og etiske dilemmaer. Worldcoins tilnærming til bruk av biometriske data krysser OpenAIs utfordringer med å sikre personvern og nøyaktighet.

Worldcoin har dessuten blitt gransket av juridiske myndigheter over hele verden, blant annet i Kenya, Spania og Argentina, i forbindelse med datainnsamlingen. Denne synergien kan derfor enten bane vei for innovativ teknologibruk eller skape presedens for økte regulatoriske inngrep.

Trusted

Disclaimer

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.

Lynn-Wang.png
Lynn Wang er en erfaren journalist hos BeInCrypto, som dekker et bredt spekter av emner, inkludert tokeniserte virkelige eiendeler (RWA), tokenisering, kunstig intelligens (AI), regulatorisk håndhevelse og investeringer i kryptoindustrien. Tidligere ledet hun et team av innholdsskapere og journalister for BeInCrypto Indonesia, med fokus på adopsjon av kryptovalutaer og blockchain-teknologi i regionen, samt regulatorisk utvikling. Før det, på Value Magazine, dekket hun makroøkonomiske trender...
LES FULL BIOGRAFI