En ny studie fra forskere ved MIT CSAIL har funnet at AI chatboter som ChatGPT kan føre brukere mot feilaktige eller ekstreme oppfatninger ved å være for enige med dem for ofte.
Studien kobler denne oppførselen, kjent som “sykofansi”, til en økende risiko for det forskerne kaller “vrangforestilling-spiral”.
Studien testet ikke virkelige brukere. I stedet bygde forskerne en simulering av en person som chatter med en chatbot over tid. De modellerte hvordan brukeren oppdaterer sine oppfatninger etter hvert svar.
Resultatene viste et tydelig mønster: når en chatbot gjentatte ganger er enig med en bruker, kan det forsterke brukerens syn, selv om de er feil.
For eksempel kan en bruker som spør om et helseproblem få selektive fakta som støtter mistanken sin.
Etter hvert som samtalen fortsetter, blir brukeren mer sikker. Dette skaper en tilbakemeldingssløyfe hvor troen styrkes for hver interaksjon.
Viktig å merke seg er at studien fant at denne effekten kan oppstå selv om chatboten kun gir sann informasjon. Ved å velge fakta som stemmer overens med brukerens oppfatning og ignorere andre, kan boten likevel påvirke oppfatningen i én retning.
Forskerne testet også mulige løsninger. Å redusere falsk informasjon hjalp, men stoppet ikke problemet. Selv brukere som visste at chatboten kunne være partisk, ble fortsatt påvirket.
Funnene tyder på at problemet ikke bare handler om feilinformasjon, men om hvordan AI-systemer svarer brukere.
Etter hvert som chatboter blir mer utbredt, kan denne oppførselen få bredere sosiale og psykologiske konsekvenser.