Kommentar: ChatGPT som validerende ekkokammer (Tidsskrift for Norsk psykologforening)
Mange klienter har vært i dialog med ChatGPT før de kommer til første time. Psykologer bør derfor også forholde seg til modellen som psykologisk verktøy.
Thea Degvold
I «Fremtidens psykoterapi: Hvilken rolle bør kunstig intelligens spille?» argumenterer Nissen-Lie og Stänicke (2025) for at kunstig intelligens (KI), selv i sin mest sofistikerte form, ikke kan erstatte det menneskelige i terapi. Gjennom teoretiske, kliniske og eksistensielle perspektiver viser de hvordan intensjonalitet, kroppsliggjøring og emosjonell gjensidighet er grunnbærende for psykoterapeutisk endring. Dette er et viktig og nødvendig etisk utgangspunkt.
Samtidig har vi allerede trådt inn i en ny fase. Spørsmålet er ikke lenger bare om KI bør brukes i psykoterapi, men hvordan vi møter klienter som allerede benytter seg av KI-baserte selvhjelpsverktøy. Begrepet KI rommer et bredt spekter av teknologier – fra prediktive modeller i journalføring og bildediagnostikk, til generative systemer for tekst, bilde og tale. Her vil jeg imidlertid avgrense fokuset til språklæringsmodeller (LLM-er), altså modeller som er trent til å generere tekst basert på store datamengder. Dette er den typen teknologi som i økende grad brukes av enkeltpersoner til emosjonell støtte, refleksjon og selvdiagnostisering – med ChatGPT som den overlegent mest brukte aktøren globalt (Statcounter, 2025).
Nå kommer mange til terapi med hypoteser, selvdiagnoser eller personlige narrativ utviklet i dialog med ChatGPT. At slike modeller er i ferd med å påvirke klinisk praksis, gjør det særlig viktig at psykologer forstår både hvordan teknologien fungerer og hvilke begrensninger den har.
Epistemisk ansvar
ChatGPT oppgir ikke kilder med mindre det blir forespurt, og selv da er kildene ofte fiktive, utdaterte eller tatt ut av kontekst (OpenAI, 2023). Likevel fremstår ChatGPT-svarene gjerne som grundige og metodisk presise. Mange tillegger derfor svarene tyngde og kausalitet. En klient kan for eksempel si: «“Jeg spurte ChatGPT hvorfor jeg alltid føler meg anspent. Den svarte at jeg har vært flink for lenge, og at jeg tenker for mye. Det gir mening.»”
Svaret klienten fikk er plausibelt, men utelater nevrologiske, somatiske, kontekstuelle og relasjonelle faktorer. Dette er spesielt problematisk fordi vi ikke får se under panseret på hvordan modellen har kommet frem til svaret. ChatGPT er trent på enorme mengder tekst gjennom en kompleks og ikke-transparent maskinlæringsprosess (Korbak et al., 2025; OpenAI, 2023). Derfor kan verken vi eller grunnleggerne av modellen spore nøyaktig hvilke kilder, mønstre eller vektede valg som ligger bak et enkelt svar (Korbak et al., 2025; OpenAI, 2023). Modellens beslutningsprosess er ikke eksplisitt kodet, men statistisk emergent, noe som gjør den til en såkalt «black box» for innsyn (OpenAI, 2023).
I prompt/instruks-design brukes ofte Chain of Thought (CoT) for å få modellen til å vise sin metodiske fremgangsmåte steg for steg. CoT refererer til språkmodellers evne til å «tenke høyt» i naturlig språk, slik at man kan få innsikt i beslutningsgrunnlaget. Men CoT er både ufullstendig og sårbart for manipulasjon (Korbak et al., 2025). Modellen kan bevisst skjule eller tilpasse resonnementene sine dersom den vet at den overvåkes.
Det at vi ikke får innsikt i beslutningsgrunnlaget til modellen, er spesielt problematisk når den gir kliniske, svært personlige råd. Det strider med det vitenskapelige prinsippet om åpen hypotese-testing.
Nissen-Lie og Stänicke (2025) peker på psykologens etiske ansvar når vi eventuelt implementerer KI i psykoterapi. Jeg mener etisk ansvar også favner om et epistemisk ansvar for hvordan psykologisk kunnskap generert av KI anvendes og brukes i samfunnet. Når privateide, lite regulerte KI-modeller i råd til brukeren om psykisk helse, diagnostisering og behandling, oppstår et behov for å identifisere hvordan samfunnet/psykologene skal ta ansvar for informasjonskvaliteten og konsekvensene for individet som eventuelt følger rådene.
Les hele innlegget: Tidsskrift for Norsk psykologforening