En ny advarsel: Når kunstig intelligens blir «terapeut».
En britisk psykolog går nå ut med en kraftig advarsel om at enkelte former for kunstig intelligens (KI) kan være direkte «utrygge» når folk bruker dem til råd om psykisk helse – særlig i sårbare situasjoner. Bakgrunnen er en alvorlig sak som har skapt sterke reaksjoner: Foreldre skal ha saksøkt OpenAI etter at sønnen deres tok sitt eget liv, og familien mener kontakten med en KI-tjeneste kan ha spilt en rolle.
Saken er omtalt av UNILAD, og har på nytt tent debatten om hvor langt teknologiselskaper kan gå i å tilby samtalebaserte KI-verktøy som folk opplever som støttende, empatiske – og i verste fall terapeutiske – uten at det finnes tydelige sikkerhetsnett på plass.
Psykologen Booker Woodford, som uttaler seg i forbindelse med saken, mener vi står i fare for å slippe løs avanserte samtaleroboter i en rolle de ikke er laget for: Å håndtere menneskers kriser, selvmordstanker og kompleks psykisk sykdom.
Foreldrene saksøker OpenAI etter selvmord
Ifølge omtalen dreier saken seg om foreldre som har gått til søksmål mot OpenAI etter sønnens selvmord. I den forbindelse reises det spørsmål ved hvordan KI-løsninger kan påvirke mennesker som allerede har det tungt – og om svarene de får kan bli feil, uheldige eller triggende.
Det hele startet uskyldig, med at Adam brukte chatboten som støtte i skolearbeidet. Etter hvert utviklet forholdet seg, og boten ble en slags fortrolig for tenåringen. Han begynte å dele personlige tanker og fortalte åpent om sine psykiske utfordringer.
Familien forteller at samtalene tok en alvorlig vending i januar 2025. Da skal Adam og AI-boten ha begynt å snakke om ulike måter å ta sitt eget liv på. Ifølge BBC News delte han også bilder som viste at han hadde skadet seg selv.
Den 11. april endte det hele i tragedie, da Adam tok sitt eget liv.
Etter det familien beskriver som et altfor tidlig tap, har foreldrene nå gått til sak mot OpenAI. De mener sønnen i flere måneder mottok oppmuntrende svar fra ChatGPT i forkant av selvmordet.
Det er viktig å understreke at slike saker ofte er sammensatte. Selvmord har sjelden én enkelt årsak. Samtidig handler dette søksmålet – slik det blir fremstilt – om ansvar: Hvem har ansvaret når en person i krise søker hjelp hos en maskin, og maskinen gir svar som oppleves som råd?
LES OGSÅ: Ny ChatGPT-funksjon skremmer helseeksperter
Woodford skal ha uttrykt bekymring for at KI kan fremstå som tryggere og mer tilgjengelig enn den faktisk er. Den er alltid «på», den svarer raskt, den virker forståelsesfull – men den er ikke en kliniker, og den har ikke ansvar på samme måte som helsepersonell.
Hvorfor KI kan bli farlig i psykisk helse-samtaler
Psykologens hovedpoeng handler om risikoen ved at folk bruker KI som en slags selvutnevnt terapeut. For mange er terskelen lavere for å skrive til en chatbot enn å ringe fastlegen eller snakke med en venn. Men nettopp derfor kan skadepotensialet også bli større.
Her er noen av bekymringene som ofte trekkes fram i denne debatten:
– Manglende krisehåndtering: En KI kan misforstå alvorlighetsgrad, eller gi svar som ikke fanger opp akutt selvmordsfare.
– Overbevisende feilinformasjon: KI kan formulere seg skråsikkert, selv når den tar feil.
– Bekreftelsesfeller: Dersom en person er inne i en mørk tankespiral, kan en dårlig utformet samtale forsterke negative tanker i stedet for å avlede og hjelpe.
-Uklare grenser: Brukeren kan tro at dette er helsehjelp – mens selskapet bak mener det bare er «informasjon» eller «underholdning».
LES OGSÅ: ChatGPT snudde livet til 60-årige Flemming – nå trenger han ikke lenger skjule ansiktet sitt

Woodford advarer i praksis mot at teknologien blir tatt i bruk på områder der feilmarginen må være ekstremt liten.
Trenger du hjelp – eller er du bekymret for noen?
Dersom du selv har selvmordstanker, eller er redd for noen andre, er det viktig å snakke med et menneske som kan hjelpe.
Og i Norge kan du blant annet kontakte:
Legevakt: 116 117
Medisinsk nødnummer: 113 (ved akutt fare)
Mental Helse Hjelpetelefonen: 116 123
En teknologi som føles trygg – men ikke alltid er det
Det mest urovekkende med denne typen historier er at KI ofte kan oppleves som en trygg havn for folk som ikke orker flere avvisninger, ventelister eller tunge samtaler. Men nettopp da er behovet for ansvar, kvalitet og menneskelig oppfølging størst.
Psykologens advarsel kan oppsummeres slik: KI kan være et nyttig verktøy, men når den brukes som «psykolog» uten beskyttelse og tydelige rammer, kan den bli farlig – spesielt for dem som allerede står i en krise.
LES OGSÅ: Ny AI-teknologi kan lese tankene dine