En mann i 60-årene utviklet en sjelden og alvorlig sykdom etter å ha fulgt kostholdsråd fra en kunstig intelligens. Nå advarer leger mot å stole blindt på helseinformasjon fra AI.
Ifølge den amerikanske medisinske tidsskriften Annals of Internal Medicine ønsket mannen å fjerne bordsalt (natriumklorid) fra kostholdet sitt etter å ha lest om potensielle helseskader. Han spurte derfor et AI-verktøy om et alternativ.
Svaret han fikk var at han kunne erstatte salt med natriumbromid – også kjent som medisinsk bromsalt – et stoff som ble brukt som beroligende middel tidlig på 1900-tallet. Bruken ble avviklet på grunn av høy risiko for bromforgiftning, som kan gi symptomer som hodepine, søvnløshet, apati, skjelvinger og i alvorlige tilfeller psykose.
– AI-verktøy kan generere vitenskapelige feil, mangler evnen til å stille oppfølgingsspørsmål og bidrar til spredning av desinformasjon, skriver legene i rapporten.
Tre måneder senere – tvangsinnlagt for psykose
Mannen fulgte rådet og brukte bromsalt i tre måneder. Til slutt utviklet han kronisk bromforgiftning og måtte tvangsinnlegges etter å ha fått en psykose.
Legene som behandlet ham understreker at dette er et eksempel på hvordan kunstig intelligens kan bidra til helseskader som kunne vært unngått dersom pasienten hadde fått profesjonell veiledning.
Da legene forsøkte å undersøke pasientens samtale med chatboten, var loggen utilgjengelig. De testet derfor selv å stille samme spørsmål – og fikk det samme svaret: bromsalt som erstatning for vanlig salt, uten noen form for helseadvarsel eller spørsmål om bakgrunnen for rådet.
OpenAI lover forbedringer
Saken har vakt oppsikt, og ifølge The Guardian har OpenAI – selskapet bak ChatGPT – annonsert at verktøyet skal oppdateres for å håndtere helserelaterte spørsmål bedre.
Likevel understreker selskapet at chatboten ikke skal brukes som erstatning for profesjonell medisinsk rådgivning.