ChatGPT er nyttigt til mange opgaver, men der er nogle kritiske mangler, der bør få dig til at tænke dig om to gange, før du stoler på det for lægehjælp.
ChatGPT – en kunstig intelligens (AI) chatbot udviklet af OpenAI – er blevet et alt-i-et værktøj til at besvare mange enkle og vanskelige spørgsmål, herunder anmodninger om lægehjælp. Den kan besvare medicinske spørgsmål og opnå USA's medicinske licenseksamen (USMLE), men den kan ikke erstatte en aftale med en læge på hospitalet.
Efterhånden som ChatGPT udvikler sig, har det potentialet til at transformere sundhedssektoren fuldstændigt. Når det integreres med sundhedssystemer, kan det forbedre patienternes adgang til pleje og øge lægernes arbejdseffektivitet. Men fordi det er AI-baseret, eksisterer der flere bekymringer om dets potentielle farer.
1. ChatGPT har begrænset viden
ChatGPT ved ikke alt. Ifølge OpenAI har ChatGPT begrænset viden, især når det kommer til, hvad der skete efter september 2021.
ChatGPT har ikke direkte adgang til søgemaskiner eller internettet. Det blev trænet ved hjælp af en stor mængde tekstdata fra adskillige kilder, herunder bøger, websteder og andre tekster. Den "kender" ikke de data, den leverer. ChatGPT bruger i stedet tekst, den har læst, til at skabe forudsigelser om de ord, der skal bruges, og i hvilken rækkefølge.
Derfor kan den ikke få aktuelle nyheder om udviklingen inden for medicinske områder. Ja, ChatGPT er uvidende om hjertetransplantationen fra gris til menneske eller andre meget nylige gennembrud inden for lægevidenskaben.
2. ChatGPT kan producere forkerte oplysninger
ChatGPT kan besvare de spørgsmål, du stiller, men svarene kan være unøjagtige eller partiske. Ifølge en PLoS Digital Health undersøgelse, ChatGPT udført med mindst 50 % nøjagtighed på tværs af alle USMLE-undersøgelser. Og selvom den overskred tærsklen på 60 % i nogle aspekter, er der stadig mulighed for fejl.
Desuden er ikke alle de oplysninger, der bruges til at træne ChatGPT, autentiske. Svar baseret på ubekræftede eller potentielt partiske oplysninger kan være forkerte eller forældede. I medicinens verden kan unøjagtige oplysninger endda koste livet.
Fordi ChatGPT ikke selvstændigt kan undersøge eller verificere materiale, kan det ikke skelne mellem fakta og fiktion. Respekterede medicinske tidsskrifter, herunder Journal of the American Medical Association (JAMA), har etableret strenge regler om, at kun mennesker kan skrive videnskabelige undersøgelser offentliggjort i tidsskrift. Som resultat, du bør konstant faktatjekke ChatGPTs svar.
3. ChatGPT undersøger dig ikke fysisk
Medicinske diagnoser er ikke udelukkende afhængige af symptomer. Læger kan få indsigt i mønsteret og sværhedsgraden af en sygdom gennem en patients fysiske undersøgelse. For at diagnosticere patienter bruger læger i dag både medicinske teknologier og de fem sanser.
ChatGPT kan ikke udføre en komplet virtuel kontrol eller endda en fysisk undersøgelse; den kan kun svare på de symptomer, du angiver som beskeder. For en patients sikkerhed og pleje kan fejl i fysisk undersøgelse - eller fuldstændig ignorering af fysisk undersøgelse - være skadelige. Fordi ChatGPT ikke undersøgte dig fysisk, vil det tilbyde en forkert diagnose.
4. ChatGPT kan give falske oplysninger
En nylig undersøgelse af University of Maryland School of Medicine på ChatGPTs råd til brystkræftscreening fandt følgende resultater:
"Vi har set i vores erfaring, at ChatGPT nogle gange opstiller falske tidsskriftsartikler eller sundhedskonsortier for at understøtte deres påstande." —Paul Yi M.D., assisterende professor i diagnostisk radiologi og nuklearmedicin ved UMSOM
Som en del af vores test af ChatGPT anmodede vi om en liste over faglitterære bøger, der dækker emnet underbevidstheden. Som et resultat producerede ChatGPT en falsk bog med titlen "The Power of the Unconscious Mind" af Dr. Gustav Kuhn.
Da vi spurgte ind til bogen, svarede den, at det var en "hypotetisk" bog, den skabte. ChatGPT fortæller dig ikke, om en tidsskriftsartikel eller bog er falsk, hvis du ikke spørger yderligere.
5. ChatGPT er bare en AI-sprogmodel
Sprogmodeller fungerer ved at huske og generalisere tekst i stedet for at undersøge eller studere en patients tilstand. På trods af generering af svar, der matcher menneskelige standarder med hensyn til sprog og grammatik, ChatGPT indeholder stadig en række problemer, meget ligesom andre AI-bots.
ChatGPT er ikke en erstatning for din læge
Der vil altid være brug for menneskelige læger til at foretage den sidste opfordring til sundhedsbeslutninger. ChatGPT råder normalt til at tale med en autoriseret læge, når du beder om lægehjælp.
Kunstig intelligens-drevne værktøjer som ChatGPT kan bruges til at planlægge lægeaftaler, hjælpe patienter med at modtage behandlinger og vedligeholde deres helbredsoplysninger. Men det kan ikke træde i stedet for en læges ekspertise og empati.
Du bør ikke stole på et AI-baseret værktøj til at diagnosticere eller behandle dit helbred, uanset om det er fysisk eller mentalt.