Artificiell intelligens är på frammarsch inom sjukvården. Det visar en studie bland brittiska läkare, där allt fler låter chattbottar hjälpa till med administration och stöd vid diagnoser. Men den ökade användningen reser också frågor om etik och patientsäkerhet, menar forskare.
En av fem allmänläkare i Storbritannien använder generativa AI-verktyg på sina mottagningar, oftast ChatGPT. Det framgår i en studie som letts från Uppsala universitet.
– Det pratas mycket om AI-hajpen, men vår studie visar att användningen av AI inom vården inte är något som ligger långt borta vid horisonten – det är något som händer här och nu, säger Charlotte Blease som är docent vid Uppsala universitet.
– Läkarna har sett värdet i att använda den här typen av verktyg. Nu måste det medicinska samfundet agera skyndsamt för att hinna ta tag i de etiska och praktiska utmaningar som generativ AI medför för patienterna, fortsätter hon.
Hjälp med pappersarbete och diagnoser
Syftet med studien var att mäta hur vanligt det är att allmänläkare i Storbritannien använder AI-drivna chatbottar. Forskarna ville också förstå hur verktygen används inom vården.
Det visade sig att nästan 30 procent av läkarna använde verktygen för att ta fram dokumentation efter patientbesöken. Ungefär lika många använde AI som stöd vid diagnoser.
Enligt forskarna visar resultatet att chattbottar blivit värdefulla resurser inom vården, särskilt för att minska den administrativa arbetsbördan och ta fram beslutsunderlag.
Risker med AI
Men det finns en baksida. AI-verktygen kan generera missledande information och ta fram felaktiga uppgifter. Det finns också en risk att verktygen förstärker fördomar och äventyrar patienternas rätt till ett privatliv.
Eftersom AI-utvecklingen går så snabbt behövs nu stabila riktlinjer och utbildningsprogram för att säkerställa att verktygen används på ett säkert och effektivt sätt inom vården, menar forskarna.
– Studien visar att brittiska allmänläkare i allt högre grad förlitar sig på AI-verktyg, trots bristen på formell utbildning och vägledning och de potentiella risker som detta medför. Det här är utmaningar som sjukvårdssektorn och tillsynsmyndigheterna kommer att få kämpa vidare med, men samtidigt har behovet av att ta klivet över till 2000-talets arbetsmetoder aldrig varit större, säger Charlotte Blease.
Mer om studien
Studien är den största undersökningen om generativ AI inom sjukvården sedan lanseringen av ChatGPT i november 2022. Den har gjorts i samarbete med Harvard i USA och Basel-universitetet i Schweiz.
Studien genomfördes i februari 2024 och ingick i en månatlig undersökning som riktades till allmänläkare från olika regioner i Storbritannien. Drygt 1 000 läkare som var registrerade på Doctors.net.uk, det största professionella läkarnätverket i Storbritannien, svarade på frågorna.
Vetenskaplig studie:
Generative artificial intelligence in primary care: an online survey of UK general practitioners. BMJ Health Care Inform.
LÄS HELA STUDIEN pdf free
https://informatics.bmj.com/content/31/1/e101102
Generative artificial intelligence in primary care: an online survey of UK general practitioners
Abstract
Objectives
Following the launch of ChatGPT in November 2022, interest in large language model-powered chatbots has soared with increasing focus on the clinical potential of these tools. We sought to measure general practitioners’ (GPs) current use of this new generation of chatbots to assist with any aspect of clinical practice in the UK.
Methods
An online survey was distributed to a non-probability sample of GPs registered with the clinician marketing service Doctors.net.uk. The study was launched as a monthly ‘omnibus survey’ which has a predetermined sample size of 1000 participants.
Results
531 (53%) respondents were men, 544 (54%) were 46 years or older. 20% (205) reported using generative artificial intelligence (AI) tools in clinical practice; of those who answered affirmatively and were invited to clarify further, 29% (47) reported using these tools to generate documentation after patient appointments and 28% (45) to suggest a differential diagnosis.
Discussion
Administered a year after ChatGPT was launched, this is the largest survey we know of conducted into doctors’ use of generative AI in clinical practice. Findings suggest that GPs may derive value from these tools, particularly with administrative tasks and to support clinical reasoning.
Conclusion
Despite a lack of guidance about these tools and unclear work policies, GPs report using generative AI to assist with their job. The medical community will need to find ways to both educate physicians and trainees and guide patients about the safe adoption of these tools.
From the article
Discussion
Administered in February 2024, more than a year after ChatGPT was launched, this is the largest survey conducted into doctors’ use of generative AI in clinical practice. One in five of the UK GPs surveyed here reported using LLM-powered chatbots to assist with tasks in clinical practice; among them, ChatGPT was the most used tool. More than one in four participants who used generative AI reported using these tools to assist with writing documentation after patient appointments or with differential diagnosis.
These findings signal that GPs may derive value from these tools, particularly with administrative tasks and to support clinical reasoning. However, we caution that these tools have limitations since they can embed subtle errors and biases.9They may also risk harm and undermine patient privacy since it is not clear how the internet companies behind generative AI use the information they gather. While these chatbots are increasingly the target of regulatory efforts, it remains unclear how the legislation will intersect in a practical way with these tools in clinical practice.10The health industry, including electronic health record vendors, is currently grappling with how to create software that complies with safety and confidentiality standards.
The survey has limitations. Given the non-probability sample of primary care physicians who use Doctors.net.uk, this survey may not be representative of UK GPs. GPs’ decisions to respond to the topic of the survey may also have introduced biases, and it is unclear whether those more enthusiastic or those more inclined to view generative AI negatively answered the survey. Further research is needed to investigate doctors’ adoption of generative AI and how best to implement these tools safely and securely into clinical practice.
We close by noting that despite a lack of guidance about these tools and unclear work policies, GPs report using them to assist with their job. The medical community will need to find ways to both educate physicians and trainees about the potential benefits of these tools in summarising information but also the risks in terms of hallucinations, algorithmic biases and the potential to compromise patient privacy.
Nyhetsinfo
www red DiabetologNytt