Generative artificial intelligence, patient safety and healthcare quality: a review er en vigtig og velskrevet oversigtsartikel, der på fineste vis sætter en teknologisk megatrend ind i en sundhedsfaglig og etisk kontekst. Artiklen giver både inspiration og anledning til refleksion, til alle med ansvar for patientsikkerhed og kvalitetsudvikling.
I artiklen giver Michael Howell et indsigtsfuldt overblik over, hvordan generativ kunstig intelligens (generativ AI) og særligt foundation models – som f.eks. store sprogmodeller – er i færd med at ændre spillereglerne inden for patientsikkerhed og kvalitet i sundhedsvæsenet.
Artiklen henvender sig direkte til fagpersoner, der arbejder med forbedrings- og sikkerhedsarbejde, og den kombinerer teknologisk indsigt med konkret klinisk relevans.
Howell beskriver, hvordan generativ AI adskiller sig fundamentalt fra tidligere generations AI. Hvor klassiske AI-modeller typisk blev trænet til én specifik opgave (f.eks. billeddiagnostik), kan foundation models anvendes bredt og uden ny træning – til alt fra udkast til patientinformation, kliniske noter og analyse af utilsigtede hændelser.
Styrker og anvendelsespotentiale
Artiklen peger på en række konkrete anvendelsesområder, der er særligt relevante for patientsikkerhed:
- Reduktion af klinisk og administrativ byrde: Generativ AI kan assistere i dokumentation, forhåndsgodkendelser og kvalitetsrapportering og dermed mindske tidspres og øge nærvær med patienter.
- Understøttelse af diagnostik: I kontrollerede studier har AI bidraget til mere præcise diagnoser og bredere differentialeovervejelser – særligt i komplekse tilfælde.
- Forbedret kommunikation: AI kan tilpasse tekst til forskellige læseniveauer og sprog, hvilket styrker sundhedslitteracitet og patientinddragelse – centrale faktorer i patientsikkerhed.
Risici og nødvendige forbehold
Howell belyser ikke kun mulighederne, men også de betydelige risici, som følger med teknologien:
- Bias og ulighed: Træningsdata kan føre til skævheder i AI’ens output og dermed forværre eksisterende uligheder i sundhedsvæsenet.
- “Hallucinationer”: AI-modeller kan finde på plausible men usande oplysninger – f.eks. ikke-eksisterende referencer – hvilket kan udgøre en alvorlig patientsikkerhedsrisiko.
- Mangler i klinisk kontekstforståelse: AI-modeller forudsiger tekst, men forstår ikke kliniske sammenhænge på samme måde som mennesker.
- Manglende regulering: Der er akut behov for klare rammer for implementering og kvalitetssikring af AI i klinisk praksis.
Howell argumenterer overbevisende for, at kvalitet og patientsikkerhed i høj grad vil blive påvirket af generativ AI – både positivt og potentielt negativt. Han anbefaler, at fagfolk inden for patientsikkerhed ikke overlader teknologien til teknikere, men engagerer sig aktivt og kritisk i udviklingen.
Der skal arbejdes strategisk med at:
- Udnytte teknologiens muligheder for at fremme patientsikkerhed.
- Udvikle metoder til overvågning og kvalitetssikring.
- Indtænke etik, retfærdighed og transparens i implementering.
Referencer
Generative artificial intelligence, patient safety and healthcare quality: a review
Michael D. Howell, BMJ Quality & Safety (2024), DOI: 10.1136/bmjqs-2023-016690
Fagligt Nyt om patientsikkerhed er et nyhedsbrev, der udgives af PS!, og som udkommer ca. 6 gange årligt. Det formidler nyt om de seneste nationale og internationale forskningsresultater, begivenheder, trends og meninger inden for patientsikkerhed.
Tilmeld dig Fagligt Nyt