Kunstig intelligens medfører nyt ansvar i patientsikkerhedsarbejdet

Ny artikel om generativ AI anbefaler, at fagfolk inden for patientsikkerhed engagerer sig aktivt og kritisk i udviklingen og ikke overlader dette til teknikere.

Generative artificial intelligence, patient safety and healthcare quality: a review er en vigtig og velskrevet oversigtsartikel, der på fineste vis sætter en teknologisk megatrend ind i en sundhedsfaglig og etisk kontekst. Artiklen giver både inspiration og anledning til refleksion, til alle med ansvar for patientsikkerhed og kvalitetsudvikling.

I artiklen giver Michael Howell et indsigtsfuldt overblik over, hvordan generativ kunstig intelligens (generativ AI) og særligt foundation models – som f.eks. store sprogmodeller – er i færd med at ændre spillereglerne inden for patientsikkerhed og kvalitet i sundhedsvæsenet.

Artiklen henvender sig direkte til fagpersoner, der arbejder med forbedrings- og sikkerhedsarbejde, og den kombinerer teknologisk indsigt med konkret klinisk relevans.

Howell beskriver, hvordan generativ AI adskiller sig fundamentalt fra tidligere generations AI. Hvor klassiske AI-modeller typisk blev trænet til én specifik opgave (f.eks. billeddiagnostik), kan foundation models anvendes bredt og uden ny træning – til alt fra udkast til patientinformation, kliniske noter og analyse af utilsigtede hændelser.

Styrker og anvendelsespotentiale

Artiklen peger på en række konkrete anvendelsesområder, der er særligt relevante for patientsikkerhed:

  • Reduktion af klinisk og administrativ byrde: Generativ AI kan assistere i dokumentation, forhåndsgodkendelser og kvalitetsrapportering og dermed mindske tidspres og øge nærvær med patienter.
  • Understøttelse af diagnostik: I kontrollerede studier har AI bidraget til mere præcise diagnoser og bredere differentialeovervejelser – særligt i komplekse tilfælde.
  • Forbedret kommunikation: AI kan tilpasse tekst til forskellige læseniveauer og sprog, hvilket styrker sundhedslitteracitet og patientinddragelse – centrale faktorer i patientsikkerhed.

Risici og nødvendige forbehold

Howell belyser ikke kun mulighederne, men også de betydelige risici, som følger med teknologien:

  • Bias og ulighed: Træningsdata kan føre til skævheder i AI’ens output og dermed forværre eksisterende uligheder i sundhedsvæsenet.
  • “Hallucinationer”: AI-modeller kan finde på plausible men usande oplysninger – f.eks. ikke-eksisterende referencer – hvilket kan udgøre en alvorlig patientsikkerhedsrisiko.
  • Mangler i klinisk kontekstforståelse: AI-modeller forudsiger tekst, men forstår ikke kliniske sammenhænge på samme måde som mennesker.
  • Manglende regulering: Der er akut behov for klare rammer for implementering og kvalitetssikring af AI i klinisk praksis.

Howell argumenterer overbevisende for, at kvalitet og patientsikkerhed i høj grad vil blive påvirket af generativ AI – både positivt og potentielt negativt. Han anbefaler, at fagfolk inden for patientsikkerhed ikke overlader teknologien til teknikere, men engagerer sig aktivt og kritisk i udviklingen.

Der skal arbejdes strategisk med at:

  • Udnytte teknologiens muligheder for at fremme patientsikkerhed.
  • Udvikle metoder til overvågning og kvalitetssikring.
  • Indtænke etik, retfærdighed og transparens i implementering.

Referencer

Generative artificial intelligence, patient safety and healthcare quality: a review
Michael D. Howell, BMJ Quality & Safety (2024), DOI: 10.1136/bmjqs-2023-016690

Fagligt Nyt om patientsikkerhed er et nyhedsbrev, der udgives af PS!, og som udkommer ca. 6 gange årligt. Det formidler nyt om de seneste nationale og internationale forskningsresultater, begivenheder, trends og meninger inden for patientsikkerhed. 
Tilmeld dig Fagligt Nyt