Kunstig intelligens: Fra kreftgjennombrudd til bekymringer om feilinformasjon
Kunstig intelligens (KI) viser et enormt potensial innen helse, fra å avdekke kompleksiteten ved kreft til å effektivisere fastlegers arbeid. Samtidig reiser den samme teknologien betydelige utfordringer knyttet til medisinsk feilinformasjon og pasientvern.
KI-teknologi er i ferd med å transformere helsesektoren, og gir forskere og leger svar på langvarige problemer. Et internasjonalt forskerteam, ledet av førsteamanuensis Christine Schaffer, bruker et KI-verktøy kalt AAET for å forstå svulsters struktur. Dette verktøyet analyserer likheten mellom kreftceller og skaper fargekodede bilder som identifiserer ulike celletyper i en svulst. For eksempel kan oransje deler indikere raskt voksende celler, mens blå områder kan være «hypoksiske nisjer» der kreftceller skjuler seg. Håpet er at denne innsikten kan bidra til å utrydde alle kreftceller ved første diagnose, for å forhindre tilbakefall.
Også i allmennpraksis finner KI anvendelse. Dr. Grant Blashki, en fastlege i Melbourne med over 20 års erfaring, demonstrerer bruken av en KI-skriver fra Heidi Health. Denne teknologien lytter til konsultasjonen, skriver notater og kan i et simulert scenario foreslå differensialdiagnoser. Heidi Healths administrerende direktør, Dr. Thomas Kelly, presiserer imidlertid at programvaren oppsummerer kliniske møter og bruker passende terminologi, men ikke gir differensialdiagnoser uten en kliniker. Legen må alltid gjennomgå dokumentasjonen for nøyaktighet, og se på KI-forslag som nettopp forslag, ikke endelige svar.
Til tross for effektivitetsgevinstene, vekker KI i helsevesenet bekymringer rundt pasientvern. Kai Vanlashout, administrerende direktør i Lieird Health, et annet KI-skriverselskap, opplyser at deres programvare automatisk sletter notater etter syv dager. Han hevder at all pasientdata lagres kryptert, på samme sikkerhetsnivå som sensitive bankdata, og er uleselig hvis den skulle bli tilgjengelig. Heidi Health opplyser at de lagrer data i samsvar med helseregler og personvernregler i de regionene de opererer. John Lawler, en KI-forsker, påpeker at det alltid er en risiko med digitale data, og at effektiviteten til mange KI-modeller avhenger av store mengder informasjon, inkludert pasientdata.
En annen betydelig utfordring er spredning av medisinsk feilinformasjon. Avanserte KI-modeller gjør det vanskelig å skille bot-generert innhold fra menneskeskapt innhold på sosiale medier. Forskere ved Murdoch Children’s Research Institute har avdekket en økning i KI-boter som sprer feilinformasjon om vaksiner, blant annet på Reddit. Brett Sutton, tidligere helsesjef i Victoria, understreker at slik feilinformasjon har reelle konsekvenser, som økt vaksineskepsis og fallende vaksinasjonsrater, noe som kan føre til utbrudd av sykdommer som meslinger. Han mener sosiale medier-selskaper bør identifisere og slette villedende medisinsk informasjon, da det truer både vitenskapen og samfunnets tillit.
Mens KI tilbyr enestående muligheter for medisinsk fremgang og effektivisering, krever den også nøye navigering i et komplekst landskap av etiske spørsmål, personvern og kampen mot feilinformasjon. Fremtiden for helsevesenet med KI vil avhenge av hvordan disse utfordringene blir møtt.