»Der skal (heldigvis) stadig en menneskelig hjerne ind over for kritisk at kunne vurdere datakvaliteten og vigtigheden af ny viden,« mener Tove Holm-Larsen.Foto: Privat

Pas på: AI gør dig doven og uvidenskabelig AI rummer fantastiske muligheder for pharmaindustrien, men det er vigtigt, at vi ikke bliver for dovne og glemmer, at det er i samarbejdet mellem AI og mennesker, at vi kan holde fast i den videnskabelige kvalitet og evidens, skriver Tove Holm-Larsen, adm. direktør i virksomheden Silvi.ai og professor i sundhedsøkonomi.

AI er blevet noget, vi alle taler om. Programmer som ChatGPT har åbnet vores øjne for det enorme potentiale. 

Pharma har et særskilt stort behov for den nytænkning, som AI kan give pga. den langsommelige business-model og de høje priser på ny innovativ medicin. Begge dele har medført en heftig kritik fra de omgivende samfund. 

AI er en god mulighed for at nytænke industrien. Men – for der er et stort ’men’ – pharma er bygget op omkring de gamle videnskabelige dyder som gennemsigtighed, pålidelighed og reproducerbarhed. 

Det er tre støvede, men supervigtige dyder, som forsvinder til fordel for hastighed i tech-giganternes uigennemsigtige black-box algoritmer. Så hvor er det, at AI er et fantastisk værktøj for pharmaindustrien, og hvor har den stadig brug for menneskelig intelligens?

Tigerspring inden for drug discovery

AI (eller i hvert fald sofistikerede, digitale løsninger) har allerede været i brug i mange år inden for drug discovery, dvs. den tidlige fase af lægemiddeludviklingen. 

Her er testning af nye lovende molekyler bygget op omkring databiblioteker, 3D-simuleringssoftware og avancerede gen- og proteinprogrammer som ESMFold, Atomwise og Turbine.AI

Det er programmer, som kan overbevise enhver om, hvor kæmpe et potentiale AI har i pharma. Men hvordan ser det ud med at anvende AI inden for forskning og udvikling (R&D)? 

Tja, her er de gode løsninger stadig i deres opstart, men mulighederne er potente. Først og fremmest er det helt oplagt, at AI vil kunne fjerne nogle af de kedelige og gentagne opgaver. 

F.eks. kan man allerede nu få en god chatbot til at skrive et fornuftigt udkast til en protokol eller første udkast til et svar til myndighederne. 

Et andet eksempel er rensning og overvågning af data i realtid. Det giver helt oplagt fordele, at man kan følge med i dataindsamlingen og datakvaliteten, mens forsøget er i gang. 

Kan AI vægte kvaliteten af data?

Bedre og datadrevne beslutninger er også et felt, hvor AI kan understøtte pharmas arbejde. Eksempelvis kan AI give et fuldt overblik over design og resultater af gamle studier og de tilsvarende myndighedssvar. 

Det er et fantastisk udgangspunkt for at designe et nyt klinisk studie. Men det er også her, at problemerne begynder at melde sig. 

Når vi nemt kan kombinere viden fra alle mulige kanaler, f.eks. fra patientjournaler, billedmateriale, videnskabelig litteratur, wearables, forsøgsdata og konkurrenternes forsøgsdesign, så skal vi passe voldsomt på, hvordan vi samler dem. 

Al-viden er baseret på data, og kvaliteten af data er meget forskellig. Det er ofte først, når man kommer helt ind i maskinrummet på en dataindsamling, at man forstår, hvor kvalitetsproblemerne er.

Vores fokus er især på at gøre denne proces så transparent, informativ og dynamisk som muligt

Min gamle lærer sagde ofte, at det kræver en dygtig mekaniker at kunne se, om bilen er blevet repareret ordentligt. Og hvis vi sætter AI til at lave et gennemsnit af evidens via en uigennemsigtig black-box-algoritme, så får vi et meget lidt evidensbaseret gennemsnit, der ikke kan bruges, fordi medicinsk udvikling har brug for helt korrekte svar. 

AI skal tilpasses videnskabelige dyder, ikke omvendt? 

I min egen AI-virksomhed ’Silvi.ai’ samler vi data via transparente algoritmer, som understøtter dokumentation og menneskelig indsigt i datakvaliteten.

Pt. udvikler vi på et projekt, hvor vi samler og bearbejder data fra bl.a. videnskabelige artikler og myndighedssvar. Resultatet anvender vi til at understøtte en evidensbaseret hypotesetestning. 

Ideen er at anvende AI til lynhurtigt – men gennemsigtigt og reproducerbarhed – at undersøge den videnskabelige tyngde af videnskabelige sammenhænge. 

Det kan f.eks. være sammenhængen mellem cancermedicin og bivirkninger eller nye indikationer til et gammelt molekyle. Ved at indsamle den eksisterende viden kan vi derefter producere en evidensbaseret hypotese-pipeline. 

Vores fokus er især på at gøre denne proces så transparent, informativ og dynamisk som muligt, så den kloge mekaniker/pharma-medarbejder kan forstå mellemregningerne og justere dem, der er forkerte. 

Vi arbejder altså med et ’supporteret human-in-the-loop’-software, der kombinerer det bedste fra AI med det bedste af den menneskelige intelligens.

Så hvor har vi brug for hvad?

McKinsey Global Institute har i en rapport fra 2024 beregnet, at nye AI-teknologier kan skabe økonomisk værdi på op mod 110 milliarder dollar for pharmaindustrien. Et kæmpe potentiale. 

Men vi skal være varsomme med ønsket om hastighed og den umådelige dovenskab, som allerede er opstået i kølvandet på ChatGPT, hvor træthedsfornemmelsen over at skulle læse 16 artikler pludselig føles meget større, end den gjorde for bare et par år siden. 

Der skal (heldigvis) stadig en menneskelig hjerne ind over for kritisk at kunne vurdere datakvaliteten og vigtigheden af ny viden. 

Det kræver, at vi kan følge med i, hvad algoritmerne gør, og hvordan de samler og vægter evidens.

Skriv kommentar