6. maj 2020

Love og etik for algoritmisk bias i sundhedsvæsenet - Nyt projekt starter

Center of Advanced Studies in Biomedical Innovation Law (CeBIL) og Datalogisk Institut (DIKU) og dets Quality of Life Technologies Lab er glade for at kunne meddele, at deres forskningsforslag om AI@CARE: Laws and Ethics and Algorithmic Bias in Healthcare er blevet tildelt midler fra KU Data + -puljen.

KU Data + Funding blev etableret i 2019 for at fremme integrationen af data science i andre videnskabelige discipliner og "frigøre potentialet for innovativ og risikobaseret forskning".

Kunstig intelligens (AI) har potentialet til at "glokalisere" sundhedspleje ved at bringe ny diagnose og behandlinger til forsømte befolkninger. Alligevel er der stadig mange infrastrukturelle, juridiske og etiske spørgsmål, såsom risikoen for, at AI omfavner og spreder bias og diskrimination.

Projektet AI@CARE samler eksperter inden for digital sundhed og jura for at konceptualisere og beregningsmæssigt modellere, hvordan bias og diskrimination forekommer inden for medicinsk AI, årsagerne til disse, og hvordan problemet bedst kan løses inden for håndhævelige juridiske rammer og med pålidelig teknologisk støtte (tjeklister og designplaner) for at forbedre demokratiseringen af medicin. Udgangspunktet er et eksisterende repræsentativt storskala, longitudinelt datasæt for den danske befolkning og et sæt algoritmer til at vurdere deres risiko for kronisk sygdom på lang sigt.

"AI@CARE vil bestå af tre indbyrdes forbundne delprojekter, der undersøger dybtgående både kvalitative og kvantitative aspekter af bias og diskrimination", siger Pr. Katarzyna Wac, co-principal investigator ved Quality of Life Technologies Lab. Mens delprojekt 1 vil udnytte de eksisterende teorier fra jura og formulere nye teorier og tilgange til bias og diskrimination, vil delprojekt 2 fokusere på operationalisering af disse teorier fra et datalogisk perspektiv. I sidste ende vil delprojekt 3 fusionere underprojekt 1 og 2 for at udvikle etiske retningslinjer, juridiske reformer og 'bias awareness checklists' til algoritmeudvikling og designplaner for AI-løsninger til sundhedspleje.

Ifølge Pr. Timo Minssen, co-principal investigator hos CeBIL, "Vil denne kombination give os mulighed for at give en af de første konceptuelle redegørelser for algoritmiske / infrastrukturelle, juridiske og etiske faktorer, der er relevante for bias og diskriminationsscenarier i sundhedsvæsenet."

Projektet startede den 1. april og vil vare i tre år med deltagelse af postdoc Audrey Lebret på CeBIL og ph.d. Sofia Laghouila på QoL Lab.

Emner