Artificial Intelligence and Legal Disruption Research Group
Forskningsgruppens formål er at undersøge og tage stilling til juridiske, politiske og administrations- samt reguleringsmæssige spørgsmål, der opstår i forbindelse med den teknologiske anvendelse af Kunstig Intelligens (Artificial Intelligence, AI) inden for forskellige områder, der involverer menneskelig aktivitet.
Formål
Forskningsgruppens formål er at undersøge og tage stilling til juridiske, politiske og administrations- samt lovgivningsmæssige spørgsmål, der opstår i forbindelse med den teknologiske anvendelse af Kunstig Intelligens (Artificial Intelligence, AI) inden for forskellige områder, der involverer menneskelig aktivitet. Som sådan, er der åbenlyse overlap med Fakultetets fokus på digitalisering, men gruppens sigte er altså, at mere vidtgående konfrontere den næste generation af transformationelle spørgsmål, der opstår i forbindelse med AI og andre teknologier under udvikling.
Der er et væsentligt behov for juridisk forskning på dette område. AI er formentlig en forstyrrende og potentielt nedbrydende kraft i forhold til loven. Juridiske forskere bør derfor begynde at overveje, både hvordan teknologien skal tilpasses retslige krav, såvel som hvilke grundbegreber, der muligvis bør genovervejes set i lyset af hvad AI betyder for den generelle samfundsstruktur samt i en menneskeretlig sammenhæng. For så vidt, AI udgør et alternativt udgangspunkt for undersøgelse af legale principper og processer, er der tale om en betydelig mulighed for, ikke alene at underbygge den allerede eksisterende retlige tilrettelæggelse, men tillige at genoverveje og forbedre nuværende retssystemer. Muligheden for forbedring er her afgørende: hvad AI-systemer identificerer som uregelmæssigheder, eller producerer som slutresultat er ofte en refleksion af menneskelig og samfundsmæssig tilbøjelighed eller påvirkning. Frem for at indrette AI-systemer til at forebygge disse uregelmæssigheder, bør juridiske forskere udnytte denne nye indsigt i, at kunne adressere det underliggende friktionspunkt eller kontrovers.
Strategi
Der er et vidt spektrum af udslag ved kontaktfladen mellem AI og retten. Skønt en bred tilgang til projektet fremstår som generelt ønskelig, vil gruppens indfaldsvinkel i sit arbejde ideelt tage udgangspunkt i legal disruption. Det er netop den latente forstyrrelse af retslige principper, processer og procedurer, som AI forårsager, der vil være genstand for evaluering og undersøgelse i forskningsgruppen. Legal disruption udgør et filter, for hvilke problemstillinger, der er relevante for gruppen at forholde sig til: kunstig intelligens samt disses manifestationer, som er i stand til at grundlæggende forskyde retslige antagelser eller systematisk fordreje gældende regulering, vil først og fremmest blive taget i betragtning. Med andre ord, inkluderes kunstig intelligens samt disses manifestationer, der giver anledning til strukturelle og systematiske udfordringer for retten, som et af gruppens projekter. Dette er ganske vist en prekær indfaldsvinkel, men ikke desto mindre nødvendig, for at efterprøve hvorvidt anvendelse af kunstig intelligens samt effekterne heraf, er bevaringsværdige samt under hvilke omstændigheder dette kan være problematisk.
På baggrund af gruppens fokus på legal disruption, er dennes sigte således dynamisk og i konstant bevægelse (på samme måde som AI i sig selv er kendetaget af konstant udvikling) : for så vidt retslige og politiske spørgsmål vedrørende AI fyldestgørende besvares igennem regulering, mister disse også deres disruptive effekt og falder derved uden for gruppens fokusområde. Ukontroversielle områder er for os, uinteressante. Perspektivet på den næste generation of udfordringer, der opnås igennem dette fokus, kan anvendes til at imødese fremtidige problemer igennem forberedelse af regulering og lov. Gruppens pejlemærke er således at favne det uvisse og ukomplette, og derved formulere en mere robust reguleringsmodel som svar på disse eminente teknologier.
Forskningsområde
Berøringsfladen mellem AI og retten kan inddeles i tre overordnede kategorier:
- Reguleringen af AI: hvilke reguleringsmekanismer og –strategier er hensigtsmæssige og nødvendige for at imødekomme og udvikle AI. Sagt med andre ord, hvorfor er en retlig tilgang relevant og nødvendigt for at kontrollere udviklingen af denne teknologi som sådan, og hvilken vinding eller risiko er forbundet med at formulere effektive, legitime og robuste reguleringsmekanismer i en forandrende verden?
- Regulering af AI’s følgevirkninger, idet AI avendes på tværs af forskellige domæner, bliver ældre styringsformer ubalancerede. Hvor regulering før var unødvendig, fordi vedkommende aktiviteter udelukkende blev forfulgte af mennesker, udfordres denne tidligere antagelse af AI-agenter. Humanitær folkeret bør eksempelvis tages op til genovervejelse, hvor autonome våbensystemer anvendes på slagmarken. Det kan i denne forbindelse også være relevant at konfigurere elektroniske værn, hvis AI skal assistere i medicinsk beslutningstagen. Der er desuden spørgsmål om skrånende strukturelle påvirkninger, der koordinerer individer på en uhensigtsmæssigt måde, som førhen ikke var mulig.
- AI i retslig praksis og beslutningstagen: I forlængelse af det ovenstående, hvorfor er der grund til bekymring for algoritmisk beslutningstagen inden for rettens område samt hvori består mulighed for udvikling og vinding, såvel som risiko?
Forskningsprojekter
Gruppens eksisterende forskningsprojekter inkluderer:
- AI’s pårvirkning af den juridiske profession, praksis og principper. Herunder inkluderet er spørgsmål om forholdet mellem AI og Domstolen, erosionen af den juridiske professions kompetencer og retlig fordrejning samt rettens tilgængelighed.
- Anthropocentrisme i juraen og den juridiske proces, der kan observeres og undersøges igennem AI. Effekten af menneskelige kognitive processer på reguleringsmekanismer kan tilpasses, for så vidt mennesket både udgør subjekt og objekt for dette system. AI muliggør et konkurrerende perspektiv i forhold til at bedømme og evaluere allerede eksisterende lovmæssige påvirkninger, for at skabe et mere robust og objektivt system, der gør sig gældende for både AI og mennesker på en mere kohærent og objektiv måde.
- De potentielt katastrofale og eksistentielle, globale risikoer, der følger af AI, samt de væsentlige, men oversete måder, hvorpå ret og retspolitik kan imødekomme disse risikoer. Til trods for den kendsgerning, at fokus på dette område traditionelt set har været på ”superintelligens” samt kontrolproblemer i relation til ”value alignment-problemet”, er der muligvis også råderum for at imødegå indirekte risikoudvikling i andre vektorer. Menneskelige intelligensniveauer har i dem selv, bevist at kunne fremprovokere katastrofale eksistentielle risikoer globalt: anvendelse af ”smalle” AI-systemer kan medvirke til at mindske sandsynligheden for udviklingen af andre katastrofer (i.e. Full spectrum overvågning som muliggør eksistensen af et totalitært regime; autonome undersøiske droner, som er i stand til at opsnappe missilubåde, og derved underbyde nuklear afskrækkelse og stabilitet) og derudover er AI i stand til at underminere såvel som kraftiggøre menneskelig adfærd på en ufordelagtig måde.
- De antagelser, der ligger til grund for immaterielle rettigheder, og hvordan disse forskydes når der er tale om AI. AI’s involvering i den kreative proces stiller spørgsmålstegn ved den motivationsstiftende struktur og rationale, som ligger til grund for de nærværende immaterielle retsregler, hvilket potentielt kan skærpe allerede eksisterende uligheder i systemet.
- Hvordan juridiske værn, som nydes af mennesker, trues eller forskydes på en disket måde, fordi AI fundamentalt underminere relevansen samt effektiviteten af menneskerettighederne. Tilliden til menneskerettens beskyttelse mod AI udgør blot en illusion, og supplementariske værn må derfor opstilles med henblik på at sikre negativ, såvel som en positiv beskyttelse af mennesket.
- AI’s kapacitet til at tildele autonomi til våben og cybersystemer, hvilket belaster nuværende forestillinger og begreber, der former udbruddet af væbnede konflikter samt regulerer afviklingen af fjendtligheder. Adgangen til autonome våbensystemer vil nødvendigvis påvirke førelse af retspolitik og derved introducere militariserede koncepter og begreber til den civile medieringssfære.
- Strukturel eller systematisk diskrimination, hvor et sæt af præferencer tildeles effekt på tværs at et AI-netværk og erstatter hvad der tidligere blev betragtet som isolerede og gennemsnitlige følger. Hvor optimering af AI-processer er tøjlet, vil visse metoder bliver favoriserede over andre, hvilken vil omstrukturere fordelingen af sociale fordele samt byrder på en måde, som udelukker en åben debat eller demokratisk beslutningstagen og ansvarlighed. Idet omtalte optimeringsprocesser udøver et vist pres, vil disse højst sandsynligt kunne undgå definerende parametre, som kvalificerer diskrimination, mens på samme tid at legemliggøre meget traditionelle opfattelser af diskrimination.
Frokostmøder afholdes kl. 12:00-13:00 i lokale 8A.0.57.
- 16. september – Henrik and Jake
- 23. september – Sue Anne
- 28. oktober – Berdien
- 18. november – Catalin-Gabriel
- 9. december – Timo
Forskere
Navn | Titel | Billede |
---|---|---|
Feldthusen, Rasmus Kristian | Professor |
|
Gunnarsdóttir, Hrefna Dögg | Ph.d.-studerende |
|
Kianzad, Behrang | Postdoc |
|
Krunke, Helle | Centerleder, professor |
|
Maas, Matthijs Michiel | Gæsteforsker |
|
Mazibrada, Andrew | Ph.d.-stipendiat |
|
Minssen, Timo | Centerleder, professor |
|
Schwemer, Sebastian Felix | Centerleder, lektor |
|
Shapiro, Amanda Lee | Ph.d.-studerende |
|
Slosser, Jacob Livingston | Adjunkt |
|
Teo, Sue Anne | Ph.d.-studerende |
|
Ó Cathaoir, Katharina | Lektor |
|
Studerende
- Niels Michael Wee bxq372@alumni.ku.dk
- Emilie Trier Larsen spj718@alumni.ku.dk
- Max Kronfeld sbh614@alumni.ku.dk
- Linda Tiggemann sxf429@alumni.ku.dk
- Brid Kenny pqj297@alumni.ku.dk
- Jonas No Sjølund phf680@alumni.ku.dk
Kontakt
Lektor
Hin-Yan Liu
Det Juridiske Fakultet
Københavns Universitet
Søndre Campus, Bygning: 6A.4.16
Karen Blixens Plads 16
2300 København S
Telefon: (+45) 35 33 76 96
E-mail: hin-yan.liu@jur.ku.dk