Forskning – Københavns Universitet

Dansk > Forskning

Forskning

Forskningsområde

Berøringsfladen mellem AI og retten kan inddeles i tre overordnede kategorier:

  • Reguleringen af AI: hvilke reguleringsmekanismer og –strategier er hensigtsmæssige og nødvendige for at imødekomme og udvikle AI. Sagt med andre ord, hvorfor er en retlig tilgang relevant og nødvendigt for at kontrollere udviklingen af denne teknologi som sådan, og hvilken vinding eller risiko er forbundet med at formulere effektive, legitime og robuste reguleringsmekanismer i en forandrende verden?
  • Regulering af AI’s følgevirkninger, idet AI avendes på tværs af forskellige domæner, bliver ældre styringsformer ubalancerede. Hvor regulering før var unødvendig, fordi vedkommende aktiviteter udelukkende blev forfulgte af mennesker, udfordres denne tidligere antagelse af AI-agenter. Humanitær folkeret bør eksempelvis tages op til genovervejelse, hvor autonome våbensystemer anvendes på slagmarken. Det kan i denne forbindelse også være relevant at konfigurere elektroniske værn, hvis AI skal assistere i medicinsk beslutningstagen. Der er desuden spørgsmål om skrånende strukturelle påvirkninger, der koordinerer individer på en uhensigtsmæssigt måde, som førhen ikke var mulig.
  • AI i retslig praksis og beslutningstagen: I forlængelse af det ovenstående, hvorfor er der grund til bekymring for algoritmisk beslutningstagen inden for rettens område samt hvori består mulighed for udvikling og vinding, såvel som risiko?

Forskningsprojekter 

Gruppens eksisterende forskningsprojekter inkluderer:

  • AI’s påvikning af den juridiske profession, praksis og principper. Herunder inkluderet er spørgsmål om forholdet mellem AI og Domstolen, erosionen af den juridiske professions kompetencer og retlig fordrejning samt rettens tilgængelighed.
  • Anthropocentrisme i juraen og den juridiske proces, der kan observeres og undersøges igennem AI. Effekten af menneskelige kognitive processer på reguleringsmekanismer kan tilpasses, for så vidt mennesket både udgør subjekt og objekt for dette system.  AI muliggør et konkurrerende perspektiv i forhold til at bedømme og evaluere allerede eksisterende lovmæssige påvirkninger, for at skabe et mere robust og objektivt system, der gør sig gældende for både AI og mennesker på en mere kohærent og objektiv måde.
  • De potentielt katastrofale og eksistentielle, globale risikoer, der følger af AI, samt de væsentlige, men oversete måder, hvorpå ret og retspolitik kan imødekomme disse risikoer. Til trods for den kendsgerning, at fokus på dette område traditionelt set har været på ”superintelligens” samt kontrolproblemer i relation til ”value alignment-problemet”, er der muligvis også råderum for at imødegå indirekte risikoudvikling i andre vektorer. Menneskelige intelligensniveauer har i dem selv, bevist at kunne fremprovokere katastrofale eksistentielle risikoer globalt: anvendelse af ”smalle” AI-systemer kan medvirke til at mindske sandsynligheden for udviklingen af andre katastrofer (i.e. Full spectrum overvågning som muliggør eksistensen af et totalitært regime; autonome undersøiske droner, som er i stand til at opsnappe missilubåde, og derved underbyde nuklear afskrækkelse og stabilitet) og derudover er AI i stand til at underminere såvel som kraftiggøre menneskelig adfærd på en ufordelagtig måde.
  • De antagelser, der ligger til grund for immaterielle rettigheder, og hvordan disse forskydes når der er tale om AI. AI’s involvering i den kreative proces stiller spørgsmålstegn ved den motivationsstiftende struktur og rationale, som ligger til grund for de nærværende immaterielle retsregler, hvilket potentielt kan skærpe allerede eksisterende uligheder i systemet.
  • Hvordan juridiske værn, som nydes af mennesker, trues eller forskydes på en disket måde, fordi AI fundamentalt underminere relevansen samt effektiviteten af menneskerettighederne. Tilliden til menneskerettens beskyttelse mod AI udgør blot en illusion, og supplementariske værn må derfor opstilles med henblik på at sikre negativ, såvel som en positiv beskyttelse af mennesket.
  • AI’s kapacitet til at tildele autonomi til våben og cybersystemer, hvilket belaster nuværende forestillinger og begreber, der former udbruddet af væbnede konflikter samt regulerer afviklingen af fjendtligheder. Adgangen til autonome våbensystemer vil nødvendigvis påvirke førelse af retspolitik og derved introducere militariserede koncepter og begreber til den civile medieringssfære. 
  • Strukturel eller systematisk diskrimination, hvor et sæt af præferencer tildeles effekt på tværs at et AI-netværk og erstatter hvad der tidligere blev betragtet som isolerede og gennemsnitlige følger. Hvor optimering af AI-processer er tøjlet, vil visse metoder bliver favoriserede over andre, hvilken vil omstrukturere fordelingen af sociale fordele samt byrder på en måde, som udelukker en åben debat eller demokratisk beslutningstagen og ansvarlighed. Idet omtalte optimeringsprocesser udøver et vist pres, vil disse højst sandsynligt kunne undgå definerende parametre, som kvalificerer diskrimination, mens på samme tid at legemliggøre meget traditionelle opfattelser af diskrimination.