Automated Weapons of Mass Persuasion: EU Legal Responses to the Artificial Amplification of Disinformation on Social Media During Elections
Public defence of PhD thesis by Ricardo Andres Vasquez Dazarola.
Over the past decade, disinformation on social media platforms has evolved into a complex phenomenon shaped by the interplay of technological, social, and political forces. A central factor in this equation is the increasing availability and sophistication of tools and techniques empowered by AI systems, such as deep fakes and social media bots, which are exploited to produce disinformation that is more realistic, precise, and widespread than ever before. Against this backdrop, elections have become a primary target of disinformation campaigns in the EU and worldwide, threatening democratic processes, public debate, and people's fundamental rights.
Recognising these risks, disinformation is now widely acknowledged by governments, civil society, academia, and international organisations as one of the most pressing challenges of our time, prompting a proliferation of responses. At the EU level, this has led to the emergence of different regulatory instruments aimed at tackling disinformation and its associated harms. Building on this context, this thesis addresses the following research question: "How does and should EU law and its novel legal instruments tackle the artificial amplification of disinformation on social media platforms during elections?" To answer this research question, the project employs a dual methodological approach, combining a law and technology perspective with the traditional legal dogmatic methodology.
The first step of this research is to clarify the core concepts that delineate its scope and are used throughout this research: disinformation, social media platforms, and elections. Disinformation is examined as an autonomous phenomenon distinct from misinformation, using diverse policy and legal definitions, with particular reference to the European Commission. In addition, special recognition is given to the strategic dissemination element of disinformation, specifically the role of automatic techniques amplifying its effects, as a pivotal component of disinformation in the 21st century. Regarding social media platforms, the analysis concentrates on a concept that encompasses the most widely used online platforms in the EU, while the election notion covers both regional and national public electoral processes in the region.
Once the fundamental concepts are established, this thesis outlines the technological scenario in which it is set. The focus is on providing a comprehensive examination of the following AI tools and techniques that malicious actors exploit to amplify disinformation effects on social media during elections: deep fakes, political micro-targeting, bots, and content recommendation algorithms. Individually or combined, these tools have opened new possibilities for manipulating people and distorting elections at a whole new level. Importantly, understanding their technological foundations and impact on societal and legally protected values not only illustrates the role of AI in this complex ecosystem but also provides the basis for a critical reflection on existing EU law on the topic.
Due to the absence of a comprehensive EU law on disinformation, this thesis then employs deep fakes, political micro-targeting, bots, and content recommendation algorithms as markers to identify the applicable law on the subject. Notably, using these four technologies as analytical benchmarks, it becomes possible to trace and connect relevant legal provisions across three key instruments of EU law: the Artificial Intelligence Act (AI Act), the Transparency and Targeting of Political Advertising Act (TTPA Act), and the Digital Services Act (DSA). Collectively, their examination reveals a nascent EU legal framework addressing the artificial amplification of disinformation on social media during elections. For example, the AI Act addresses deep fakes via transparency obligations, the TTPA Act restricts the processing of personal data when targeting political ads, and the DSA lays down a risk mitigation structure with potential applicability to all four amplification tools.
As a range of legal provisions is detected, this thesis proceeds with a second step: systematising the applicable legal framework based on the nature of the actor targeted (i.e., public or private) and the type of legal intervention (i.e., transparency). The main goal is to establish a clear structure of responsibility, identifying who is liable for what actions and the applicable measures in case of non-compliance. The outcome is presented in the form of a "Roadmap of Obligations", a practical tool that shows the intricate compliance architecture and highlights the distribution of duties, which is not centred on a single actor and type of legal intervention. Instead, it is characterised by a multilevel responsibility structure where various players, such as data controllers and very large online platforms, are subject to diverse categories of obligations within the normative landscape.
The last step of this project is to provide an overarching assessment of the interaction among the different EU legislations examined. The attention here is on uncovering the most relevant synergies (where obligations reinforce each other) and potential limitations (absence of comprehensive regulation). Notably, a strong connection exists among the regulations tackling deep fakes and political micro-targeting, whereas a different scenario unfolds with bots and content recommendation algorithms. At the same time, all four amplification tools display limitations in their regulation, especially when they rely heavily on risk mitigation obligations. Against this backdrop and inspired by legislation enacted outside the region, this thesis offers concrete ideas to update the law, such as introducing standalone transparency rules to tackle electoral deep fakes under the DSA.
I løbet af det seneste årti har desinformation på sociale medieplatforme udviklet sig til et komplekst fænomen, formet af samspillet mellem teknologiske, sociale og politiske kræfter. En central faktor i denne udvikling er den stigende tilgængelighed og sofistikering af værktøjer og teknikker understøttet af AI-systemer, såsom deep fakes og sociale mediebots, der udnyttes til at producere desinformation, som er mere realistisk, præcis og udbredt end nogensinde før. På denne baggrund er valg blevet et primært mål for desinformationskampagner i EU og på verdensplan, hvilket truer de demokratiske processer, den offentlige debat og borgernes grundlæggende rettigheder.
I erkendelse af disse risici er desinformation nu bredt anerkendt af regeringer, civilsamfund, akademia og internationale organisationer som en af de mest presserende udfordringer i vores tid, hvilket har medført en vækst i reguleringsmæssige tiltag. På EU-plan har dette ført til fremkomsten af forskellige retsakter, der har til formål at bekæmpe desinformation og de skader, den medfører. Med udgangspunkt i denne kontekst behandler denne PhD følgende forskningsspørgsmål: “Hvordan håndterer og bør EU-retten og dens nye retsinstrumenter håndtere den kunstige forstærkning af desinformation på sociale medieplatforme under valg?” For at besvare dette spørgsmål anvender projektet en dobbelt metodisk tilgang, der kombinerer et ret- og teknologiperspektiv med den traditionelle juridiske dogmatiske metode.
Det første skridt i denne undersøgelse er at afklare de kernebegreber, der afgrænser dens omfang og anvendes gennem hele forskningen: desinformation, sociale medieplatforme og valg. Desinformation undersøges som et selvstændigt fænomen adskilt fra misinformation ved hjælp af forskellige politiske og juridiske definitioner, med særlig reference til Europa-Kommissionen. Derudover gives der særlig opmærksomhed til det strategiske spredningselement i desinformation, specifikt brugen af automatiske teknikker, der forstærker dens effekt, som en central komponent i det 21. århundrede. Hvad angår sociale medieplatforme, koncentrerer analysen sig om et begreb, der omfatter de mest anvendte onlineplatforme i EU, mens valgdefinitionen dækker både regionale og nationale offentlige valgprocesser i regionen.
Når de grundlæggende begreber er fastlagt, skitserer denne PhD det teknologiske kontekst, det indgår i. Fokus er på at give en omfattende gennemgang af følgende AI-værktøjer og -teknikker, som ondsindede aktører udnytter til at forstærke desinformation under valg på sociale medier: deep fakes, politisk mikromålretning, bots og sociale mediers anbefalingsalgoritmer. Hver for sig eller kombineret har disse værktøjer åbnet nye muligheder for at manipulere mennesker og forvride valg på et helt nyt niveau. At forstå deres teknologiske grundlag og indvirkning på samfundsmæssige og retligt beskyttede værdier illustrerer ikke blot AI’s rolle i dette komplekse økosystem, men giver også grundlag for en kritisk refleksion over gældende EU-ret på området.
På grund af fraværet af en samlet EU-retlig ramme om desinformation anvender dette speciale deep fakes, politisk mikromålretning, sociale mediebots og anbefalingsalgoritmer som pejlemærker til at identificere gældende ret. Ved at bruge disse fire teknologier som analytiske benchmarks bliver det muligt at spore og forbinde relevante retsregler på tværs af tre centrale EU-retsakter: Artificial Intelligence Act (AI Act), Transparency and Targeting of Political Advertising Act (TTPA Act) og Digital Services Act (DSA). Samlet viser deres gennemgang en spirende EU-retlig ramme, der adresserer den kunstige forstærkning af desinformation på sociale medier under valg. For eksempel adresserer AI Act deepfakes gennem gennemsigtighedsforpligtelser, TTPA Act begrænser behandlingen af personoplysninger ved målretning af politiske annoncer, og DSA opstiller en struktur for risikobegrænsning med potentiel anvendelse på alle fire forstærkningsteknologier.
Efter at have identificeret en række retsregler går specialet videre til det næste skridt: at systematisere den gældende retlige ramme baseret på arten af de aktører, der er målrettet (dvs. offentlige eller private), og typen af juridisk indgreb (f.eks. gennemsigtighed). Hovedmålet er at etablere en klar ansvarsstruktur, der identificerer, hvem der er ansvarlig for hvilke handlinger, og hvilke foranstaltninger der gælder ved manglende overholdelse. Resultatet præsenteres i form af et “Roadmap of Obligations”, et praktisk værktøj, der viser den komplekse compliance-struktur og fremhæver fordelingen af forpligtelser, som ikke er centreret om en enkelt aktør eller et enkelt juridisk indgreb. I stedet kendetegnes den af en flerlagdelt ansvarsstruktur, hvor forskellige aktører, såsom dataansvarlige og meget store onlineplatforme, er underlagt forskellige kategorier af forpligtelser inden for det normative landskab.
Det sidste skridt i projektet er at levere en overordnet vurdering af samspillet mellem de forskellige EU-retsakter, der er analyseret. Fokus er her på at afdække de mest relevante synergier (hvor forpligtelser styrker hinanden) og potentielle begrænsninger (manglende samlet regulering). Bemærkelsesværdigt er der en stærk forbindelse mellem reguleringen af deep fakes og politisk mikromålretning, mens et andet billede tegner sig for bots og anbefalingsalgoritmer. Samtidig udviser alle fire forstærkningsteknologier reguleringsmæssige begrænsninger, især når de i høj grad baserer sig på risikobegrænsningsforpligtelser. På denne baggrund og inspireret af lovgivning uden for regionen tilbyder specialet konkrete idéer til at opdatere lovgivningen, såsom at indføre selvstændige gennemsigtighedsregler til at håndtere valgrelaterede deepfakes under DSA.
Assesment committee
- Hin-Yan Liu, Associate Professor, Centre for European, Comparative, and Constitutional Legal Studies, Faculty of Law, University of Copenhagen, Denmark. Chair
- Oreste Policcino, Professor of Constitutional Law and AI Regulation, Università Bocconi, Italy
- Migle Laukyte, Associate Professor in AI and Law, Universitat Pompeu Fabra, Spain.
Supervisor
- Professor Helle Krunke, Faculty of Law, University of Copenhagen
After the defence Ricardo and the Faculty of Law will host a reception in the Fireplace Room 8A.016, Karen Blixens Plads 16, 2300 Copenhagen S. The reception ends at 15:00.
A copy of the thesis can be ordered from phd-forsvar@jur.ku.dk.
The defence will be held in English.