Digitaliseringens etiske dilemmaer
Tid
Lektionen forventes at tage ca. 20 min. at gennemføre, hvis du læser teksten på siden. Hvis du inddrager alle videoer og podcastafsnit, tager lektionen ca. 2 timer at gennemføre. Dertil kommer øvelser og refleksionsspørgsmål, som du med stor fordel kan lave sammen med dine medstuderende.
Om lektionen 'Digitaliseringens etiske dilemmaer'
Lektionen giver en grundlæggende indføring i digitaliseringens etiske konsekvenser. Overordnet handler det om samspillet mellem det enkelte menneske og den digitale teknologi og de overvejelser, man skal gøre sig, når digitale teknologier udvikles, implementeres og anvendes.
Læringsmål
Når du har gennemført lektionen, forventer vi, at du:
- forstår digitaliseringens etiske konsekvenser for individet.
- kan identificere informationsetiske problemstillinger i samfundet.
- kan diskutere digitaliseringens etiske konsekvenser i forhold til eget fag og egen faglighed.
Kilde
Lektionen er produceret af Københavns Universitet som en del af Københavns Universitets læringsressourcer til digital dannelse, 2023.
Fagansvarlige:
- Sille Obelitz Søe, tenure track-adjunkt, Institut for Kommunikation
- Camilla Moring, lektor, Institut for Kommunikation
____________________________________________________________
Hvad er informationsetik?
Bias, diskrimination, overvågning, privatliv, digitalt A- og B-hold. De potentielle implikationer ved øget digitalisering er mange, og de er ikke nødvendigvis positive. Denne lektion handler om, hvad informationsetik er, og hvorfor det er relevant at forholde sig til. Du vil blive præsenteret for eksempler på informationsetiske problematikker, og hvad de betyder for mennesker og for samfundet. Derudover vil du lære at identificere informationsetiske problemstillinger i forhold til at være borger i et digitaliseret samfund.
Informationsetik er at forholde sig kritisk til informations- og kommunikationsteknologier og deres implikationer for individ og samfund. Disse implikationer kan være både gode og dårlige, og de opstår i samspillet mellem mennesker og teknologier. Det er således ikke teknologierne alene, der har en indflydelse på mennesker, men det er måden, vi designer, udvikler og anvender teknologierne, der har forskellige implikationer for de mennesker, der bruger dem, eller som de bliver brugt over for. I dag er informations- og kommunikationsteknologier ofte digitale, men de kan også være analoge, som f.eks. en fysisk fødselsattest eller et spørgeskema på papir. Informationsetik er også at forholde sig kritisk til måden, vi arbejder med og tænker om data på (både digitale og analoge data). Hvad kan vi med data, og hvad kan vi måske ikke med data? (Se også lektionen om Digitale data som grundlag for viden.)
Etik, som filosofisk disciplin, er læren om, hvad der er rigtigt og forkert, godt eller dårligt. Helt grundlæggende går det ud på at sikre det gode, retfærdige liv. Hvad der er rigtigt og forkert, godt og dårligt, afhænger dog af, hvilket grundsyn vi har på verden, og hvilken teori om retfærdighed vi finder mest korrekt og brugbar. Således kommer etik, som overordnet disciplin, ikke med nagelfaste svar på, hvad der er det rigtige. Etik åbner i stedet til refleksion og diskussion af, hvad det er for et samfund, vi godt kunne tænke os, og hvilke problemstillinger vi møder, som kan stå i vejen for det samfund eller hjælpe det på vej.
Fokus i informationsetik er oftest på de potentielle farer eller risici over for individ og samfund, der ligger i brugen af informations- og kommunikationsteknologier.
Typiske informationsetiske problemstillinger, der netop alle handler om potentielle risici, er privatliv, overvågning, digitalt udsatte samt bias og diskrimination. Du kan læse om de fire problemstillinger nedenfor.
____________________________________________________________
Problemstilling #1: Privatliv
Privatliv, retten til privatliv, værdien af privatliv eller ganske enkelt privacy er en af de mest almindelige informationsetiske problemstillinger. Brugen af informations- og kommunikationsteknologier involverer indsamling af data, herunder personlig data (også kaldet personlig information eller personhenførbare oplysninger). Indsamling og brug af personlig data er reguleret af persondataforordningen (GDPR Links to an external site.) for at beskytte EU’s borgere og deres data. Denne beskyttelse er en del af retten til privatliv, men spørgsmålet om privacy er bredere end blot databeskyttelse.
Således omfatter problemstillingerne vedrørende privacy spørgsmål af typen:
- Hvordan sikrer vi borgernes ret til privatliv i en dataficeret verden?
- Hvordan kan vi forstå begrebet privacy i en dataficeret og netværksforbundet verden?
- Hvilken indflydelse har informations- og kommunikationsteknologier på individers muligheder for privacy?
- Hvilken ny information om individer kan vi læse ud af aggregeret personlig information?
Læs mere her:
- Se, hvor let det er at identificere personer i store datasæt: The Observatory of Anonymity Links to an external site.
- Se, hvor meget data der bliver indsamlet fra otte almindelige danskere i rapporten: En hverdag af data – En kortlægning af digitale tjenesters dataindsamling, og hvad befolkningen ved og mener om den, Dataetisk Råd og Analyse & Tal, 2023
Links to an external site.
Why privacy matters
Glenn Greenwald was one of the first reporters to see – and write about – the Edward Snowden files, with their revelations about the United States' extensive surveillance of private citizens. In this searing talk, Greenwald makes the case for why you need to care about privacy, even if you're "not doing anything you need to hide." (ted.com
Links to an external site.)
____________________________________________________________
Problemstilling #2: Overvågning
Overvågning er ikke et nyt fænomen, men overvågning som praksis er blevet gjort lettere qua den udbredte digitalisering, vi har i Danmark. Tracking af individers færden på Internettet, tracking af lokationsdata via smartphones, overvågningskameraer med ansigtsgenkendelse og generel indsamling af personlig information hører alt sammen til kategorien af digital overvågning.
Overvågning har indflydelse på borgernes ret til og muligheder for privacy, men overvågning har også andre implikationer i forhold til et demokratisk samfund. Udbredt overvågning kan føre til såkaldte chilling effects, hvor borgerne afholder sig fra at udøve deres demokratiske ret f.eks. i forhold til at demonstrere af frygt for senere repressalier. Når digitale teknologier gør det muligt at tracke og overvåge individer i store folkemængder, bliver individet mere sårbart.
Informationsetiske problemstillinger vedrørende overvågning kan således være, hvilken data der må indsamles og samkøres om den enkelte borger; denne problemstilling er også relevant for spørgsmål vedr. privacy. Men det er også spørgsmål vedrørende, hvilke teknologier det er forsvarligt at anvende i hvilke situationer, hvor meget eller hvor lidt overvågning man må udsætte sin befolkning for, hvilke typer af data der kan indgå i efterretningsprodukter baseret på overvågning, hvilken status den indsamlede data har, samt hvilke samarbejder man kan indgå på tværs af landegrænser med henblik på indsamling af data om borgerne.
Ovenover denne type af spørgsmål ligger et spørgsmål om, hvad det er for en viden man kan tilegne sig på baggrund af digital overvågning (dvs. indsamling af digitale data om borgerne), hvilken betydning data har, og hvad de kan fortælle os eller ikke fortælle os.
- Læs en grundig artikel fra New York Times om tracking via lokationsdata: Twelve Million Phones, One Dataset, Zero Privacy, NYT, 2019 Links to an external site.
- Se, hvilke data din browser indsamler om dig: Cover your tracks, Electronic Frontier Foundation
Links to an external site.
The shift we need to stop mass surveillance
Mass surveillance is worse than you think, but the solutions are simpler than you realize, says lawyer, technologist and TED Fellow Albert Fox Cahn. Breaking down the crude tactics law enforcement uses to sweep up massive amounts of data collected about us by our everyday tech, he lays out how new legal firewalls can protect the public from geofence warrants and other surveillance abuses -- and how we might end the looming dystopia of mass surveillance. (ted.com
Links to an external site.)
____________________________________________________________
Problemstilling #3: De digitalt udsatte
I Danmark har vi ret til fri og lige adgang til information samt til det offentlige. Men denne ret udfordres i takt med, at adgangen kræver flere og flere digitale kompetencer.
Øget digitalisering ændrer den måde, vi tilgår information på, og det ændrer ved vores muligheder for at komme i kontakt med det offentlige - på godt og på ondt. For dem, der har let ved at bruge de nye digitale teknologier, kan navigere på internettet, er vant til at bruge en smartphone og ikke har problemer med dansk og engelsk, har digitaliseringen gjort hverdagen lettere. De fleste ting kan ordnes fra computeren og telefonen - lige fra bankforretninger over booking af lægetider til ansøgning om SU, boligsikring og dagpenge. Men for dem, der af forskellige årsager ikke har let ved at anvende de digitale teknologier og systemer, er hverdagen blevet en udfordring. De er blevet digitalt udsatte.
Det er en informationsetisk problemstilling at påpege og diskutere, hvad der sker, når digitaliseringen ændrer ved vores hidtidige praksisser, samt hvorledes vi kan sikre, at alle har lige adgang til den information og de ydelser, de har brug for. Samtidig er det en informationsetisk problemstilling at spørge, hvorvidt den udbredte digitalisering er nødvendig alle steder, eller om der er områder, hvor et ikke-digitalt alternativ er ønskeligt, samt hvorledes den ønskede digitalisering bør foregå.
Du kan læse og høre mere om de digitalt udsatte i case #3 i lektionen Digitalisering af samfundet
____________________________________________________________
Problemstilling #4: Bias og diskrimination
Informations- og kommunikationsteknologier opererer på baggrund af algoritmer, og algoritmerne opererer på baggrund af inputdata. Det kunne f.eks. være en samling af billeder, ud fra hvilken algoritmen skal vurdere, hvilke billeder der viser hunde, og hvilke der ikke gør. Da algoritmer altid opererer på baggrund af en datamængde, vil der altid være foretaget et valg i forhold til, hvilke data der er en del af mængden, og hvilke data der ikke er en del af mængden. Hertil kommer de valg, der er truffet i programmeringen af algoritmen: Hvordan skal algoritmen ’forstå’ og ’handle’ på disse data? Hvis de data, en algoritme har til rådighed eller trænes på baggrund af, ikke er repræsentativ - dvs. hvis den er biased og skævvreden – så kan der opstå forskellige former for diskrimination i det output, algoritmen (eller det samlede system) kommer med. Det var f.eks. tilfældet med et system i USA, der skulle hjælpe myndighederne med at vurdere, hvorvidt indsatte var i risiko for at foretage nye forbrydelser, hvis de blev prøveløsladt. De data, man havde brugt til at træne systemet med, og den måde systemet var programmeret på, gjorde, at vurderingerne, det kom med, var racistiske i den forstand, at de indsattes etnicitet blev en afgørende faktor i beregningen af deres risiko for at foretage nye forbrydelser.
Et andet eksempel på et biased algoritmisk system var et billedgenkendelsesværktøj, der skulle kunne kende forskel på hunde og ulve. I nogle henseender fungerede systemet godt, i andre henseender slet ikke. Det viste sig, at det billedmateriale, man havde trænet systemet på baggrund af, altid viste ulve i snelandskab. Systemet havde således lært at skelne mellem, hvorvidt baggrunden var hvid (viste sne) eller ej, og kunne reelt ikke identificere hunde fra ulve.
Bias og diskrimination forstærkes også af, at de algoritmiske systemer oftest har indbyggede feedback-loops, dvs. at den vurdering, systemet kommer med, kommer til at indgå som data i den datamængde, systemet trænes videre på. Således bliver de negative og diskriminerende effekter af systemet selvforstærkende.
Det er således en informationsetisk problemstilling at forholde sig til, hvilke data der indgår i de systemer, man arbejder med. Er data repræsentative, eller er de biased (skævvredet) på en måde, der vil få betydning for bestemte befolkningsgrupper? Det er også vigtigt at holde sig for øje, hvilke antagelser om, hvad data betyder, der er indbygget i systemerne. Er det f.eks. relevant at medtage etnicitet, når man skal beregne risiko for kriminel adfærd?
The era of blind faith in big data must end
Algorithms decide who gets a loan, who gets a job interview, who gets insurance and much more - but they don't automatically make things fair. Mathematician and data scientist Cathy O'Neil coined a term for algorithms that are secret, important and harmful: "weapons of math destruction." Learn more about the hidden agendas behind the formulas. (ted.com
Links to an external site.)
____________________________________________________________
Problemstilling #5: Generativ AI og ophavsret
Generativ AI er algoritmiske systemer (dybe neurale netværk), der kan skabe nyt, unikt indhold, fordi de er trænet på gigantiske datasæt af tekst, lyd, billeder og video. For at skaffe nok data, er de fleste generative AI-systemer trænet på indhold, der er skrabet fra Internettet. Inden generativ AI for alvor blev kommercialiseret i kølvandet på lanceringen af ChatGPT i 2022, foregik udviklingen af de fleste generative AI-systemer i åbenhed. Udviklerne delte både kode og datasæt, og derfor er det relativt nemt at grave i, hvilke kreative værker, der har fodret de tidlige generative modeller som f.eks. Dall-E, Midjourney og ChatGPT.
'The pile' og 'Books3' – gigantiske datasæt af tekster har fodret de store sprogmodeller En del af de tidlige, store sprogmodeller (bl.a. Meta AI's LLaMA-model) er trænet på et gigantisk datasæt, der hedder 'The Pile' Links to an external site.. Datasættet består bl.a. af undertekster fra Youtube, Wikipedia, digitaliserede bøger fra Project Gutenberg og et datasæt ved navn 'Books3' som indeholder en stor mængde piratkopierede bøger, herunder mindst 150 bøger af danske forfattere. Den danske organisation Rettighedsalliancen, som repræsenterer danske forfattere, kæmper for at få fjernet 'books3' fra Internettet. Det kan du læse om her:
|
Ingen har spurgt de mennesker, der har lagt tekst, lyd, billeder og video på Internettet om samtykke til at deres kreationer skulle bruges til at træne generativ AI, og ingen har spurgt de mennesker, som har fået delt deres indhold på Internettet uden samtykke om det samme. Afdøde kunstnere og skribenter er selvsagt heller ikke hørt.
Billeder genereret af Bing Chat (powered by Dall-E), 17. Januar 2023. Inputtekst: 'A generative AI-system in the style of Picasso'
Men er der det i orden, at kommercielle virksomheder kan bygge produkter, som er trænet på indhold, der er beskyttet af ophavsret uden at søge samtykke, uden at kreditere og uden økonomisk kompensation? Og er det i orden, at man som bruger af generativ AI, kan bede om tekster eller billeder, som er udformet 'in the style of...' eller som direkte citerer lange passager af indhold, der er beskyttet af ophavsret? Virksomhederne bag de generative AI-systemer hævder, at de bruger værkerne indenfor rammerne af de amerikanske copyrightbestemmelser om 'Fair use Links to an external site.'.
Problemstillingerne om generativ AI og ophavsret bliver vendt og drejet i retsager verden over og i ny lovgivning, som prøver at indhente den teknologiske udvikling.
Du kan høre om to interessante sager i tech-podcasten 'Hard Fork' fra The New York Times:
- January 20, 2023
Links to an external site.: Tegneserietegneren Sarah Andersen, der står bag striben 'Sarah's scribbles', fortæller hvorfor hun har sagsøgt virksomhederne bag Stable Diffusion, Midjourney og DreamUp (Generative AI-systemer, der kan skabe billeder). Lyt fra 25:40.
- January 5, 2024 Links to an external site.: New York Times har sagsøgt OpenAI og Microsoft for brud på deres ophavsret i forbindelse med træningen af de store sprogmodeller, ChatGPT og Bing Chat. Lyt til de første 30 minutter.
Se lektionenen 'Teknologien bag ChatGPT og store sprogmodeller', hvis du har brug for en forklaring af, hvad AI-sprogmodeller og generativ AI er.
____________________________________________________________
Refleksionsøvelser
Reflekter over disse informationsetiske problemstillinger:
- Beskriv en problemstilling vedrørende privacy fra din egen hverdag.
- Beskriv en problemstilling vedrørende overvågning fra din egen hverdag.
- Beskriv en problemstilling vedrørende digitalt udsatte fra din egen hverdag.
- Beskriv en problemstilling vedrørende bias og diskrimination fra din egen hverdag.
- Overvej hvor du står ift. til problemstillingerne om copyright og generativ AI.
- Kan du komme med andre eksempler på informationsetiske problemstillinger?
____________________________________________________________