Module 2A - Maatschappelijke uitdagingen Flashcards

1
Q

Wat is het recht op privacy?

A
  • Het recht op privéleven of de eerbieding van de persoonlijke levenssfeer valt, alsook het recht op fysieke en geestelijke integriteit, het recht om een eigen identiteit te vormen, en het recht om relaties aan te gaan.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wettelijke grondslag privacy?

A

Art. 22 Gw; Art. 8 EVRM; Art. 7 EU Grondrechten handvest; artikel 17 Internationaal Verdrag inzake Burgerrechten en Politieke Rechten (IVBPR)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Met wat houdt privacy nauw verband?

A
  • Noties van menselijke waardigheid, persoonlijke autonomie, gewetensvrijheid, vrijheid van mening te koesteren = forum internum (art. 9 EVRM: vrijheid van gedachte, geweten en godsdienst); vrijheid van meningsuiting (art. 10 EVRM).
  • Het hebben van bepaalde opvattingen (forum internum) wordt beschouwd als een absoluut grondrecht, terwijl het uiten van (religieuze of andere) meningen (forum externum) onderworpen kan worden aan beperkingen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Staan onze privacy rechten onder druk?

A
  • Ja, door de toegenomen mogelijkheden van monitoring en screening, zowel in publieke als private sfeer: zie recente commotie rond toenemend gebruik overheid van camera’s met technologie voor gelaatsherkenning.
  • Ook kritiek op bedrijfsmodel van internetbedrijven = toezichtskapitalisme (Zuboff): het systeem waarbij techgiganten als Facebook, Google en Amazon steeds meer data over ons verzamelen – al lang niet meer enkel onze naam, locatie, surf- en aankoopgeschiedenis, voorkeuren, maar ook onze emoties en persoonlijkheid (via ons typgedrag, onze stem en ons gezicht) – om die te analyseren en ons gedrag te voorspellen (of zelfs te sturen), waarna ze die voorspellingen verkopen aan bedrijven (of politieke organisaties)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wat zijn chilling effects?

A

Verregaande vormen van surveillance (dataveillance) in publieke ruimtes, bijvoorbeeld in smart cities, kunnen leiden tot zogenaamde chilling effects, waardoor ons autonome denken en handelen wordt aangetast.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wat is de bezorgdheid over het recht op relationele privacy?

A
  • Hoewel de inzet van AI-gestuurde robots in de zorgsector de mogelijkheden van ouderen en zorgbehoevenden kan vergroten om contact te houden met de buitenwereld, en dus positief kan bijdragen aan het recht op zelfverwezenlijking, heerst er ook bezorgdheid over een negatieve impact op het recht op relationele privacy.
  • Recente teksten aangenomen door de Raad van Europa waarschuwen dan ook voor ongewenste vormen van algoritmische manipulatie die onze cognitieve soevereiniteit zouden kunnen aantasten, en breken een lans voor de expliciete erkenning van “het recht op betekenisvol menselijk contact”, alsook van “het recht om niet gemeten, geanalyseerd of beïnvloed” te worden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wat zijn de gelijkheidsrechten?

A
  • Het hogergenoemde recht om niet gemeten of geanalyseerd te worden hangt nauw samen met de impact van AI op onze gelijkheidsrechten (het recht op gelijke behandeling en non-discriminatie), zoals neergelegd in artikel 10-11 van de Belgische Grondwet, artikel 20-21 EU Grondrechtenhandvest, artikel 14 EVRM en artikel 26 IVBPR.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Waarom is er een invloed op onze gelijkheidsrechten door AI?

A
  • Moderne technieken voor datamining en profilering, die inherent gericht zijn op het maken van onderscheid tussen (groepen) individuen, dreigen te resulteren in vormen van algoritmische discriminatie die in strijd zijn met deze gelijkheidsrechten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Waarvoor waarschuwen veel auteurs bij AI en gelijkheidsrechten?

A
  • Diverse auteurs waarschuwen voor de slechts schijnbare neutraliteit van de algoritmes waarmee deze technieken werken, ten gevolge van bias in de data (ook aangeduid als garbage in, garbage out) en bias in de gebruikte algoritmes.
  • Opinions embedded in code
    • fenomeen van data-laundering of math-washing aan, waarbij organisaties en bedrijven zich bij het nemen van moeilijke beslissingen verschuilen achter vermeend neutrale algoritmes
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wat is de moeilijkheid hieromtrent bij gelijkheidsrechten en AI?

A
  • De ondoorzichtigheid en complexiteit van algoritmes maken dat het vaak niet duidelijk is of er sprake is van concrete benadeling en ongerechtvaardigde ongelijke behandeling.
  • Zo ontdekte Amazon pas na een tijd dat zijn rekruteringsalgoritme systematisch vrouwen benadeelde, omdat het getraind was op onderliggende data die voornamelijk van mannen afkomstig waren
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wat toonde de studie uit 2019 “Automating Society Taking Stock of Automated Decision-Making in the EU van de NGO Algorithm Watch” aan?

A
  • Systemen voor automatische beslissingsondersteuning gebaseerd op doorgedreven data-analyse snel ingeburgerd raken in Europa (en dus niet enkel in China, wiens experimenten met een sociaal kredietsysteem wereldwijde controverse veroorzaken).
  • Nu ingezet: Voor het toekennen van leningen of verzekeringen, het detecteren van fraude in belastingen of sociale uitkeringen, voor het screenen van jobapplicaties, het optimaliseren van de publieke gezondheidszorg en het onderwijssysteem, enzoverder.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

In welke sector is het vooral gevaarlijk om dit te gebruiken die AI?

A
  • Strafrechtelijke sfeer: bv. risico in te schatten van criminele feiten of recidive (predictive policing): moeten aan een voldoende kritisch onderzoek worden onderworpen alvorens ze worden ingezet, ook vanuit het oogpunt van onze procedurele rechten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Amerikaanse COMPAS-systeem

A
  • “Correctional Offender Management Profiling for Alternative Sanctions” ontwikkeld door Amerikaans technologiebedrijf Northpointe (nu Equivant) en werd in de Verenigde Staten gebruikt om het risico op criminele recidive te voorspellen.
  • Zij tonen in een grootschalige studie aan hoe voorspellingen van COMPAS niet nauwkeuriger of eerlijker zijn dan voorspellingen van mensen met weinig of geen expertise op het gebied van het strafrecht.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Waarom is een gevaar voor de openbare veiligheid?

A
  • Dergelijke asymmetrische verdeling van valse negatieven en valse positieven (ook type I en type II fouten genoemd) in het model aantoont dat het algoritme sterk discrimineert op een manier die de openbare veiligheid in het gevaar kan brengen.
  • De disproportionele benadeling → verdoken vorm van racisme en kan ook het recht op een eerlijk proces ondermijnen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Is het rechtvaardig om verdachten te behandelen op basis van parameters waar zij in wezen geen invloed over hebben?

A
  • Is het rechtvaardig een verdachte enigszins anders te behandelen omdat diens vrienden ooit drugs hebben genomen?
  • Gezien algoritmes, en de classificaties die zij doorvoeren, een concrete invloed uitoefenen op onder meer de kansen die personen krijgen toebedeeld, alsook de voordelen en lasten die ze dragen, is er een noodzaak de maatschappelijke inwerking van deze technieken tevens in termen van hun rechtvaardigheid, gelijkheid en non-discriminatie te (her)evalueren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Hoe ontstaan deze problemen van gelijkheidsrechten?

A
  1. Ondoorzichtigheid van AI-systemen (intellectuele rechten of bedrijfsgeheimen) → moeilijk om discriminatie aan te tonen.
  2. Gebruik gemaakt, al dan niet bewust, met ‘onschuldige’ associatieve criteria, die niet onder de beschermde criteria van de antidiscriminatiewetgeving vallen (zoals de buurt waar men woont, in plaats van ethniciteit of nationaliteit)
17
Q

Wat is datamining?

A
  • Via datamining kan worden gezocht naar verafgelegen, ogenschijnlijk neutrale indicatoren (zoals ‘lezer van Dag Allemaal’, ‘bezoeker van een website over LGBT’, ‘liefhebber van science-fiction films’), die uiteindelijk iets zeggen over ras, politieke voorkeur, seksuele geaardheid, geslacht of leeftijd, resulterend in zogenaamde discriminatie door associatie. Op die manier kan men beschermde criteria ‘maskeren’
18
Q

Wat is affiniteitsprofilering

A
  • Vaak worden we daarbij in categorieën ondergebracht op basis van onze vermeende voorkeuren, eerder dan onze werkelijk vastgestelde voorkeuren (op basis van de redenering dat wanneer ik in sterke mate overeenkom met een persoon die bepaalde kenmerken combineert, ik die combinatie ook zal vertonen)
    • Dit kan leiden naar discrimination by assumption
  • Komt heel veel voor!:
19
Q

discrimination by assumption: wat kunnen we hier tegen doen?

A
  • Het concept van indirecte discriminatie biedt een aanknopingspunt om hier tegen op te treden, maar vaak zullen bewijstechnische complicaties het voor individuele slachtoffers quasi-onmogelijk maken om succesvol een beroep te doen op het discriminatieverbod
20
Q

Wat zijn filterbubbels

A
  • Eli Pariser: ten gevolge van sterk doorgedreven gepersonaliseerde zoekresultaten, word je niet meer geconfronteerd met meningen die afwijken van je eigen visie.
21
Q

Risico private censuur

A
  • De inzet van algoritmes voor het filteren van illegale en ongewenste content houdt risico’s in op private censuur, waarbij ook sprake kan zijn van indirecte publieke censuur als de overheid samenwerkt met, of dreigt met dwang richting, sociale media en internetplatformen om ongewenste content te verwijderen.
  • Naar aanleiding van de recente hervorming op EU niveau van het audiovisuele mediarecht, het auteursrecht en de regels voor diensten van de informatiemaatschappij, alsook de invoering van nieuwe regels ter bestrijding van terroristische propaganda en haatzaaien, ontstonden hierover verhitte discussies
22
Q

Cambridge Analytica schandaal

A
  • Sinds het Cambridge Analytica schandaal weten we dat big data analyse, profileringstechnieken, en algoritmes voor doorgedreven personalisering, niet enkel in een commerciële, maar ook politieke context worden toegepast, met de nodige risico’s vandien voor electorale processen en democratische besluitvorming (denk aan de hele discussie over ‘fake news’, ‘political micro-targetting’, en manipulatie van het politieke discours
23
Q

Wettelijke grondslag procedurele rechten?

A
  • Tot slot is waakzaamheid geboden bij de inzet van AI vanuit het oogpunt van onze procedurele rechten, die te vinden zijn in artikel 13 Belgische Grondwet, artikelen 6 en 13 EVRM, artikelen 47-50 EU Grondrechtenhandvest.
24
Q

Wanneer kunnen procedurele rechten in gedrang komen?

A
  • Wanneer algoritmes ‘ongemerkt’ grondrechteninbreuken veroorzaken of wanneer beslissingen die leiden tot dergelijke inbreuken niet transparant zijn onderbouwd.
  • Een open, eerlijk en evenwichtig proces vereist dat rechters erover waken dat er geen ongelijke informatiepositie ontstaat bij de procespartijen, doordat slechts één van hen kennis heeft van de werking van het algoritme en de andere niet (equality of arms)
25
Q

Wat besliste de Hoge Raad in Nederland in het kader van een administratieve procedure?

A
  • Indien een besluit van een bestuursorgaan geheel of ten dele het resultaat is van een geautomatiseerd proces, en de belanghebbende de juistheid van de bij dat geautomatiseerde proces gemaakte keuzes en van de daarbij gebruikte gegevens en aannames wil controleren en zo nodig gemotiveerd betwisten, het bestuursorgaan moet zorgdragen voor de inzichtelijkheid en controleerbaarheid van die keuzes, aannames en gegevens.
  • “(Z)onder die inzichtelijkheid en controleerbaarheid dreigt een ongelijkwaardige procespositie van partijen te ontstaan. Een belanghebbende kan in geval van besluitvorming op basis van een computerprogramma dat vanuit zijn perspectief is te beschouwen als een zogenoemde “black box” immers niet controleren op basis waarvan tot een bepaald besluit wordt gekomen”
26
Q

Inzet van AI in gerechtelijke besluitvorming?

A
  • Enerzijds kunnen big data analyse en AI rechters in belangrijke mate ondersteunen bij hun oordeelsvorming (en volgens sommigen zelfs – gedeeltelijk – vervangen) of tot meer objectieve, beter onderbouwde en consistentere oordelen te komen.
  • Anderzijds is waakzaamheid geboden opdat de onafhankelijkheid en onpartijdigheid van rechters niet in het gedrang zou komen, in het bijzonder ten gevolge van het black box-karakter van (zelflerende) algoritmes.
27
Q

Welke vraag komt veel terug bij beleidsmakers, academici, AI ontwikkelaars?

A
  • Is de huidige wetgeving geschikt om het toenemend gebruik van AI op te vangen.
  • Hebben we nood aan een nieuw en specifiek juridisch kader rond AI of is het bestaande juridisch kader voldoende?
  • EC: Witboek over Kunstmatige Intelligentie van 19 februari 2020: huidig regelgevend kader zowel aangepast als aangevuld moet worden.