Module 2A - Maatschappelijke uitdagingen Flashcards
Wat is het recht op privacy?
- Het recht op privéleven of de eerbieding van de persoonlijke levenssfeer valt, alsook het recht op fysieke en geestelijke integriteit, het recht om een eigen identiteit te vormen, en het recht om relaties aan te gaan.
Wettelijke grondslag privacy?
Art. 22 Gw; Art. 8 EVRM; Art. 7 EU Grondrechten handvest; artikel 17 Internationaal Verdrag inzake Burgerrechten en Politieke Rechten (IVBPR)
Met wat houdt privacy nauw verband?
- Noties van menselijke waardigheid, persoonlijke autonomie, gewetensvrijheid, vrijheid van mening te koesteren = forum internum (art. 9 EVRM: vrijheid van gedachte, geweten en godsdienst); vrijheid van meningsuiting (art. 10 EVRM).
- Het hebben van bepaalde opvattingen (forum internum) wordt beschouwd als een absoluut grondrecht, terwijl het uiten van (religieuze of andere) meningen (forum externum) onderworpen kan worden aan beperkingen.
Staan onze privacy rechten onder druk?
- Ja, door de toegenomen mogelijkheden van monitoring en screening, zowel in publieke als private sfeer: zie recente commotie rond toenemend gebruik overheid van camera’s met technologie voor gelaatsherkenning.
- Ook kritiek op bedrijfsmodel van internetbedrijven = toezichtskapitalisme (Zuboff): het systeem waarbij techgiganten als Facebook, Google en Amazon steeds meer data over ons verzamelen – al lang niet meer enkel onze naam, locatie, surf- en aankoopgeschiedenis, voorkeuren, maar ook onze emoties en persoonlijkheid (via ons typgedrag, onze stem en ons gezicht) – om die te analyseren en ons gedrag te voorspellen (of zelfs te sturen), waarna ze die voorspellingen verkopen aan bedrijven (of politieke organisaties)
Wat zijn chilling effects?
Verregaande vormen van surveillance (dataveillance) in publieke ruimtes, bijvoorbeeld in smart cities, kunnen leiden tot zogenaamde chilling effects, waardoor ons autonome denken en handelen wordt aangetast.
Wat is de bezorgdheid over het recht op relationele privacy?
- Hoewel de inzet van AI-gestuurde robots in de zorgsector de mogelijkheden van ouderen en zorgbehoevenden kan vergroten om contact te houden met de buitenwereld, en dus positief kan bijdragen aan het recht op zelfverwezenlijking, heerst er ook bezorgdheid over een negatieve impact op het recht op relationele privacy.
- Recente teksten aangenomen door de Raad van Europa waarschuwen dan ook voor ongewenste vormen van algoritmische manipulatie die onze cognitieve soevereiniteit zouden kunnen aantasten, en breken een lans voor de expliciete erkenning van “het recht op betekenisvol menselijk contact”, alsook van “het recht om niet gemeten, geanalyseerd of beïnvloed” te worden”
Wat zijn de gelijkheidsrechten?
- Het hogergenoemde recht om niet gemeten of geanalyseerd te worden hangt nauw samen met de impact van AI op onze gelijkheidsrechten (het recht op gelijke behandeling en non-discriminatie), zoals neergelegd in artikel 10-11 van de Belgische Grondwet, artikel 20-21 EU Grondrechtenhandvest, artikel 14 EVRM en artikel 26 IVBPR.
Waarom is er een invloed op onze gelijkheidsrechten door AI?
- Moderne technieken voor datamining en profilering, die inherent gericht zijn op het maken van onderscheid tussen (groepen) individuen, dreigen te resulteren in vormen van algoritmische discriminatie die in strijd zijn met deze gelijkheidsrechten.
Waarvoor waarschuwen veel auteurs bij AI en gelijkheidsrechten?
- Diverse auteurs waarschuwen voor de slechts schijnbare neutraliteit van de algoritmes waarmee deze technieken werken, ten gevolge van bias in de data (ook aangeduid als garbage in, garbage out) en bias in de gebruikte algoritmes.
-
Opinions embedded in code
- fenomeen van data-laundering of math-washing aan, waarbij organisaties en bedrijven zich bij het nemen van moeilijke beslissingen verschuilen achter vermeend neutrale algoritmes
Wat is de moeilijkheid hieromtrent bij gelijkheidsrechten en AI?
- De ondoorzichtigheid en complexiteit van algoritmes maken dat het vaak niet duidelijk is of er sprake is van concrete benadeling en ongerechtvaardigde ongelijke behandeling.
- Zo ontdekte Amazon pas na een tijd dat zijn rekruteringsalgoritme systematisch vrouwen benadeelde, omdat het getraind was op onderliggende data die voornamelijk van mannen afkomstig waren
Wat toonde de studie uit 2019 “Automating Society Taking Stock of Automated Decision-Making in the EU van de NGO Algorithm Watch” aan?
- Systemen voor automatische beslissingsondersteuning gebaseerd op doorgedreven data-analyse snel ingeburgerd raken in Europa (en dus niet enkel in China, wiens experimenten met een sociaal kredietsysteem wereldwijde controverse veroorzaken).
- Nu ingezet: Voor het toekennen van leningen of verzekeringen, het detecteren van fraude in belastingen of sociale uitkeringen, voor het screenen van jobapplicaties, het optimaliseren van de publieke gezondheidszorg en het onderwijssysteem, enzoverder.
In welke sector is het vooral gevaarlijk om dit te gebruiken die AI?
- Strafrechtelijke sfeer: bv. risico in te schatten van criminele feiten of recidive (predictive policing): moeten aan een voldoende kritisch onderzoek worden onderworpen alvorens ze worden ingezet, ook vanuit het oogpunt van onze procedurele rechten.
Amerikaanse COMPAS-systeem
- “Correctional Offender Management Profiling for Alternative Sanctions” ontwikkeld door Amerikaans technologiebedrijf Northpointe (nu Equivant) en werd in de Verenigde Staten gebruikt om het risico op criminele recidive te voorspellen.
- Zij tonen in een grootschalige studie aan hoe voorspellingen van COMPAS niet nauwkeuriger of eerlijker zijn dan voorspellingen van mensen met weinig of geen expertise op het gebied van het strafrecht.
Waarom is een gevaar voor de openbare veiligheid?
- Dergelijke asymmetrische verdeling van valse negatieven en valse positieven (ook type I en type II fouten genoemd) in het model aantoont dat het algoritme sterk discrimineert op een manier die de openbare veiligheid in het gevaar kan brengen.
- De disproportionele benadeling → verdoken vorm van racisme en kan ook het recht op een eerlijk proces ondermijnen.
Is het rechtvaardig om verdachten te behandelen op basis van parameters waar zij in wezen geen invloed over hebben?
- Is het rechtvaardig een verdachte enigszins anders te behandelen omdat diens vrienden ooit drugs hebben genomen?
- Gezien algoritmes, en de classificaties die zij doorvoeren, een concrete invloed uitoefenen op onder meer de kansen die personen krijgen toebedeeld, alsook de voordelen en lasten die ze dragen, is er een noodzaak de maatschappelijke inwerking van deze technieken tevens in termen van hun rechtvaardigheid, gelijkheid en non-discriminatie te (her)evalueren.