Module 2B - Beeldanalyse Flashcards

1
Q

Wat is computervisie?

A
  • Tak binnen AI met als doel: beelden interpreteren, zonder menselijke hersenen?
  • Voor mensen = beelden herkennen vanzelfsprekend maar hele uitdaging.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Hoe ziet een computer?

A
  • De computer deelt een beeld op in een reeks pixels = kleine gekleurde vierkantjes die samen een beeld vormen: Daarop voert het wiskundige bewerkingen uit, bijvoorbeeld door via de kleurwaarde een plotse overgang te detecteren, en dus randen en vormen te ontdekken. Als je een digitale foto opent op je computer, dan kun je daarvan de resolutie zien: als die 1024x768 is, dan betekent dit dat de foto 1024 pixels breed is en 768 pixels hoog.
  • De computer analyseert al deze pixels, en die dienen vervolgens als input of data voor een algoritme.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Hoe worden de pixels omgezet?

A
  • Pixels worden omgezet naar pixelintensiteiten:
    • Eendimensioneel: zwart-wit beelden
    • Multidimensionaal: kleurenbeelden via RGB-kleurssysteem die voor elke basiskleur een dimensie heeft.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wat met context in een afbeelding?

A
  • Mensen maken gebruik van context in een afbeelding om zo realistische associates te maken: taak die veel complexer is voor algoritmen die alleen naar bepaalde objecten zoeken zonder de hele scène te interpreteren.
  • Mensen leren deze associaties op hoog niveau vanuit ervaring en intuïtie, die erg moeilijk in een algoritme te coderen zijn.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Vooruitgang context herkennen door een computer?

A

Sterke vooruitgang geboekt:

  • Automatische nummerplaatherkenning
  • Identiteit herkennen van reizigers
  • Aangeven wanneer je auto van het baanvlak dreigt af te wijken
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Computervisie-algoritme stappen

A
  1. Beeldverwerking of voorverwerkingsstap
  2. Kenmerk of functie-extractie
  3. Classificatie
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Beeldverwerking of voorverwerkingsstap

A
  • Doel: onbewerkte beeldgegevens verbeteren om de kenmerkextractie te verbeteren of te vergemakkelijken.
  • Stappen die veel voorkomen:
    • Ruisonderdrukking
    • Contrastverbetering
    • Achtergrondverwijdering in videosequentie
    • Verwijderen van lensvervormingen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Kenmerk- of functie-extractie

A
  • Bedoeld om beschrijvende kenmerken in de afbeelding te detecteren: bv. scherpe randen, hoeken, lokale gradiëntverdelingen,…
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wat is de moeilijkheid bij kenmerk- of functie-extractie

A
  • De kenmerkdetectoren moeten werken onder wisselende omstandigheden. Idealiter is de de kenmerkdescriptor (feature descriptor) even goed voor variabele afmetingen van het object (is hij dus ‘schaalinvariant’), rotaties (‘rotatie-invariant’), verlichtingen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Classificatie bij beeldverwerking?

A
  • Hierbij wordt een eindresultaat berekend voor de afbeelding op basis van de geëxtraheerde kenmerken. Kenmerk A kan bijvoorbeeld aangeven dat er een persoon in de afbeelding staat, terwijl kenmerk B een laag zelfvertrouwen geeft. Het is de taak van de classificator om de informatie van alle kenmerkdescriptoren te combineren tot een eindresultaat.
    • Sommige classificaties maken het ook mogelijk om een betrouwbaarheidsscore tussen 0 en 1 te geven voor het resultaat, dat na normalisatie als klassekansen kan worden behandeld.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Computervisie-taken:

A
  1. Classificatie
  2. Lokalisatie
  3. Objectdetectie
  4. Segmentatie

Object en segmentatie: veelal op meerdere objecten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Onderscheid beeldverwerking, computervisie of beeldinterpretatie en beeldgeneratie.

A
  1. Beeldverwerking = computer verwerkt de beelden zonder ze verder te interpreteren: beeld in, beeld uit
  2. Computervisie of beeldinterpretatie, waarbij de computer aangeleerd wordt de beelden te herkennen: beeld in, informatie uit
  3. Beeldgeneratie: waarbij de computer beelden creëert op basis van instructies: ‘informatie in, beeld uit’
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wat gebruiken we voor beeldinterpretatie?

A
  • Om de inhoud van beelden te herkennen en te interpreteren, maken we gebruik van machinaal leren: uit een grote hoeveelheid voorbeelden, kan de machine achterhalen welke patronen overeenkomen met een bepaald concept, zoals een kat of een hond in een beeld.
    • Vooral deep learning wordt hier gebruikt omdat deze erg goed is in omgaan met context en veel doorbraken.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Waarom is deep learning nuttig voor beeldinterpretatie?

A
  • Veel groter aantal lagen dan bij een klassiek neuraal netwerk. Elke laag bestaat uit een groot aantal neuronen, die verbonden zijn met de neuronen uit de vorige laag en de outputs daarvan combineren tot een nieuwe output. Op die manier worden uit een beeld een aantal kenmerken gehaald, zoals randen of hoeken, die dan op hun beurt gecombineerd worden in complexere kenmerken, en zo verder.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Kan je elke functie benaderen via neurale netwerken?

A
  • Met een neuraal netwerk kan je in principe eender welke functie benaderen. Er bestaan dus netwerken die vertrekken van een beeld en daar een klasse-label aan toekennen (bv. is dit een beeld van een kat? of van een hond? is deze persoon blij of triest?), maar ook netwerken die een waarde toekennen aan een beeld (bv. hoe oud schat je de persoon in deze afbeelding?), en bij uitbreiding ook netwerken die een complexere output genereren, zoals de locatie van alle auto’s en voetgangers in een beeld, een segmentatie van een beeld in lucht, vegetatie, gebouwen, personen, etc., of zelfs een volledig nieuw beeld.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Grote uitdaging bij beeldinterpretatie?

A
  • Netwerk trainen omdat de werking van elke neuron afhangt van een groot aantal parameters, die bepalen hoe de outputs van de vorige laag precies gecombineerd moeten worden (=miljoenen parameters!). Voor elk van die parameters moet een geschikte waarde gevonden worden, om ervoor te zorgen dat het netwerk zich gedraagt zoals we verwachten → trainingsdata: input van beelden en correcte outputs (bijbehorende labels):
    • Stochastische gradiëntafdeling
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Stochastische gradiëntafdaling

A
  • Op een iteratieve manier worden de parameters dan aangepast = stochastische gradiëntafdalig (stochastic gradient descend en/of backpropogation).
    • Beide algoritmes worden gebruikt om telkens zeer kleine wijzigingen aan de parameters aan te brengen, om zo de gegenereerde output van het netwerk dichter en dichter bij de outputs t brengen: het verlies, de loss, van een voorspellingsmodel te minimaliseren met betrekking tot trainingsdata
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Convolutionele neurale netwerken toepassen op beeldinterpretatie?

A
  • CNN’s zijn een speciaal soort diepe neurale netwerken die over convolutionele lagen beschikken. In tegenstelling tot fully connected, ontvangt hier elke neuron alleen input van een beperkt gebied van de vorige laag = receptieve veld van het neuron: Meestal is het gebied een vierkant (bijv. 5 bij 5 neuronen).
  • Dus in elke volgende convolutionele laag neemt elk neuron input van een groter gebied van pixels in het invoerbeeld dan eerdere lagen. Dit komt doordat de convolutie keer op keer wordt toegepast, waarbij rekening wordt gehouden met de waarde van een pixel en de omliggende pixels.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wat zijn de convoluties bij beeldinterpretatie?

A

Filterprocessen, waarbij de pixels van een afbeelding op een of andere manier gewogen en/of gecombineerd worden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Belangrijkste eigenschap CNN’s beeldinterpretatie?

A
  • Ze gaan zelf de relevante filters aanleren, waardoor ze in staat zijn om op basis van trainingsbeelden relevante eigenschappen of features te herkennen die eigen zijn aan het te detecteren object, zoals lichte of donkere plekken (of met een specifieke kleur), randen in verschillende richtingen, patronen, enzovoort. De technische term voor die filters om de kenmerken van een afbeelding te extraheren is kernels.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Feature map

A
  • De convolutionele lagen ‘convolueren’ de invoer en geven het resultaat door aan de volgende laag. Na door een convolutionele laag te zijn gegaan, wordt het beeld geabstraheerd tot een ‘feature map’. Dit is de basis voor het herkennen van abstractere kenmerken, zoals kattenoren, een hondensnuit, een mensenoog of de achthoekige vorm van een stopbord.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Wat heb je nodig voor een feature map?

A
  • Normaal gesproken heel moeilijk om een neuraal netwerk te trainen om zulke kenmerken te herkennen op basis van de pixels van een afbeelding, omdat de kenmerken in verschillende plaatsen, richtingen en formaten op de afbeelding kunnen voorkomen: door het verschuiven van het voorwerp of de camerahoek veranderen de pixelwaarden aanzienlijk, zelfs als het voorwerp zelf er voor ons hetzelfde uitziet.
  • We moeten er in slagen dat het neuraal netwerk een stopbord herkent in alle mogelijke omstandigheden → grote hoeveelheid trainingsdata nodig!
  • CNN’s kunnen het voorwerp op elke plaats in de afbeelding herkennen, ongeacht waar dit op de trainingsafbeeldingen stond.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Beeldtransformatie over de lagen heen

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Slim trucje CNN’s voor hoeveelheid trainingsgegevens onder verschillende omstandigheden te herkennen, te verkleinen?

A
  • Het komt er in feite op neer dat voor veel neuronen dezelfde inputgewichten worden gebruikt, zodat al deze neuronen door hetzelfde patroon worden geactiveerd, maar met verschillende inputpixels.
  • We kunnen bijvoorbeeld een neuronenset hebben die wordt geactiveerd door het puntige oor van een kat. Als de input een foto van een kat is, worden er twee neuronen geactiveerd: een voor het linkeroor en een voor het rechteroor.
  • Het is ook mogelijk om de inputpixels van het neuron van een groter of kleiner gebied te laten nemen, zodat er door het verschijnen van het oor verschillende neuronen worden geactiveerd op verschillende schalen (formaten), zodat we oren van een kleine kat ook kunnen herkennen als er in de trainingsgegevens uitsluitend afbeeldingen van grote katten zijn opgenomen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Convolutionele in de onderste lagen bij beeldinterpretatie?

A
  • Hier worden de ruwe inputpixels verwerkt. Gewone neuronen (zoals de perceptron-neuron die we hierboven hebben besproken) bevinden zich in de hogere lagen, waar de output van de onderste lagen wordt verwerkt.
  • De onderste lagen kunnen vaak worden getraind met gebruik van ongesuperviseerd leren, zonder specifieke voorspellingstaak. Hun gewichten worden zo aangepast dat ze kenmerken herkennen die vaak voorkomen in de inputgegevens.
    • Foto’s van dieren: oren en snuiten = typische kenmerken. Bij gebouwen: bouwkundige onderdelen: muren, daken, ramen,…
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Waarom is het interessant dat de kenmerken die de onderste lagen leren min of meer algemeen zijn?

A
  • Als de inputgegevens bestaan uit een mix van verschillende voorwerpen en decors, zullen de kenmerken die de onderste lagen leren, min of meer algemeen zijn. Dit houdt in dat de van tevoren getrainde convolutionele lagen bij veel verschillende beeldverwerkingstaken opnieuw kunnen worden gebruikt.
  • Dit is ontzettend belangrijk, omdat op die manier makkelijk onbeperkte hoeveelheden ongelabelde trainingsgegevens kunnen worden verkregen, dus afbeeldingen zonder labels, die kunnen worden gebruikt om de onderste lagen te trainen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Bovenste lagen bij CNN bij beeldinterpretatie?

A
  • De bovenste lagen daarentegen worden altijd getraind door technieken voor gesuperviseerd machinaal leren, zoals backpropagation. Als een neuraal netwerk heeft geleerd van gegevens, kan het worden gebruikt om voorspellingen te doen (bijvoorbeeld, wat is de probabiliteit dat het gedetecteerde object een kat is).
  • Omdat de bovenste lagen van het netwerk gesuperviseerd zijn getraind om bepaalde classificaties of voorspellingen te doen, zijn deze lagen meestal alleen nuttig voor die taak. Een netwerk dat is getraind om stopborden te herkennen, is zinloos voor het herkennen van handgeschreven cijfers of katten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Kracht van CNNs voor beeldinterpretatie

A
  1. Algemene methode die voor verschillende doeleinden kan gebruikt worden.
  2. Hun werking is niet beperkt tot classificatie (zien we een auto of niet op de afbeelding?), maar voor eender welke transformatie van input (beeld) naar output (eender wat) kan worden gebruikt:
    • Staat er een auto, fiets, voetganger of boom op de afbeelding
29
Q

Wat ishet onderscheid tussen een mens en een AI systeem bij beeldinterpretatie?

A
  • Het systeem begrijpt niet wat er achter de afbeelding schuilgaat, het herkent gewoon het patroon aan pixels dat een beeld (van een auto, voetganger, enzovoort) kenmerkt, maar snapt daarom de betekenis ervan niet:
    • Een AI systeem begrijpt niet het verschil tussen auto en voetganger.
      *
30
Q

Segmantische segmentatie

A
  • Men kan semantische segmentatie gaan uitvoeren: voor elke pixel is beeld, welk label kan ik daaraan toekennen: voertuig, gebouw…? 2-dimensionale output: trainen beeld achtergrond 3-dimensionale output: naast spatiale output ook verdeling in klasses.
31
Q

Stappen gezichtsherkenning?

A
  1. Detectie en segmentatie
  2. Aligneren
  3. Herkennen
32
Q

Detectie en segmentatie bij gezichtsherkenning

A
  • Gezicht wordt gedetecteerd (= waar bevindt het gezicht zich in het beeld?) en gesegmenteerd (=onderscheiden van de beeldachtergrond; overbodige informatie, zoals achtergronden en complexe patronen, worden weggefilterd).
33
Q

Aligneren bij gezichtsherkenning?

A
  • Het gezicht wordt gealigneerd (uitgelijnd) en de afbeelding wordt gestandaardiseerd in de vorm van afbeeldingen waarmee het vergeleken zal worden: bv. databank:
    • De specifieke kenmerken (ogen, neus, hoeken) worden gelokaliseerd en gemeten om het gezicht weer te geven.
  • De geëxtraheerde gezichtskenmerken worden omgezet tot een biometrisch sjabloon of wiskundige formule van het gezicht (“kenmerkvector”), die vervolgens vergeleken wordt met de gegevens van de referentieafbeeldingen.
    • Algoritme vergelijkt numerieke waardes met elkaar: bv. afstand tussen de ogen. De databank met gezichtsafbeeldingen bevat meestal niet enkel de afbeeldingen zelf, maar ook bijhorende gegevens zoals naam en woonplaats, waardoor bij een overeenkomst met een afbeelding uit de databank de geviseerde persoon meteen ook volledig geïdentificeerd is.
34
Q

Herkennen bij gezichtsherkenning?

A
  • Het gezicht wordt herkend: in de laatste fase wordt de output geclassificeerd (met wie uit de dataset komt het beeld overeen?); vindt de technologie een overeenstemmende afbeelding, dan wordt het gezicht herkend en gemeld.
35
Q

Wat is gezichtsherkenning?

A

Software die op stilstaande of bewegende beelden exact kan lokaliseren waar gezichten zijn en daarin genoeg kenmerken kan analyseren om af te leiden wie de persoon in kwestie is.

36
Q

Kunnen we gezichtsherkenning beschouwen als een classificatieprobleem?

A
  • Dit heeft té veel beperkingen omdat elke keer je een nieuwe persoon wil toevoegen, moet je heel het netwerk opnieuw trainen met nieuwe inputdata, zodat ook het nieuwe label betrouwbaar kan worden voorspeld: data moet voldoende representatief zijn, vanuit diverse gezichtspunten.
  • Deze aanpak is met andere woorden moeilijk schaalbaar (mogelijks nog te hanteren voor een beperkt aantal personen, zoals de werknemers van een bedrijf, maar de meeste toepassingen zijn erop gericht om tienduizenden, zelfs miljoenen mensen, te kunnen herkennen).
37
Q

Gezichtsherkenning in de praktijk met deep learning?

A
  • De afstandsmaat tussen 2 verschillende gezichten wordt geleerd: “gegeven twee personen, gaat het hier om dezelfde persoon of verschillende personen?” “Hoe groot is de kans dat het om dezelfde dan wel verschillende personen gaat?”
  • Hoe meer data, in dit geval afbeeldingen, hoe beter de resultaten van je netwerk. Voor de academische wereld zijn er publieke datasets beschikbaar met beelden van bekende personen, die meestal op het internet zijn verzameld (via een techniek die we web scraping of web harvesting noemen).
  • De commerciële datasets waarover Google & Facebook beschikken is aanzienlijk groter.
38
Q

Gezichtsherkenning in de praktijk met neurale netwerken?

A
  • Het neuraal netwerk wordt dan getraind om inputbeelden te matchen op een hoogdimensionale vector (dit is, een set van getallen voorgesteld als een punt in een hoogdimensionale ruimte). We hoeven dan niet noodzakelijk te weten wat een goeie vectorrepresentatie is voor een bepaalde afbeelding, maar de uitkomst moet wel zijn dat punten van afbeeldingen van dezelfde persoon dicht bij elkaar liggen en van afbeeldingen van verschillende personen ver van elkaar.
  • Geven we het systeem drie verschillende afbeeldingen - twee van dezelfde persoon en één van een andere persoon - dan zal het netwerk elk beeld matchen met een punt in de hoogdimensionale vector. Kent het netwerk aan de afbeeldingen van dezelfde persoon punten toe die dicht bij elkaar liggen, dan heeft het een goed resultaat bereikt.
39
Q

Wat is generatief modelleren?

A
  • Om beelden - van katten, menselijke gezichten of andere voorwerpen - te genereren die er echt uitzien, wordt een beroep gedaan op generatief modelleren, een voorbeeld van ongesuperviseerd leren.
    • Na invoer van gegevens, bijvoorbeeld foto’s met daarop gezichten van mensen, kan een generatief model meer van hetzelfde genereren: meer afbeeldingen van menselijke gezichten, die weliswaar kunstmatig zijn, maar wel echt lijken.
40
Q

Wat zijn GAN’s?

A
  • Generative adversersarial networks (GAN’s): uitgevondend oor Ian Goodfellow: deep learning techniek: Hij bedacht een techniek die elementen van gesuperviseerd en versterkend leren combineert en waarbij twee neurale netwerken tegen elkaar worden uitgespeeld (ook de Sherlock Holmes-aanpak genoemd).
41
Q

Hoe werken GAN’s?

A
  • Een van de netwerken wordt getraind om afbeeldingen te genereren die lijken op die uit de trainingsgegevens (de ‘generator’).
  • De taak van het andere netwerk (de ‘discriminator’) is om de door het eerste netwerk gegenereerde afbeeldingen te onderscheiden van echte afbeeldingen uit de trainingsgegevens: dit is het “vijandige” (adversarial) netwerk en het gehele systeem wordt een GAN genoemd.
42
Q

Systematiek GAN?

A
  • Het systeem traint de 2 modellen tegen elkaar. De generator maakt zelf output, neemt bijvoorbeeld foto’s die lijken op katten, met als doel de discriminator om de tuin te leiden, door gegenereerde kattenfoto’s voor echte te laten doorgaan. De discriminator gebruikt vervolgens een grote dataset aan echte kattenfoto’s om de output van de generator te beoordelen. De generator liegt dus tegen de discriminator door nieuwe input, in dit geval foto’s, te maken.
43
Q

Wat probeert de discriminator bij GAN?

A
  • De discriminator - “vijandige” model - probeert dat bedrog te ontdekken. Het is diens taak om de echte afbeeldingen uit de trainingsgegevens te onderscheiden van de pogingen van het genererende model. Naarmate het genererende netwerk langzamerhand steeds beter wordt, moet het vijandige ook beter worden en deze cyclus gaat door tot de gegenereerde afbeeldingen bijna niet te onderscheiden zijn van de echte afbeeldingen.
  • Het GAN probeert de afbeeldingen uit de trainingsgegevens niet alleen te reproduceren, want dat zou een veel te eenvoudige strategie zijn om het vijandige netwerk te verslaan. Het systeem wordt daarentegen zo getraind dat het in staat moet zijn om ook afbeeldingen te genereren die er echt uitzien.
44
Q

Wanneer is AI beter dan de mens voor welke taken?

A
  • Dit geldt voor heel specifieke taken, maar geen algemene uitspraak. In het geval van beeldclassificatie blijkt de mens minder goed te presteren dan AI-systemen, althans voor zeer specifieke taken (waarbij er voor elke taak een apart model moet worden getraind), en enkel indien er zeer veel, representatieve trainingsdata voorhanden zijn.
45
Q

Wat kunnen computers niet?

A
  • Kunnen niet veralgemenen, redeneren, adapteren of gebruik maken van de context van afbeeldingen om nieuwe kennis op te doen, zonder daartoe expliciet getraind te zijn.
  • Huidige AI-modellen zijn vaak nog onvoldoende robuust zijn om nieuwe data accuraat te verwerken, wat problematisch kan zijn (en een kwestie van leven of dood) wanneer computervisietechnologie wordt ingeschakeld in bijvoorbeeld autonome voertuigen.
46
Q

Data-afhankelijkheid van AI modellen

A
  • We krijgen de modellen maar zo goed als de data waarop ze getraind zijn: de trainingsdata moet representatief zijn: anders onvoorspelbare output.
  • Als het systeem nieuwe data krijgt, die teveel afwijkt van de data waarop die getraind is, dan gaat het een gok doen die nergens op is gebaseerd → eigenaardige resultaten als gevolg.
47
Q

Zijn AI-systemen makkelijk om de tuin te leiden?

A
  • Ja! Onderzoek met doelgerichte wijzigingen zodat sterk gelijkaardige beelden foutieve resultaten kunnen geven.
48
Q

Wat is dataset bias?

A
  • Het is heel belangrijk te beseffen dat elke bias, elk vooroordeel, aanwezig in de data wordt overgenomen door het neuraal netwerk; meer nog, dat elke bias door het systeem verder wordt versterkt.
  • Zeker in de context van gezichtsherkenning is de kwaliteit van de inputdata cruciaal, evenals de representativiteitsvereiste. De trainingsdataset moet groot genoeg zijn, maar zeker ook representatief voor de data waarvoor het getraind model gebruikt zal worden.
  • Het niet beantwoorden aan dit basisbeginsel is de hoofdoorzaak van incorrecte machine learning en bijgevolg foutieve resultaten en/of inferenties.
49
Q

Oorzaak dataset bias?

A
  • Gebruik van datasets waarin bevolkingsgroepen ondervertegenwoordigd zijn (of waren). Wanneer modellen getraind worden op afbeeldingen van hoofdzakelijk mannen met een blanke huidskleur, dan kan het verschil in accuraatheid oplopen tot meer dan 30%.
50
Q

Cross-race effect

A
  • De tendens om gezichten waarmee je bekend bent eerder te herkennen.
  • Na George Floyd: Amazon een een moratorium uit van een jaar op het politioneel gebruik van haar AI-gezichtsherkenningssoftware om zo het Amerikaanse Congres de tijd te geven het gebruik van dergelijke software op gepaste wijze te reguleren.
  • Microsoft ook geen gezichtsherkenningssoftware meer aan de Amerikaanse politie verkopen tot hierover een federale wet “grounded in human rights” wordt goedgekeurd door het Amerikaanse Congres. IBM besloot de ontwikkeling van dergelijke software volledig stop te zetten.
51
Q

Belang gezichtsherkenning

A
  • Vooral publieke overheden: bv. automatische identificatie van personen = kan aanzienlijke tijd en of mankracht besparen.
    • Evenementen
    • Grenscontroles
    • Biometrische paspoorten
    • Ordehandhaving
52
Q

Bezorgdheid privacy en gezichtsherkenning?

A
  • Gezichtsherkenningstechnologie praktijken werkt massa-surveillantie en politiestaat in de hand. Gezichtsherkenning kan niet alleen worden gebruikt om een bepaald individu te identificeren, maar ook om andere persoonlijke gegevens van een persoon op te sporen, zoals andere foto’s met de persoon, blogposts, profielen op sociale media, internetgedrag en reispatronen.
    • Wie moet er op een bepaald moment toegang hebben tot kennis verblijfplaats?
    • Individuen hebben ook maar beperkt vermogen om het volgen van gezichtsherkenning te vermijden of te dwarsbomen, tenzij ze hun gezichten verbergen.
53
Q

Wat is de wijziging in dynamiek door gezichtsherkenning?

A
  • Dit verandert fundamenteel de dynamiek van de dagelijkse privacy door elke marketeer, overheidsinstantie of willekeurige vreemdeling in staat te stellen in het geheim de identiteiten en bijbehorende persoonlijke informatie te verzamelen van elk individu dat door het gezichtsherkenningssysteem is vastgelegd.
  • Consumenten begrijpen of zijn zich mogelijk niet bewust van waarvoor hun gegevens worden gebruikt, waardoor ze niet kunnen instemmen met hoe hun persoonlijke gegevens worden gedeeld.
54
Q

Aanwezigheid gezichtsherkenningscamera’s in publieke ruimtes

A
  • Er gaan stemmen op voor striktere regulering of zelfs expliciet tijdelijk of permanent wettelijk verbod, in te voeren.
  • Margrete Vestager gaf toelichting dat de Europese Commissie automatische gezichtsherkenning eerst verder wil onderzoeken, voordat nieuwe wetgeving wordt geïntroduceerd om gebruik van de technologie te reguleren. In tussentijd kunnen lidstaten hun eigen beleid blijven bepalen.
55
Q

Biometrische gegevens

A
  • Gegevens die rechtstreeks gelinkt zijn aan een individu doordat ze verwijzen naar diens biologische of gedragseigenschappen (cf. art. 4, §14 AVG).
  • Omwille van hun gevoelige karakter, wordt de verwerking van biometrische gegevens strikt geregeld door de Algemene Verordening Gegevensbescherming (AVG).
    • Vingeradrukken, iriskenmerken en gezichtsafbeeldingen.
  • Hebben een universeel, blijvend en uniek karakter: ze zijn in principe onveranderlijk. Een persoon kan op basis ervan eenduidig herkend worden (= identificatie) of zijn/haar identiteit bevestigd zien (= authenticatie).
56
Q

Verwerking biometrische persoonsgegevens

A
  • AVG beschouwt de verwerking van biometrische persoonsgegevens daarom als een verwerking van “bijzondere persoonsgegevens” en verbiedt principieel de verwerking van biometrische gegevens om iemand te identificeren (art.9).
  • Op dat principiële verbod bestaan evenwel een reeks uitzonderingen, zoals wanneer de betrokkene uitdrukkelijk toestemming heeft gegeven of de verwerking noodzakelijk is voor de werking van bepaalde organisaties of om redenen van zwaarwegend algemeen belang.
57
Q

Politierichtlijn bij biometrische gegevens

A
  • In de context van ordehandhaving laat de zogenaamde Politierichtlijn de verwerking van biometrische gegevens met het oog op de unieke identificatie van een natuurlijke persoon enkel toe wanneer die verwerking strikt noodzakelijk is, geschiedt met inachtneming van passende waarborgen voor de rechten en vrijheden van de betrokkene, en hetzij door EU- of nationaal recht is toegestaan, hetzij noodzakelijk is om vitale belangen van de betrokkene of een andere natuurlijke persoon te beschermen, hetzij betrekking heeft op gegevens die kennelijk door de betrokkene zelf openbaar zijn gemaakt (art.10)
58
Q

Gegevensbescherming door ontwerp of standaardinstellingen bij biometrische gegevens?

A

Zie art. 25 AVG en art. 20 Politierichtlijn.

  • Voorbeeld: systeem zo te ontwikkelen dat gezichten die zichtbaar zijn op het beeldmateriaal, maar niets te maken hebben met de doelstelling van de toepassing, geanonimiseerd (‘geblurd’) worden.
59
Q

Verbod op geautomatiseerde individuele besluitvorming biometrische persoonsgegevens?

A
  • Dit verbod houdt in dat eenieder het recht heeft niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking gebaseerd besluit waaraan voor hem of haar rechtsgevolgen zijn verbonden of dat hem of haar anderszins in aanmerkelijke mate treft (art.22 AVG; art.11 Politierichtlijn).
60
Q

Profilering

A
  • Elke vorm van geautomatiseerde verwerking van persoonsgegevens waarbij bepaalde persoonlijke aspecten van een natuurlijke persoon worden geëvalueerd, met name met de bedoeling zijn beroepsprestaties, economische situatie, gezondheid, persoonlijke voorkeuren, interesses, betrouwbaarheid, gedrag, locatie of verplaatsingen te analyseren of te voorspellen (art.4(4) AVG; art.3(4) Politierichtlijn).
61
Q

Wanneer profilering wel toegelaten?

A
  • Enkel in zeer specifieke situaties, als dit noodzakelijk is voor de sluiting of uitvoering van een overeenkomst tussen de betrokkene en een verwerkingsverantwoordelijke, of wanneer de betrokkene zijn uitdrukkelijke toestemming heeft gegeven. Ook wanneer er een expliciete rechtsgrond voor is in EU of nationaal recht, is geautomatiseerde besluitvorming toegelaten:
    • Controle belastingsfraude en ontduiking
    • Verzekeren van veiligheid en betrouwbaarheid van een dienst die door de verwerkingsverantwoordelijke wordt verleend.
62
Q

Waarborgen bij profilering?

A
  • Verlenen van specifieke informatie aan de betrokkene
  • Recht op menselijke tussenkomst om standpunt kenbaar te maken
  • Uitleg over de na een dergelijke beoordeling genomen besluit te krijgen en om dat aan te vechten: art. 22(3) AVG en art. 11 Politierichtlijn.
63
Q

Profilering bij kinderen?

A
  • Art. 71 AVG: een dergelijke maatregel mag geen betrekking hebben op kinderen. Voor geautomatiseerde besluitvorming gebaseerd op biometrische gegevens (of andere bijzondere categorieën van persoonsgegevens) gelden nog striktere waarborgen (art.22(4) AVG en art.11(2) Politierichtlijn).
64
Q

Behoorlijke en transparante verwerking bij biometrische verwerking?

A
  • Overweging 71 AVG wijst op de noodzaak om de voor de profilering passende wiskundige en statistische procedures te hanteren en technische en organisatorische maatregelen te treffen waarmee factoren die aanleiding geven tot onjuistheden van persoonsgegevens worden gecorrigeerd en het risico op fouten wordt geminimaliseerd, teneinde een voor de betrokkene behoorlijke en transparante verwerking te garanderen.
65
Q

Verwerkingsverantwoordelijken bij biometrische gegevens?

A
  • Moet rekening houden met de potentiële risico’s voor de belangen en rechten van de betrokkene en onder meer voorkomen dat zulks voor natuurlijke personen discriminerende gevolgen zou hebben op grond van ras of etnische afkomst, politieke overtuiging, godsdienst of levensbeschouwelijke overtuigingen of gevolgen zou hebben die leiden tot maatregelen met een vergelijkbaar effect.
  • De Politierichtlijn stelt expliciet dat profilering die leidt tot discriminatie van natuurlijke personen op grond van de in artikel 10 bedoelde bijzondere categorieën van persoonsgegevens overeenkomstig het Unierecht is verboden (art.11(3) Politierichtlijn).
66
Q

Wat zijn de nuttige toepassingen van beeldgeneratie?

A
  • Video dubbing, visuele effecten in de filmindustrie (denk aan met computers vervaardigde figuren in films zoals Avatar, Lord of the Rings en populaire animaties van Pixar waarin de animatiefiguren de gebaren van echte, menselijke acteurs overnemen), beeldrestauratie, virtuele nieuwslezers.
67
Q

Hoe synthetische gegevens genereren?

A
  • Ook worden GAN’s de laatste jaren door bedrijven op grote schaal gebruikt om grote hoeveelheden synthetische gegevens te genereren, die gebruikt worden in situaties waar echte voorbeelden ontbreken of omwille van privacy niet kunnen worden ingezet. Met dit soort algoritmes kun je bijvoorbeeld gezichten maken die nooit bestonden, maar ook nieuwe automodellen of zelfs interieurs voor huizen ontwerpen.
68
Q

Deep fake

A
  • Samentrekking van deep learning en fake: nep video’s waarin video’s van bekenden worden gefaked.
  • Naarmate dergelijke technieken vooruitgaan en op grote schaal beschikbaar worden, wordt het eenvoudig om van een gebeurtenis een realistisch aandoende nepvideo te maken die niet van echt filmmateriaal te onderscheiden is. Hierdoor komt het idee “zien is geloven” op losse schroeven te staan. In bepaalde contexten (zoals politieke verkiezingen of het beheersen van een pandemie) vormt de opkomst van deepfakes een verontrustend fenomeen, dat risico’s inhoudt voor onze mensenrechten, het functioneren van onze democratie en de rechtsstaat.