technologie en recht Flashcards
Aan welke vereisten moet een algoritme voor ingenieurs en informatici voldoen?
1) correctheid: het algoritme moet correct zijn, d.w.z. de juiste uitvoer (output) geven voor een gegeven geldige invoer (input);
2) eindigheid: het algoritme moet in een eindige tijd stoppen met een zinnig antwoord;
3) uitvoeringssnelheid: dit geeft aan hoe snel het algoritme het gewenste antwoord berekent (vaak in functie van de grootte van het probleem, bv. de tijd nodig om n getallen te sorteren in functie van het aantal getallen n);
4) robuustheid: kan het algoritme overweg met alle mogelijke vormen van invoer, zelfs onverwachte of foutieve invoer (bv. als men een negatief getal of iets dat geen getal is ingeeft in een programma om de vierkantswortel te berekenen)?;
5) elegantie: is het algoritme (de computercode) makkelijk leesbaar en begrijpbaar voor de programmeurs?
Deterministische algoritmes
deze algoritmes produceren voor een gegeven invoer steeds dezelfde uitvoer, waarbij het algoritme steeds dezelfde sequentie van stappen doorloopt. Een voorbeeld is bovenstaand algoritme van Euclides om de grootste gemeenschappelijke deler van twee gehele getallen te berekenen.
Probabilistische of stochastische algoritmes:
algoritmes die, zelfs voor dezelfde invoer, een verschillende uitkomst kunnen genereren, vaak afhankelijk van een willekeurig (random) proces dat bewust in het algoritme gebruikt wordt. Een voorbeeld is een algoritme voor het oplossen van een optimalisatieprobleem dat vertrekt vanuit een willekeurig startpunt of dat op willekeurige (random) wijze opeenvolgende stappen genereert om het optimum te zoeken. Hierdoor kunnen opeenvolgende uitvoeringen van het algoritme tot verschillende oplossingen leiden. Vaak worden dergelijke niet-deterministische algoritmes gebruikt om een goede benaderende oplossing te bekomen wanneer de rekentijd om de exacte oplossing (bv. het exacte optimum) m.b.v. deterministische algoritmes te berekenen veel te lang zou duren. In de praktijk is een goede benaderende oplossing immers vaak voldoende.
Slimme algoritmes
of machinaal leren (ML): dit zijn algoritmes die zichzelf automatisch verbeteren op basis van vroegere ervaringen. Hoe meer het algoritme traint en dus leert met nieuwe data, hoe beter (meestal toch) het algoritme wordt. Hiertoe bouwt het algoritme intern een soort model van het probleem op op basis van de trainingsdata, en vervolgens gebruikt het dat model om de uitkomst te bepalen voor nieuwe invoer. Machinaal leren behoort tot het domein van de kunstmatige of artificiële intelligentie
Vanuit juridisch standpunt kunnen we volgende soorten gebreken in software onderscheiden
Technische gebreken: dit wil zeggen het niet of niet goed functioneren van software zonder dat aan het gebrek een gebruikershandeling ten grondslag ligt. Een voorbeeld hiervan is het vastlopen van de computer door een softwarefout of door rekenfouten.
Functionele gebreken: de software functioneert technisch wel, maar doet functioneel niet wat de gebruiker daarvan verwachtte. De uitkomsten van het systeem zijn voor de gebruiker bijvoorbeeld niet bruikbaar (genoeg), bv. voldoen ze niet aan wettelijke vereisten.
Belevingsgebreken: de software functioneert technisch en functioneel goed, maar de gebruiker had daar andere verwachtingen van. Deze belevingsgebreken zijn soms terug te voeren op interpretatieverschillen ten aanzien van de overeengekomen specificaties. Een afnemer kan de software bijvoorbeeld niet gebruiksvriendelijk vinden. De beleving kan ook de uitleg van het afgesloten contract betreffen, bv. als de leverancier de werkende software niet verder ontwikkelt.
propriëtaire software vs opensourcesoftware
propriëtaire software
= die eigendom is van de leverancier (bv. de Microsoft Office toolsuite). De gebruiker koopt slechts een gelimiteerde gebruikslicentie, krijgt daarbij geen toegang tot de broncode en kan de software niet wijzigen of de wijzigingen verspreiden. Het pakket zelf is met andere woorden onveranderbaar voor de gebruiker. De leverancier is de enige die inzage heeft in de software en die wijzigingen kan en mag aanbrengen. Bugs mogen door gebruikers gerapporteerd worden, maar dienen door de leverancier opgelost te worden in een update of latere versie van de software.
opensourcesoftware=
wordt ook de broncode (source code) van de software vrijgegeven en krijgt de gebruiker vaak de licentie om naast gebruiker ook ontwikkelaar te zijn[8]. Voorbeelden zijn de Apache webserver, de Mozilla Firefox browser of de Mozilla Thunderbird e-mailclient. De beschikbaarheid van de broncode geeft gebruikers de mogelijkheid om de software te bestuderen, aan te passen, te verbeteren, te verspreiden of te verkopen. De ontwikkeling van opensourcesoftware komt vaak tot stand op publieke en gemeenschappelijke wijze, door samenwerking binnen een ‘community’ van zowel individuele programmeurs als overheden en bedrijven. Opensourcesoftware voorkomt vendor lock-in bij één enkele softwarefabricant
Algemeen kunnen cookies verschillende functies hebben
Noodzakelijke cookies: deze zijn vereist voor goede communicatie met en navigatie op de bezochte website;
Functionele cookies: deze vereenvoudigen het (toekomstig) bezoek van de bezoeker op de website en verbeteren de gebruikerservaring (bv. de keuze van de taal);
Performantiecookies: deze verzamelen informatie (bv. het aantal bezoekers, populaire pagina’s of kliks, enz.), wat de eigenaar van de website toelaat om de inhoud van de website te beoordelen en te verbeteren. De eigenaar kan dit ook gebruiken voor commerciële doeleinden, bv. de gebruiker producten aanbieden afhankelijk van wat je online bezoekt of opzoekt.
Advertentiecookies: deze verzamelen profielgegevens en kunnen ook geplaatst of gelezen worden door derde partijen waarmee de website-eigenaar een overeenkomst heeft (bv. om de efficiëntie van webadvertenties te meten of om de voorkeuren van gebruikers van de website te achterhalen, enz., maar het geeft de derde partij wel toegang tot gegevens via de website van de eerste partij).
cookie
en stukje software dat de server van een website die je met je browser bezoekt op je computer of mobiel toestel (bv. smartphone) plaatst. Het kan instellingen onthouden (bv. je paswoord, je bezochte pagina’s, enz.), maar het kan ook andere informatie bijhouden.
Noodzakelijke cookies: deze zijn vereist voor goede communicatie met en navigatie op de bezochte website;
Functionele cookies: deze vereenvoudigen het (toekomstig) bezoek van de bezoeker op de website en verbeteren de gebruikerservaring (bv. de keuze van de taal);
Performantiecookies: deze verzamelen informatie (bv. het aantal bezoekers, populaire pagina’s of kliks, enz.), wat de eigenaar van de website toelaat om de inhoud van de website te beoordelen en te verbeteren. De eigenaar kan dit ook gebruiken voor commerciële doeleinden, bv. de gebruiker producten aanbieden afhankelijk van wat je online bezoekt of opzoekt.
Advertentiecookies: deze verzamelen profielgegevens en kunnen ook geplaatst of gelezen worden door derde partijen waarmee de website-eigenaar een overeenkomst heeft (bv. om de efficiëntie van webadvertenties te meten of om de voorkeuren van gebruikers van de website te achterhalen, enz., maar het geeft de derde partij wel toegang tot gegevens via de website van de eerste partij).
Wat is de “cloud”?
De “cloud” is dus een groot netwerk van vele apparaten en (bedrade en draadloze) verbindingen die wereldwijd met elkaar geconnecteerd zijn.
verschillende vormen of lagen (Engels: layers) van cloudcomputing
cloudapplicaties: bieden software als een dienst aan (Software as a Service - SaaS):
cloudplatforms: bieden een platform als een dienst aan (Platform as a Service - PaaS):
cloudinfrastructuur: bieden infrastructuur als een dienst aan (Infrastructure as a Service - IaaS):
Afhankelijk van wie toegang krijgt tot de gegevens, de softwareapplicaties of de hardwareapparaten in de cloud, onderscheidt men volgende types van cloud[
publieke cloud:
private cloud:
gemeenschappelijke cloud:
hybride cloud:
De architectuur van het internet der dingen
In de onderste laag, de ‘apparatenlaag’ (Engels: device layer) bevinden zich met objecten uitgeruste sensoren die data waarnemen en doorgeven.
In de ‘netwerklaag’ (Engels: network services layer) bevindt zich de techniek die zorgt voor het veilige en snelle transport van de data, veelal naar de cloud.
In de cloud worden data opgeslagen en geanalyseerd ten behoeve van ‘applicatie-ondersteuning’.
De bovenste laag tenslotte representeert de ‘applicatielaag’ (Engels: application services layer), waarin de geanalyseerde data worden teruggekoppeld naar de gebruiker en/of (automatisch) wordt omgezet in meldingen of acties.
De 3 V’s: Volume, Variety en Velocity
Volume (hoeveelheid)
Bij Big Data gaat het om grote hoeveelheden gegevens. Verscheidene definities nemen daarom de hoeveelheid data als uitgangspunt bij het bepalen van wat geldt als Big Data.
Variety (verscheidenheid)
Niet alleen het volume van data is van belang voor de mogelijkheden van (analyse van) Big Data, maar ook de variëteit van de bronnen ervan.
Velocity (snelheid)
Big Data wordt ten slotte gekenmerkt door de dynamische aard van het proces waarmee de data worden gegenereerd en geanalyseerd.
Geef een omschrijving van de notie “Big Data”. Wat zijn de voornaamste kenmerken van “Big Data” en leg i.h.b. uit wat we begrijpen onder de “3 V’s”. Wat zijn belangrijke verschillen tussen Big Data-analyse en traditionele data-analyse? Waarom moeten we voorzichtig zijn als we beslissingen willen baseren op statistische verbanden die werden afgeleid uit data-gedreven analyses?
Naast de 3 V’s wordt een veelvoud aan andere kenmerken aan Big Data verbonden
Data-gedreven analyse
Het doel van de data-gedreven analyse is het vinden van relevante patronen en verbanden in datasets. Hiertoe worden algoritmes gebruikt die niet beperkt worden door specifieke hypotheses. Deze algoritmes testen grote hoeveelheden verbanden en proberen op deze wijze relevante informatie uit de data te destilleren.
Oriëntatie op correlatie
ata-gedreven analyses zich richten op het vinden van statistische verbanden (correlaties), die niet per definitie causaal van aard zijn. Causaliteit betekent dat A de oorzaak is van B, terwijl een correlatie slechts indiceert dat A en B in samenhang voorkomen.
Beschrijf de samenhang tussen Big Data, IoT en AI.
De drie technologieën vertonen een grote mate van samenhang. Het Internet of Things (IoT) ziet op de ontwikkeling waarbij steeds meer ‘alledaagse’ apparaten met het Internet verbonden raken. Dergelijke apparaten kunnen data waarnemen en doorgeven en dragen zo bij aan een vergaande digitalisering van de fysieke wereld. Deze digitalisering heeft een enorme toename van data tot gevolg. Overheden en bedrijven zijn steeds beter in staat om relevante informatie uit grote hoeveelheden aan gevarieerde, veelal real-time data te destilleren en deze informatie te gebruiken ten behoeve van (automatische) besluitvorming. Dit wordt aangeduid als het Big Data-proces. Kunstmatige Intelligentie (KI) richt zich op computers die intelligentie kunnen nabootsen. KI kan voorzien in de technologische handvatten waarmee complexe data-analyses kunnen worden uitgevoerd. Daarmee kan KI van belang zijn voor Big Data-processen en bij het verwerken van data die door met het Internet verbonden apparaten zijn verzameld. De drie technologieën hebben daarnaast gemeenschappelijk dat algoritmes een cruciale technologische bouwsteen vormen in hun functioneren.
De samenkomst van de drie algoritme-gedreven technologische ontwikkelingen kan een grote invloed hebben op het leven van mensen en daarmee op de uitoefening van fundamentele rechten. Dit is vooral zo door de enorme hoeveelheid aan concrete toepassingen. Van de gezondheidszorg en de opsporing van strafbare feiten tot de financiële sector en de ruimtelijke leefomgeving; er is geen domein immuun voor de veranderingen die plaatsvinden onder invloed van Big Data, het IoT en KI, en vooral ook door de invloed van de algoritmes die deze technologieën samenbrengen.
Wat zijn de verschillende stappen in een proces van Big Data-analyse en verlopen deze fases altijd chronologisch na elkaar? Wat verstaan we onder datamining, en onder profilering? Bespreek vier verschillende datamining-algoritmes, die ieder andere correlaties opsporen, en geef telkens een voorbeeld van hoe dergelijk algoritme in de praktijk kan worden ingezet. De aanbevelingstechnieken van Amazon en Netflix (“als u dit interessant vindt, bent u mogelijk ook geïnteresseerd in…”) werken op basis van … algoritmes (vul aan). Wat is het onderscheid tussen groepsprofielen en persoonsprofielen? Naast datamining en profilering bestaat een reeks andere technieken die worden ingezet voor Big Data-analyse. Noem er drie en geef aan wat we ermee kunnen doen. Met welke techniek kunnen bedrijven of organisaties “online sociale grafieken” opstellen (= de weergave van relaties tussen gebruikers van bv. Facebook), en op die manier achterhalen met wie we het meest contact hebben of wie ons het meest beïnvloedt?
De werking van het Big Data-proces
De werking van het Big Data-proces
verzameling en voorbereiding, analyse en gebruik.
verschillende datamining-algoritmes
classificatie-, cluster-, regressie- en associatietechnieken
profiling
Een persoonsprofiel bestaat uit een verzameling van eigenschappen (ook wel ‘attributen’) van een persoon.
Een groepsprofiel bestaat uit een verzameling attributen van een groep personen.
Bij een zogeheten distributieve groep zijn de attributen van de groep aanwezig bij alle personen die zich in de groep bevinden. niet-distributief karakter. Dit betekent dat de voor de groep geldende attributen niet noodzakelijkerwijs voor alle individuen in de groep gelden.
voorspellende en beschrijvende analyses:
Voorspellende
Deze analyses vinden plaats in twee stappen. Eerst wordt een algoritme ‘getraind’ door het bloot te stellen aan een reeks geclassificeerde voorbeelden. Deze ‘oefendata’ kunnen bijvoorbeeld bestaan uit gegevens over personen, waarvan enkele geclassificeerd zijn als terrorist. Vervolgens wordt het algoritme losgelaten op een nieuwe set aan data en is het in staat om op basis van correlaties en vergelijkbaarheid met de voorbeelden, nieuwe gevallen te classificeren.
Beschrijvende
Beschrijvende datamining en profilering richten zich op het verschaffen van een beter begrip van de data en het ontdekken van verbanden binnen een dataset. Hiervoor worden vooral cluster- en associatietechnieken ingezet.
Predictive policing
het voorspellen van crimineel en normoverschrijdend gedrag door middel van grootschalige verzameling, verwerking en analyse van data.Voorspellende data-analyse wordt hierbij ingezet ter ondersteuning van de opsporing.
richt zich op het voorspellen van criminele activiteiten, mogelijke daders en/of mogelijke slachtoffers.
Webcrawling
een toepassing van datamining waarbij het Internet methodisch en automatisch kan worden doorzocht op verdacht materiaal.
De advertenties die op sociale media en via zoekmachines worden getoond zijn vormen van
behavioural targeting
Big Data-analyses worden momenteel ingezet op een veelheid van terreinen, zowel in de publieke als de private sector. Lees de illustraties hierboven en maak uzelf vertrouwd met begrippen als ‘predictive policing’, ‘webcrawling’, ‘learning analytics’, ‘behavioural targeting’… Welke juridische kwesties zie je opduiken in verband met dergelijke toepassingen?
behavioural targeting
marketing worden afgestemd op individuele (potentiële) klanten op basis van hun online gedrag
consumer profiling
Op basis van data-analyse kan een zeer gedetailleerd profiel van een consument worden opgesteld. Dit profiel kan bestaan uit daadwerkelijk bestaande of door middel van analyse voorspelde karakteristieken van de specifieke consument. Marketing- en verkoopstrategieën kunnen vervolgens ‘op maat’ worden ingezet
Wat is AI
Eenvoudig gezegd is AI enerzijds een verzamelterm voor een brede waaier van technologieën die, in de meest simpele betekenis van het woord, de capaciteiten van het menselijke brein willen evenaren, en anderzijds de term gebruikt om te verwijzen naar de wetenschappelijke discipline(s) waarbinnen die technologieën worden bestudeerd vanuit diverse invalshoeken.[14]. Iets specifieker kunnen we AI omschrijven als een set van technologieën die (in meer of mindere mate) de volgende kenmerken vertonen:
autonomie: de capaciteit om handelingen te stellen in complexe omgevingen zonder (constante) menselijke tussenkomst;
aanpassingsvermogen: de capaciteit om taken steeds beter uit te voeren door zelf te leren, middels ervaring en interactie met de omgeving (vandaar het gebruik van de term “slimme algoritmes”).
natural language processing
de vaardigheid om gesproken en geschreven taal te verwerken en produceren
expert systems
systemen die kennis van een bepaald gebied hebben en die kennis al redenerend op de feiten van een geval kunnen toepassen, bijvoorbeeld in een medische setting
Kenmerken AI
hoge mate van autonomie
niet altijd voorspelbaar
ondoorzichtigheid
Enge of nauwe AI
heel goed in één specifieke taak of toepassing en kan daarin de menselijke intelligentie overstijgen, maar het kan alleen dat
bezitten geen redeneer- of inlevingsvermogen wat nodig is om context te begrijpen
brede of algemene AI
Brede AI zou, eenvoudig gezegd, kunnen schakelen tussen verschillende taken en verschillende functies automatisch aansturen
Maar daar zijn we nog lang niet, want daarvoor zijn heel veel verschillende vormen van intelligentie nodig
Binnen het onderzoeksveld van gerichte AI
De kennisgebaseerde benadering
oorspronkelijk geïnspireerd op inzichten uit de psychologie
top-down en probeert de kennis van een menselijke expert zo goed als mogelijk in kaart te brengen door observaties en door gesprekken met de expert, en probeert die kennis vervolgens te gieten in de representaties, regels en zoekstrategieën die het gedrag van de expert benaderen.
het voordeel dat de inhoud en het gedrag van het kennissysteem herkenbaar zijn, zowel voor de expert die de basis vormde voor het systeem als voor de gebruiker, die uitleg kan krijgen waarom bepaalde beslissingen zijn genomen in termen die hij begrijpt.
nadelen
niet gemakkelijk om de kennis van experts te analyseren en het is bijzonder tijdrovend om deze kennis mooi te formaliseren en te implementeren. Het correct transfereren van kennis en kunde van een technisch operator of expert naar een kennisingenieur is niet de gemakkelijkste opdracht. Beiden spreken een andere taal en leven in een andere denk- en prioriteitenwereld.
datagebaseerde of ‘machine learning’
bottom-up, heeft wortels in de statistiek en patroonherkenning. Hier vertrekt men van data over het gedrag van mensen, over de beslissingen die ze hebben genomen of over verschijnselen die zijn waargenomen via sensoren. Vervolgens worden statistische technieken gebruikt om in die data patronen te ontdekken en die patronen worden dan weer aangewend om nieuwe problemen op te lossen.
Bayesiaanse inferentie, die is gebaseerd op probabiliteitstheorie.
Machine Learning (ML)
ML is gebaseerd op algoritmes die in staat zijn om te leren op basis van eerdere ervaringen, zogenaamde zelflerende algoritmes. Het is dit zelflerende karakter dat ML-algoritmes onderscheidt van ‘traditionele’ computeralgoritmes
Deep Learning.
Deze technologie is gebaseerd op de werking van neurale netwerken die zijn gemodelleerd naar het menselijk brein en de neuronen die zich daarin bevinden. Het dieplerende algoritme voert hierbij een gelaagde analyse uit, waarbij resultaten uit de ene laag worden gebruikt als input voor de analyse van een volgende laag.
het proces van gezichtsherkenning. Dit proces kan in een dieplerend neuraal netwerk worden onderverdeeld in verschillende stappen
‘input’ bestaat dan uit de cameraregistratie van een menselijk gezicht. In de eerste stap worden de contouren van het gezicht gedefinieerd.
Deze contouren worden beschouwd als een ‘verborgen’ laag in de afbeelding, omdat deze niet vooraf door een programmeur zijn vastgesteld.
De resultaten uit deze laag worden gebruikt voor het analyseren van complexere kenmerken binnen de gedefinieerde contouren, zoals de neus, ogen, oren en mond.
In de derde laag worden de verhoudingen tussen de hiervoor omschreven kenmerken gedefinieerd.
In de vierde, en laatste, stap worden de resultaten uit de eerdere stappen samengevoegd en vergeleken met informatie afkomstig uit eerdere gezichtsanalyses. De output bestaat uit de herkenning van een specifiek gezicht.
ML is nauw verbonden met Big Data-analyse (datamining) en het functioneren van IoT-applicaties.
Licht toe.
e in paragraaf I.2.1.2 beschreven datamining-technieken vinden hun grondslag veelal in dieplerende algoritmes die zijn ontwikkeld binnen het domein van ML. De processen van patroonherkenning, profiling, clustering, associatie en (on)begeleide analyse worden dan ook vaak in de context van ML besproken en behoren niet louter tot de Big Data-context.145 Big Data stelt dergelijke algoritmes echter wel in staat om hun zelflerende vermogen maximaal te ontplooien. Data-analyse is daarnaast onontbeerlijk voor het adequaat functioneren van IoT-toepassingen. Hieruit volgt dat Machine Learning een onmisbare bouwsteen vormt voor de werking van de drie technologieën die de kern vormen van dit onderzoek.
chilling effects
Verregaande vormen van surveillance (dataveillance) in publieke ruimtes, bijvoorbeeld in smart cities, kunnen leiden tot zogenaamde chilling effects, waardoor ons autonome denken en handelen wordt aangetast.
data-laundering of math-washing
organisaties en bedrijven zich bij het nemen van moeilijke beslissingen verschuilen achter vermeend neutrale algoritmes
affiniteitsprofilering
in categorieën ondergebracht op basis van onze vermeende voorkeuren, eerder dan onze werkelijk vastgestelde voorkeuren (op basis van de redenering dat wanneer ik in sterke mate overeenkom met een persoon die bepaalde kenmerken combineert, ik die combinatie ook zal vertonen)
Lees p.17-25 van de Ethische Richtsnoeren voor Betrouwbare AI en (Q&A) leg beknopt, in je eigen bewoordingen, uit wat onder deze 7 vereisten wordt begrepen.
Er zijn verschillende types technishe normen die grosso modo in drie categorieën kunnen worden ingedeeld
technische specificaties (bv. inzake veiligheid of interoperabiliteit); kwalitatieve specificaties (bv. inzake dienstverlening - denk aan de ISO 9001 normen voor kwaliteitsmanagementsystemen); procesvoorschriften (bv. methodologieën inzake tests, audits, certificatie).
in vergelijking met de manier waarop computers van oudsher werken, hebben neurale netwerken bepaalde bijzondere eigenschappen.
Ten eerste wordt informatie in een traditionele computer in een centrale processor verwerkt (de centrale verwerkingseenheid of CPU; cf. Inhoud: Module 1A - Computers en de digitale revolutie) die zich maar op een ding tegelijk kan richten. De CPU kan te verwerken gegevens uit het geheugen van de computer halen en het resultaat opslaan in het geheugen. De opslag en verwerking van gegevens worden dus door twee verschillende onderdelen van de computer gedaan: het geheugen en de CPU. In neurale netwerken bestaat het systeem uit een groot aantal neuronen die allemaal in hun eentje informatie kunnen verwerken. Dus in plaats van dat een CPU alle stukjes informatie na elkaar verwerkt, verwerken de neuronen tegelijkertijd grote hoeveelheden informatie.
tweede verschil is dat de opslag (het geheugen) en de verwerking van gegevens niet gescheiden zijn zoals in traditionele computers. De neuronen verzorgen zowel de opslag als de verwerking van informatie, zodat het niet nodig is om gegevens uit het geheugen te halen om deze te kunnen verwerken. De gegevens kunnen gedurende korte tijd in de neuronen zelf worden opgeslagen (ze sturen ze al dan niet op een bepaald moment door) of voor langere tijd in de verbindingen tussen de neuronen, hun zogenaamde gewichten, waar we hieronder op terugkomen
er zijn drie grote leertechnieken voor algoritmes, die computerwetenschappers individueel of in combinatie met elkaar inzetten
Gesuperviseerd leren (supervised learning): een algoritme ontdekt patronen doordat een mens ze aanduidt.
Ongesuperviseerd leren (unsupervised learning): een algoritme ontdekt zelfstandig patronen zonder dat een mens hierbij helpt.
Versterkend leren (reinforcement learning): een algoritme ontdekt zelfstandig patronen door fouten te maken.
Gesuperviseerd leren
Gesuperviseerd leren, of leren onder toezicht, of begeleid leren, is een methode waarin je werkt met gelabelde data waarmee je voorspellingen wilt doen. Dat de trainingsdata ‘gelabeld’ zijn, betekent dat de dataset die je gaat gebruiken om te modelleren zowel de eigenschappen bevat, als de uitkomst van hetgeen voorspeld moet worden. Eenvoudiger gezegd: het systeem krijgt van de ‘supervisor’ voorbeelden waarbij duidelijk aangegeven staat wat de gewenste output is bij een gegeven input.
backpropagation
aanpassen van de parameters om de verschillen tussen de cijfers die het neurale netwerk waarneemt, en de correcte cijfers te minimaliseren
Binnen gesuperviseerd leren bestaan er 2 subgroepen
Classificatie (classification in het Engels): voor het voorspellen van een categorie, een groep
Regressie (regression in het Engels): voor het voorspellen van een waarde, een getal
Feature Engineering
het proces waarbij je de eigenschappen selecteert, bewerkt of maakt zodanig dat je je model kan trainen met op de best voorspellende eigenschappen.
Classificatie
In plaats van handmatig precieze regels te formuleren voor het uitvoeren van de classificatie, geven we het computersysteem een aantal voorbeelden die elk de juiste benaming krijgen toegewezen en die worden gebruikt om het algoritme te ‘trainen’ in het automatisch herkennen van de juiste benaming voor de trainingsvoorbeelden en (dat is de bedoeling althans) andere afbeeldingen.
Hoe leren neurale netwerken
Gesuperviseerd leren (supervised learning) Ongesuperviseerd leren (unsupervised learning) Versterkend leren (reinforcement learning)
Gesuperviseerd leren
Gesuperviseerd leren, of leren onder toezicht, of begeleid leren, is een methode waarin je werkt met gelabelde data waarmee je voorspellingen wilt doen. Dat de trainingsdata ‘gelabeld’ zijn, betekent dat de dataset die je gaat gebruiken om te modelleren zowel de eigenschappen bevat, als de uitkomst van hetgeen voorspeld moet worden. Eenvoudiger gezegd: het systeem krijgt van de ‘supervisor’ voorbeelden waarbij duidelijk aangegeven staat wat de gewenste output is bij een gegeven input.
Underfitting
model een te simplistisch beeld van de werkelijkheid geeft.
Overfitting
het model dus te complex(