Hoorcollege 11-12 Flashcards
computational methods
Three main categories of learning strategies
Unsupervised learning: the neural network receives input from the outside world, and its synaptic weights change as a consequence of this input.
Supervised learning: the neural network receives input from the outside world and also the desired output, so that the network can change its synaptic weights to reach such output.
Reinforcement learning: the neural network receives input from the outside world, and a reward/punishment teaching signal which bias the learning towards a desired output
biologische voorbeelden learning strategies
- Unsupervised learning: for example, receptive fields.
- Supervised learning: links with biological mechanisms still unclear. A good
candidate is learning in the cerebellum (teaching signals). - Reinforcement learning: classical conditioning.
BCM rule
probeert leren in visual system te verklaren
extensie van hebb rule
lost twee belangrijke aspecten van de stabiliteitsproblem van heb op
BCM voegt een depressiefactor toe waardoor synpasen slapper kunnen worden
En het voegt een drempel toe zodat een synaps niet overgeactiveerd kan worden
overeenkomst verschil BCM met Oja
overeenkomst proberen beide het stability probleem van Hebb op te lossen
Verschil Oja voegt een forgetting term toe, zodat strong synapsen niet nog sterker kunnen worden
Waarom moeten er regels worden toegevoegd voor spikes
van nature is spikes niet mogelijk in computerprogrammas
Spike Timing Dependent Plasticity STDP rule
pre synaps voor post synaps= versterking
post synaps voor pre synaps= verslapping
triplet rule
je krijgt alleen LTP bij POST-PRE-POST activatie.
Welke spikes en depolarisaties zijn noodzakelijk voor LTP
presynaptische spike en postsynaptische depolarisatie(geen spike nodig)
burst rule
regel die niet hebb rule volgt. geeft aan dat burst van neurons die snel na elkaar komen, LTD opwekken.
Vissen gebruiken dit in het water om magneetvelden te detecteren.
boolean functie AND & OR
twee synapsen vuren op projectordendriet, deze vuurt alleen door als beide synapsen vuren(AND) of als maar 1 van de twee vuurt(OR)
Perceptron & classifiers
perceptrons worden gebruikt als classiefiers, meerde factoren worden dan berekend om een scheidslijn te maken tussen hond en kat bijvoorbeeld.
Hoe wordt het opgelost dat de lijn van de classifiers niet getrokken kan worden omdat beide soorten door elkaar lopen qua parameters
een extra hidden layer bijvoorbeeld waardoor er twee lijnen komen te ontstaan
universal approximation theorem
It can be mathematically proven that a feedforward (FF) neural network with at
least one hidden layer is able to approximate any continuous function, and
therefore solve in principle any classification problem given enough training,
input, etc
deep neural networks
When the number of hidden layers is sufficiently large, FF neural networks are usually referred to as deep neural networks.
FF neural networks can contain more than one hidden layer. This improves their computing power to even higher levels, and allows them to solve problems like face recognition, speech-to-text translation, real-world object classification, etc.
backpropagation
In a nutshell, backpropagation works like this:
1. Compare the real vs desired output of the model
2. Slightly change the weights in the direction that decreases the error
3. Repeat this process as you travel backwards in the network.