Neural Networks Flashcards
1
Q
Nelle NN a cosa serve l’activation function?
A
- Viene usato nelle unità nascoste
- È una funzione non lineare
- RELU
2
Q
funzioni di attivazione panoramica / disegno
Funzioni di attivazione? problemi e/o svantaggi tra le varie
A
- Rectified Linear Activation (ReLU)
- Logistic (Sigmoid)
- Hyperbolic Tangent (Tanh)
3
Q
funzioni di attivazione, perchè ora si usa relu?
A
- Meno suscettibile alla scomparsa del gradiente
* Anche se soffre il problema delle unità morte (Leaky RELU lo risolve)
4
Q
feed forward nn
A
• La funzione f è una composizione di funzioni multiple • Il problema non è convesso • Convergenza non garantita • Bisogna scegliere: ○ Cost function (L2) ○ Form of output( Lineari, Softmax) ○ Activation functions ○ Architecture (number of layers etc, pochi risultati teorici) ○ Optimizer (Gradient Descent)
5
Q
La saturazione nelle learning function?
A
• La saturazione rende l’apprendimento del gradiente difficile (Sigmoid, Tanh)