Neural Networks Flashcards

1
Q

Nelle NN a cosa serve l’activation function?

A
  • Viene usato nelle unità nascoste
  • È una funzione non lineare
  • RELU
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

funzioni di attivazione panoramica / disegno

Funzioni di attivazione? problemi e/o svantaggi tra le varie

A
  • Rectified Linear Activation (ReLU)
  • Logistic (Sigmoid)
  • Hyperbolic Tangent (Tanh)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

funzioni di attivazione, perchè ora si usa relu?

A
  • Meno suscettibile alla scomparsa del gradiente

* Anche se soffre il problema delle unità morte (Leaky RELU lo risolve)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

feed forward nn

A
• La funzione f è una composizione di funzioni multiple
• Il problema non è convesso
• Convergenza non garantita
• Bisogna scegliere: 
    ○ Cost function (L2)
    ○ Form of output( Lineari, Softmax)
    ○ Activation functions
    ○ Architecture (number of layers etc, pochi risultati teorici)
    ○ Optimizer (Gradient Descent)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

La saturazione nelle learning function?

A

• La saturazione rende l’apprendimento del gradiente difficile (Sigmoid, Tanh)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly