U6 Flashcards

1
Q

Co to perceptron?

A

Jeden z pierwszych modeli neuronu zastosowany w sztucznych sieciach neuronowych. Jest najprostszym elementem decyzyjnym, obliczającym decyzje na podstawie ważonej sumy zmiennych wejściowych.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Co to Perceptron wielowartwowy(MLP)?

A

Zbiór perceptronów, ułożonych w przynajmniej dwie warstwy. Pierwsza warstwa, wejściowa pobiera sygnały wejściowe, ostatnia warstwa nazywana wyjściową, zwraca sygnały wyjściowe. Pomiędzy tymi warstwami może być wiele dodatkowych warstw, które nazywamy ukrytymi. MLP zamiast od razu podejmować decyzję, rozkłada pomiędzy warstwami rozpoznanie pewnych elementarnych cech sygnału wejściowego, przez co warstwy wyjściowe podejmują decyzję na podstawie bardziej istotnych kategorii niż zmienne wejściowe.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Jakie są rodzaje funkcji aktywacji (σ) neuronu?

A
  1. Funkcja krokowa
  2. Funkcja sigmoidalna (krzywa logistyczna)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Czym są sieci jednokierunkowe?

A

Sieci jednokierunkowe, zwane także sieciami jednokierunkowymi (feedforward networks), są jednym z podstawowych typów architektur sieci neuronowych. Charakteryzują się tym, że dane przetwarzane są tylko w jednym kierunku – od warstwy wejściowej, przez ukryte warstwy, aż do warstwy wyjściowej, bez cykli wstecznych.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Jakie są efekty regularyzacji?

A
  1. unikanie przeuczenia
  2. szybsza zbieżność do większej dokładności obliczeń
  3. mniejsza czułość na wybór wartości początkowych i unikanie minimów lokalnych funkcji kosztu
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Co to Regularyzacja?

A

Technika polegająca na takiej modyfikacji funkcji kosztu, aby zmusić sieć do uczenia się w bardziej pożądany
sposób(aby funkcja sieci była bardziej regularna)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Na czym polega metoda dropout?

A

Metoda regularyzacji zupełnie inna od poprzednich. Polega na wielokrotnym usuwaniu losowo wybranych neuronów w trakcie uczenia (tymczasowo). Po zakończeniu fazy uczenia z usuniętymi neuronami, są one przywracane a następnie inny losowy zestaw neuronów usuwany, i uczenie kontynuowane. Ostatecznie wytrenowana sieć pracuje z wszystkimi oryginalnymi neuronami.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Jakie są główne parametry sieci neuronowej?

A
  • liczba i rodzaj neuronów
  • liczba warstw i podział między warstwami ukrytymi
  • zestaw wag i biasów
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Jakie są hiper-parametry sieci neuronowej związana z procesem uczenia?

A
  • współczynnik uczenia η
  • współczynnik regularyzacji λ
  • wielkość mini serii
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Jaka jest strategia prowadzenia projektu z siecią neuronową?

A

Pierwszym celem powinno być osiągnięcie efektu uczenia lepszego niż przypadkowy, co oznacza, że model zaczyna uczyć się w sposób sensowny.

Po uzyskaniu pierwszych wskazówek, że sieć uczy się pożądanych właściwości, można eksperymentować z parametrami i hiper-parametrami procesu uczenia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Czym jest wczesne zatrzymywanie?

A

Polega na monitorowaniu postępu uczenia na zbiorze walidacyjnym. Kiedy dokładność uczenia obliczona na zbiorze walidacyjnym przestaje się poprawiać, zatrzymujemy uczenia, pomimo iż poprawa dokładności nadal byłaby możliwa na zbiorze treningowym.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Na czym polega dostrajanie współczynnika uczenia η?

A

Usprawnienie tego współczynnika polega na zmniejszeniu go w miarę postępu optymalizacji sieci. Po zatrzymaniu uczenia współczynnik η należy kilkukrotnie zmniejszyć i ponowić próbę uczenia. Można powtarzać wielokrotnie, dopóki wykrywamy poprawę kryterium uczenia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Czym są sieci głębokie?

A

Sieć głębokie posiadają wiele warstw ukrytych. Zamiast generować końcowe wyniki w jednym kroku, tworzone są warstwy abstrakcji do analizy problemu. Ma to wielkie znaczenie w erze big data, ponieważ podejmowane są coraz bardziej złożone zagadnienia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Sieć z gęstymi połączeniami, a sieć
konwolucyjna?

A
  • Warstwy gęste uczą się cech parametrów globalnych, a warstwy konwolucyjne uczą się lokalnych wzorców
  • Wzorce rozpoznawane przez sieć konwolucyjną są niezależne od przesunięcia
  • Sieci konowulcyjne mogą się uczyć hierarchii przestrzennej wzorców
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Dlaczego nie możemy stosować
standardowej głębokiej sieci zawierającej w
pełni połączone warstwy?

A

Nie nadają się do większych obrazów z powodu olbrzymiej liczby
parametrów

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Co to Splot(konwulcja)

A

Jako operacja matematyczna między dwoma funkcjami:
mierzy całkę z ich iloczynu punktowego.
* W kontekście przetwarzania obrazów: jedna z funkcji -
dwuwymiarowa macierz zawierającą wartości pikseli obrazu
(zazwyczaj o dużych wymiarach), a druga z funkcji - filtr
(zdecydowanie mniejsza macierz), nazywana jądrem
konwolucji.
* W wyniku konwolucji obrazu z filtrem otrzymujemy nowy
obraz.

13
Q

Co to Filtry (jądra splotowe)

A
  • wagi neuronu mogą być przedstawiane jako niewielki obraz o
    rozmiarze pola recepcyjnego
  • filtry: zbiory wag

Przykład:
- filtr pionowy:
macierz o wymiarach 7 × 7 wypełniona zerami oprócz
środkowej kolumny, która zawiera jedynki
neurony zawierające te wagi będą ignorować wszystkie
elementy w polu recepcyjnym oprócz znajdujących się na
środku pionowej linii

  • filtr poziomy: środkowa linia ułożona poziomo
14
Q

Co to Mapa Cech?

A

-Warstwa wypełniona neuronami wykorzystującymi ten sam filtr
daje nam mapę cech.

-Mapa cech to trójwymiarowy tensor (wysokość, szerokość,
głębia/kanał).

15
Q

Warstwa łącząca

A

Celem warstwy łączącej (ang. pooling layer) jest podpróbkowanie
(zmniejszenie) obrazu wejściowego w celu zredukowania obciążenia
obliczeniowego i pamięciowego

Każdy neuron stanowiący część warstwy łączącej łączy się z
wyjściami określonej liczby neuronów warstwy poprzedniej,
mieszczącej się w obszarze niewielkiego pola recepcyjnego

Warstwa łącząca nie zawiera żadnych wag - jej jedynym
zadaniem jest gromadzenie danych