Egzamin Flashcards
1
Q
- Mózg człowieka:
a. zawiera ok 10^11 neuronów i 10^15 synaps
b. jest zbudowany z jednego rodzaju neuronów
c. jest zbudowany z kilkunastu rodzajow| neuronów
d. zwieksza swoja mase wraz z wiekiem
A
- Mózg człowieka:
a.zawiera ok 10^11 neuronów i 10^15 synaps
b. jest zbudowany z jednego rodzaju neuronów
c. jest zbudowany z kilkunastu rodzajow neuronów
d. zwieksza swoja mase wraz z wiekiem
2
Q
- Zaznacz prawdziwe stwierdzenia:
a. dendryty odpowiadaja za odbieranie, zas akson za wysytanie impulsow elektrycznych
b. dendryty odpowiadaja za wysytanie, zas akson za odbieranie
c. potaczenia miedzy neuronami realizowane sa poprzez synapsy
d. dendryty sa chronione otoczka mielinowa
A
- Zaznacz prawdziwe stwierdzenia:
a. * dendryty odpowiadaja za odbieranie, zas akson za wysytanie impulsow elektrycznych*
b. dendryty odpowiadaja za wysyłanie, zas akson za odbieranie
c. potaczenia miedzy neuronami realizowane sa poprzez synapsy
d. dendryty sa chronione otoczka mielinowa
3
Q
- Sygnat wyjsciowy sztucznego neuronu okreslony jest przez (zaznacz wszystkie skladowe):
a. sume wazona sygnatów wejsciowych
b. iloczyn sygnatow wejsciowych
c. wartość progu aktywacji
d. zastosowana funkcje aktywacji
A
- Sygnat wyjsciowy sztucznego neuronu okreslony jest przez (zaznacz wszystkie skladowe):
a. sume wazona sygnałów wejsciowych
b. iloczyn sygnałow wejsciowych
c. wartość progu aktywacji
d. zastosowana funkcje aktywacji
4
Q
- Odkrywanie struktur w przestrzeni danych wejsciowych wytacznie na ich podstawie jest domena:
a. uczenia nienadzorowanego
A
uczenia nienadzorowanego
5
Q
- Sztuczna siec neuronowa jest definiowana przez:
a. model neuronu
b. graf połaczen
c. stosowane reguty uczenia
d. sposób reprezentacji danych wejsciowych i wyjsciowych
A
- Sztuczna siec neuronowa jest definiowana przez:
a. model neuronu
b. graf połaczen
c. stosowane reguty uczenia
d. sposób reprezentacji danych wejsciowych i wyjsciowych
6
Q
- Klasyfikacji dla zbiorów obserwacji, które nie sa liniowo separowalne, mozna dokonać za pomoca:
a. perceptronu jednowarstwowego z liniowa funkcja aktywacji
b. perceptronu jednowarstwowego z nieliniowa funkcja aktywacji
c. dwóch lub wiecej neuronów McCullocha- Pittsa
d. głebokiej sztucznej sieci neuronowej
A
- Klasyfikacji dla zbiorów obserwacji, które nie sa liniowo separowalne, mozna dokonać za pomoca:
a. perceptronu jednowarstwowego z liniowa funkcja aktywacji
b. perceptronu jednowarstwowego z nieliniowa funkcja aktywacji
c. dwóch lub wiecej neuronów McCullocha- Pittsa
d. głebokiej sztucznej sieci neuronowej
7
Q
- Do uczenia jednokierunkowego perceptronu wielowarstwowego mozna zastosowac:
a. regute uczenia Rosenblatta
b. prosta regute uczenia delta (Widrowa- Hoffa)
c. regute uczenia Hebba
d. algorytm wstecznej propagacji btedu (uogólniona regute uczenia delta)
A
- Do uczenia jednokierunkowego perceptronu wielowarstwowego mozna zastosowac:
a. regute uczenia Rosenblatta
b. prosta regute uczenia delta (Widrowa- Hoffa)
c. regute uczenia Hebba
d. algorytm wstecznej propagacji btedu (uogólniona regute uczenia delta)
8
Q
- Odpowiedni dobór funkcji aktywacji pozwala:(?)
a. zapobiec zjawisku zanikajacego gradientu
b. zapobiec zjawisku eksplodujacego gradientu
c. efektywnie znalezé wartosé jej pochodnej, gdy dana jest wartosé funkcji
d. zapobiec nasyceniu sie neuronów
A
- Odpowiedni dobór funkcji aktywacji pozwala:
a. zapobiec zjawisku zanikajacego gradientu
b. zapobiec zjawisku eksplodujacego gradientu
c. efektywnie znalezé wartosé jej pochodnej, gdy dana jest wartosé funkcji
d. zapobiec nasyceniu sie neuronów
9
Q
- Trenowanie jednokierunkowego perceptronu wielowarstwowego mozna ulepszyc poprzez:
a. zastosowanie algorytmu uczenia z bezwladnoscia (‘momentem’)
b. inicjalizacia wag duzymi wartosciami losowymi (TO NIE)
c. skalowaniem danych wejsciowych
d. metody optymalizacyine 2 rzedu
A
- Trenowanie jednokierunkowego perceptronu wielowarstwowego mozna ulepszyc poprzez:
a. zastosowanie algorytmu uczenia z bezwladnoscia (‘momentem’)
b. inicjalizacia wag duzymi wartosciami losowymi
c. skalowaniem danych wejsciowych
d. metody optymalizacyine 2 rzedu
10
Q
- Przetrenowaniu (ang. overfitting) sztucznej] sieci neuronowej mozna zapobiegac poprzez:
a. losowe wytaczanie neuronów w trakcie uczenia (dropout)
b. uproszczenie/regularyzacje modelu
c. stosowanie zbioru walidacyjnego i wczesne zatrzymanie uczenia
d. zmniejszenie liczny przypadków treningowych
A
- Przetrenowaniu (ang. overfitting) sztucznej sieci neuronowej mozna zapobiegac poprzez:
a. losowe wytaczanie neuronów w trakcie uczenia (dropout)
b. uproszczenie/regularyzacje modelu
c. stosowanie zbioru walidacyjnego i wczesne zatrzymanie uczenia
d. zmniejszenie liczby przypadków treningowych
11
Q
- Rozwiazujac problem regresji za pomoca sztucznej sieci neuronowej nalezy zastosowaé nastepujaca funkcje aktywacji (A) w warstwie wyjsciowej oraz funkcje] kosztu/straty (B):
b. A - liniowa, B - sredni blad kwadratowy MSE
A
A - liniowa, B - sredni blad kwadratowy MSE
12
Q
- Rozwiazujac problem klasyfikacji wielowarstwowej za pomoca sztucznej sieci neuronowej nalezy zastosowaé nastepujaca] funkcje aktywacji (A) w warstwie wyjsciowej] oraz funkcje kosztu/straty (B):
a. A - softmax, B - dyskretna entropiel krzyzowal
A
A - softmax, B - dyskretna entropiel krzyzowal
13
Q
- Sieci z radialnymi funkcjami bazowymi (RBF) w stosunku do perceptronów wielowarstwowych (MLP):
a. bazuja na lokalnych przypadkach i nie wymagaja douczania
b. maja kilka rodzajów parametrów (wagi, centra, rozmycia)
c. sa trudniejsze w inicjalizacji, uczeniu i interpretacji
d. granica decyzyjna jest hipersfera, a nie hiperpłaszczyzna
A
- Sieci z radialnymi funkcjami bazowymi (RBF) w stosunku do perceptronów wielowarstwowych (MLP):
a. bazuja na lokalnych przypadkach i nie wymagaja douczania
b. maja kilka rodzajów parametrów (wagi, centra, rozmycia)
c. sa trudniejsze w inicjalizacji, uczeniu i interpretacji
d. granica decyzyjna jest hipersfera, a nie hiperpłaszczyzna
14
Q
- Samoorganizacja w sztucznych sieciach| neuronowych:
a. moze byc oparta o mechanizm konkurencji (regułe Kohonena)
b. moze byc oparta o regute Hebba
c. nie wymaga nadmiarowosci danych i powtarzania podobnych wzorców
d. stuzy wykrywaniu istotnych cech w sygnale oraz modelowaniu rozktadu danych
A
- Samoorganizacja w sztucznych sieciach| neuronowych:
a. moze byc oparta o mechanizm konkurencji (regułe Kohonena)
b. moze byc oparta o regute Hebba
c. nie wymaga nadmiarowosci danych i powtarzania podobnych wzorców
d. stuzy wykrywaniu istotnych cech w sygnale oraz modelowaniu rozktadu danych
15
Q
- W uczniu konkurencyjnym mozna zastosowac regułe:
a. ‘zwyciezca bierze wszystko’ (WTA)
b. ‘zwyciezca bierze wiekszosc’ (WTM)
A
- W uczniu konkurencyjnym mozna zastosowac regułe:
a. ‘zwyciezca bierze wszystko’ (WTA)
b. ‘zwyciezca bierze wiekszosc’ (WTM)
16
Q
- Rodzajem sieci dynamicznej jest:
a. siec Hopfielda
b. siec Hamminga
c. siec BAM
A
- Rodzajem sieci dynamicznej jest:
a. siec Hopfielda
b. siec Hamminga
c. siec BAM
17
Q
- Glebokie sieci neuronowe w stosunku do sieci plytkich:
a. posiadaja co najmniej 2 nieliniowosci w najkrótszej sciezce prowadzacej od wejscia do wyjscia
b. wymagaja odpowiednio przygotowanych cech
c. tworza model hierarchiczny, w którym warstwy odwzorowuja kolejne poziomy abstrakcji
d. łatwiej sie przetrenowuja niz sieci ‘szerokie’
A
- Glebokie sieci neuronowe w stosunku do sieci plytkich:
a. posiadaja co najmniej 2 nieliniowosci w najkrótszej sciezce prowadzacej od wejscia do wyjscia
b. wymagaja odpowiednio przygotowanych cech
c. tworza model hierarchiczny, w którym warstwy odwzorowuja kolejne poziomy abstrakcji
d. łatwiej sie przetrenowuja niz sieci ‘szerokie’
18
Q
- Cecha sieci splotowych (konwolucyjnych) Jest:
a. zdolnosc do generalizacji sygnatu posiadajacego relacje przestrzenne
b. mata odpornosé na przestrzenne transformacje sygnatu (skalowanie, obrót przesuniecie
c. rzadka reprezentacja i współdzielenie parametrów
d. mozliwosé uzycia sygnału wejsciowego o zmiennym rozmiarze
A
- Cecha sieci splotowych (konwolucyjnych) Jest:
a. zdolnosc do generalizacji sygnatu posiadajacego relacje przestrzenne
b. mata odpornosé na przestrzenne transformacje sygnatu (skalowanie, obrót przesuniecie)
c. rzadka reprezentacja i współdzielenie parametrów
d. mozliwosé uzycia sygnału wejsciowego o zmiennym rozmiarze
19
Q
- Sieci rekurencyjne charakteryzuja sie:
a. cyklami w grafie połaczen
b. prosta, łatwa do analizy dynamika
c. podobienstwem do sieci biologicznych
d. zdolnoscia do modelowania sekwencji danych
A
- Sieci rekurencyjne charakteryzuja sie:
a. cyklami w grafie połaczen
b. prosta, łatwa do analizy dynamika
c. podobienstwem do sieci biologicznych
d. zdolnoscia do modelowania sekwencji danych
20
Q
- Wybierz prawdziwe stwierdzenia:
a. zadaniem autoenkodera jest odtworzenie na wyjsciu sygnatu wejsciowego
b. zarówno autoenkodery jak i sieci GAN pozwalaja na tworzenie nowych sygnatów
c. sieci DBN (ang. Deep Belief Networks) | ucza sie gtebokiej, hierarchicznej] reprezentacji danych
d. sieci GAN sktadaja sie z czesci| generujacej oraz czesci oceniajacej] (dyskryminujacej)
A
- Wybierz prawdziwe stwierdzenia:
a. zadaniem autoenkodera jest odtworzenie na wyjsciu sygnatu wejsciowego
b. zarówno autoenkodery jak i sieci GAN pozwalaja na tworzenie nowych sygnatów
c. sieci DBN (ang. Deep Belief Networks) ucza sie gtebokiej, hierarchicznej reprezentacji danych
d. sieci GAN składaja sie z czesci generujacej oraz czesci oceniajacej (dyskryminujacej)