Egzamin Flashcards

1
Q
  1. Mózg człowieka:
    a. zawiera ok 10^11 neuronów i 10^15 synaps
    b. jest zbudowany z jednego rodzaju neuronów
    c. jest zbudowany z kilkunastu rodzajow| neuronów
    d. zwieksza swoja mase wraz z wiekiem
A
  1. Mózg człowieka:
    a.zawiera ok 10^11 neuronów i 10^15 synaps
    b. jest zbudowany z jednego rodzaju neuronów
    c. jest zbudowany z kilkunastu rodzajow neuronów
    d. zwieksza swoja mase wraz z wiekiem
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q
  1. Zaznacz prawdziwe stwierdzenia:
    a. dendryty odpowiadaja za odbieranie, zas akson za wysytanie impulsow elektrycznych
    b. dendryty odpowiadaja za wysytanie, zas akson za odbieranie
    c. potaczenia miedzy neuronami realizowane sa poprzez synapsy
    d. dendryty sa chronione otoczka mielinowa
A
  1. Zaznacz prawdziwe stwierdzenia:
    a. * dendryty odpowiadaja za odbieranie, zas akson za wysytanie impulsow elektrycznych*
    b. dendryty odpowiadaja za wysyłanie, zas akson za odbieranie
    c. potaczenia miedzy neuronami realizowane sa poprzez synapsy
    d. dendryty sa chronione otoczka mielinowa
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q
  1. Sygnat wyjsciowy sztucznego neuronu okreslony jest przez (zaznacz wszystkie skladowe):
    a. sume wazona sygnatów wejsciowych
    b. iloczyn sygnatow wejsciowych
    c. wartość progu aktywacji
    d. zastosowana funkcje aktywacji
A
  1. Sygnat wyjsciowy sztucznego neuronu okreslony jest przez (zaznacz wszystkie skladowe):
    a. sume wazona sygnałów wejsciowych
    b. iloczyn sygnałow wejsciowych
    c. wartość progu aktywacji
    d. zastosowana funkcje aktywacji
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q
  1. Odkrywanie struktur w przestrzeni danych wejsciowych wytacznie na ich podstawie jest domena:
    a. uczenia nienadzorowanego
A

uczenia nienadzorowanego

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q
  1. Sztuczna siec neuronowa jest definiowana przez:
    a. model neuronu
    b. graf połaczen
    c. stosowane reguty uczenia
    d. sposób reprezentacji danych wejsciowych i wyjsciowych
A
  1. Sztuczna siec neuronowa jest definiowana przez:
    a. model neuronu
    b. graf połaczen
    c. stosowane reguty uczenia
    d. sposób reprezentacji danych wejsciowych i wyjsciowych
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q
  1. Klasyfikacji dla zbiorów obserwacji, które nie sa liniowo separowalne, mozna dokonać za pomoca:
    a. perceptronu jednowarstwowego z liniowa funkcja aktywacji
    b. perceptronu jednowarstwowego z nieliniowa funkcja aktywacji
    c. dwóch lub wiecej neuronów McCullocha- Pittsa
    d. głebokiej sztucznej sieci neuronowej
A
  1. Klasyfikacji dla zbiorów obserwacji, które nie sa liniowo separowalne, mozna dokonać za pomoca:
    a. perceptronu jednowarstwowego z liniowa funkcja aktywacji
    b. perceptronu jednowarstwowego z nieliniowa funkcja aktywacji
    c. dwóch lub wiecej neuronów McCullocha- Pittsa
    d. głebokiej sztucznej sieci neuronowej
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q
  1. Do uczenia jednokierunkowego perceptronu wielowarstwowego mozna zastosowac:
    a. regute uczenia Rosenblatta
    b. prosta regute uczenia delta (Widrowa- Hoffa)
    c. regute uczenia Hebba
    d. algorytm wstecznej propagacji btedu (uogólniona regute uczenia delta)
A
  1. Do uczenia jednokierunkowego perceptronu wielowarstwowego mozna zastosowac:
    a. regute uczenia Rosenblatta
    b. prosta regute uczenia delta (Widrowa- Hoffa)
    c. regute uczenia Hebba
    d. algorytm wstecznej propagacji btedu (uogólniona regute uczenia delta)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q
  1. Odpowiedni dobór funkcji aktywacji pozwala:(?)
    a. zapobiec zjawisku zanikajacego gradientu
    b. zapobiec zjawisku eksplodujacego gradientu
    c. efektywnie znalezé wartosé jej pochodnej, gdy dana jest wartosé funkcji
    d. zapobiec nasyceniu sie neuronów
A
  1. Odpowiedni dobór funkcji aktywacji pozwala:
    a. zapobiec zjawisku zanikajacego gradientu
    b. zapobiec zjawisku eksplodujacego gradientu
    c. efektywnie znalezé wartosé jej pochodnej, gdy dana jest wartosé funkcji
    d. zapobiec nasyceniu sie neuronów
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q
  1. Trenowanie jednokierunkowego perceptronu wielowarstwowego mozna ulepszyc poprzez:
    a. zastosowanie algorytmu uczenia z bezwladnoscia (‘momentem’)
    b. inicjalizacia wag duzymi wartosciami losowymi (TO NIE)
    c. skalowaniem danych wejsciowych
    d. metody optymalizacyine 2 rzedu
A
  1. Trenowanie jednokierunkowego perceptronu wielowarstwowego mozna ulepszyc poprzez:
    a. zastosowanie algorytmu uczenia z bezwladnoscia (‘momentem’)
    b. inicjalizacia wag duzymi wartosciami losowymi
    c. skalowaniem danych wejsciowych
    d. metody optymalizacyine 2 rzedu
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q
  1. Przetrenowaniu (ang. overfitting) sztucznej] sieci neuronowej mozna zapobiegac poprzez:
    a. losowe wytaczanie neuronów w trakcie uczenia (dropout)
    b. uproszczenie/regularyzacje modelu
    c. stosowanie zbioru walidacyjnego i wczesne zatrzymanie uczenia
    d. zmniejszenie liczny przypadków treningowych
A
  1. Przetrenowaniu (ang. overfitting) sztucznej sieci neuronowej mozna zapobiegac poprzez:
    a. losowe wytaczanie neuronów w trakcie uczenia (dropout)
    b. uproszczenie/regularyzacje modelu
    c. stosowanie zbioru walidacyjnego i wczesne zatrzymanie uczenia
    d. zmniejszenie liczby przypadków treningowych
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q
  1. Rozwiazujac problem regresji za pomoca sztucznej sieci neuronowej nalezy zastosowaé nastepujaca funkcje aktywacji (A) w warstwie wyjsciowej oraz funkcje] kosztu/straty (B):
    b. A - liniowa, B - sredni blad kwadratowy MSE
A

A - liniowa, B - sredni blad kwadratowy MSE

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q
  1. Rozwiazujac problem klasyfikacji wielowarstwowej za pomoca sztucznej sieci neuronowej nalezy zastosowaé nastepujaca] funkcje aktywacji (A) w warstwie wyjsciowej] oraz funkcje kosztu/straty (B):
    a. A - softmax, B - dyskretna entropiel krzyzowal
A

A - softmax, B - dyskretna entropiel krzyzowal

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q
  1. Sieci z radialnymi funkcjami bazowymi (RBF) w stosunku do perceptronów wielowarstwowych (MLP):
    a. bazuja na lokalnych przypadkach i nie wymagaja douczania
    b. maja kilka rodzajów parametrów (wagi, centra, rozmycia)
    c. sa trudniejsze w inicjalizacji, uczeniu i interpretacji
    d. granica decyzyjna jest hipersfera, a nie hiperpłaszczyzna
A
  1. Sieci z radialnymi funkcjami bazowymi (RBF) w stosunku do perceptronów wielowarstwowych (MLP):
    a. bazuja na lokalnych przypadkach i nie wymagaja douczania
    b. maja kilka rodzajów parametrów (wagi, centra, rozmycia)
    c. sa trudniejsze w inicjalizacji, uczeniu i interpretacji
    d. granica decyzyjna jest hipersfera, a nie hiperpłaszczyzna
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q
  1. Samoorganizacja w sztucznych sieciach| neuronowych:
    a. moze byc oparta o mechanizm konkurencji (regułe Kohonena)
    b. moze byc oparta o regute Hebba
    c. nie wymaga nadmiarowosci danych i powtarzania podobnych wzorców
    d. stuzy wykrywaniu istotnych cech w sygnale oraz modelowaniu rozktadu danych
A
  1. Samoorganizacja w sztucznych sieciach| neuronowych:
    a. moze byc oparta o mechanizm konkurencji (regułe Kohonena)
    b. moze byc oparta o regute Hebba
    c. nie wymaga nadmiarowosci danych i powtarzania podobnych wzorców
    d. stuzy wykrywaniu istotnych cech w sygnale oraz modelowaniu rozktadu danych
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q
  1. W uczniu konkurencyjnym mozna zastosowac regułe:
    a. ‘zwyciezca bierze wszystko’ (WTA)
    b. ‘zwyciezca bierze wiekszosc’ (WTM)
A
  1. W uczniu konkurencyjnym mozna zastosowac regułe:
    a. ‘zwyciezca bierze wszystko’ (WTA)
    b. ‘zwyciezca bierze wiekszosc’ (WTM)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q
  1. Rodzajem sieci dynamicznej jest:
    a. siec Hopfielda
    b. siec Hamminga
    c. siec BAM
A
  1. Rodzajem sieci dynamicznej jest:
    a. siec Hopfielda
    b. siec Hamminga
    c. siec BAM
17
Q
  1. Glebokie sieci neuronowe w stosunku do sieci plytkich:
    a. posiadaja co najmniej 2 nieliniowosci w najkrótszej sciezce prowadzacej od wejscia do wyjscia
    b. wymagaja odpowiednio przygotowanych cech
    c. tworza model hierarchiczny, w którym warstwy odwzorowuja kolejne poziomy abstrakcji
    d. łatwiej sie przetrenowuja niz sieci ‘szerokie’
A
  1. Glebokie sieci neuronowe w stosunku do sieci plytkich:
    a. posiadaja co najmniej 2 nieliniowosci w najkrótszej sciezce prowadzacej od wejscia do wyjscia
    b. wymagaja odpowiednio przygotowanych cech
    c. tworza model hierarchiczny, w którym warstwy odwzorowuja kolejne poziomy abstrakcji
    d. łatwiej sie przetrenowuja niz sieci ‘szerokie’
18
Q
  1. Cecha sieci splotowych (konwolucyjnych) Jest:
    a. zdolnosc do generalizacji sygnatu posiadajacego relacje przestrzenne
    b. mata odpornosé na przestrzenne transformacje sygnatu (skalowanie, obrót przesuniecie
    c. rzadka reprezentacja i współdzielenie parametrów
    d. mozliwosé uzycia sygnału wejsciowego o zmiennym rozmiarze
A
  1. Cecha sieci splotowych (konwolucyjnych) Jest:
    a. zdolnosc do generalizacji sygnatu posiadajacego relacje przestrzenne
    b. mata odpornosé na przestrzenne transformacje sygnatu (skalowanie, obrót przesuniecie)
    c. rzadka reprezentacja i współdzielenie parametrów
    d. mozliwosé uzycia sygnału wejsciowego o zmiennym rozmiarze
19
Q
  1. Sieci rekurencyjne charakteryzuja sie:
    a. cyklami w grafie połaczen
    b. prosta, łatwa do analizy dynamika
    c. podobienstwem do sieci biologicznych
    d. zdolnoscia do modelowania sekwencji danych
A
  1. Sieci rekurencyjne charakteryzuja sie:
    a. cyklami w grafie połaczen
    b. prosta, łatwa do analizy dynamika
    c. podobienstwem do sieci biologicznych
    d. zdolnoscia do modelowania sekwencji danych
20
Q
  1. Wybierz prawdziwe stwierdzenia:
    a. zadaniem autoenkodera jest odtworzenie na wyjsciu sygnatu wejsciowego
    b. zarówno autoenkodery jak i sieci GAN pozwalaja na tworzenie nowych sygnatów
    c. sieci DBN (ang. Deep Belief Networks) | ucza sie gtebokiej, hierarchicznej] reprezentacji danych
    d. sieci GAN sktadaja sie z czesci| generujacej oraz czesci oceniajacej] (dyskryminujacej)
A
  1. Wybierz prawdziwe stwierdzenia:
    a. zadaniem autoenkodera jest odtworzenie na wyjsciu sygnatu wejsciowego
    b. zarówno autoenkodery jak i sieci GAN pozwalaja na tworzenie nowych sygnatów
    c. sieci DBN (ang. Deep Belief Networks) ucza sie gtebokiej, hierarchicznej reprezentacji danych
    d. sieci GAN składaja sie z czesci generujacej oraz czesci oceniajacej (dyskryminujacej)