Deep Learning Flashcards

1
Q

Czym jest neck?

A

Neck, czyli “szyja”, to element architektury sieci neuronowej, który łączy główny model z głową. W złożonych modelach wykorzystywanych do analizy obrazów, neck często pełni rolę przekształcania cech ekstrahowanych przez “backbone” w formę bardziej odpowiednią dla finalnych predykcji.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Czym jest backbone?

A

Backbone, czyli “rdzeń”, to główna część sieci neuronowej odpowiedzialna za wykrywanie i ekstrakcję cech z obrazu. To zazwyczaj konwolucyjna struktura, często oparta na sieciach takich jak VGG, ResNet czy Inception, wykorzystywana do zapewnienia modelowi początkowych informacji o obrazie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Czym jest head?

A

Head, czyli “głowa”, to ostatnia część sieci neuronowej, która przetwarza wyekstrahowane cechy w ostateczne wyniki. To w głowie znajdują się warstwy wyjściowe, które generują predykcje na podstawie cech przekształconych przez neck i backbone.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Czym jest CNN?

A

CNN (Convolutional Neural Network) to rodzaj sieci neuronowej specjalizujący się w przetwarzaniu obrazów poprzez wykorzystanie warstw konwolucyjnych. Te warstwy potrafią wyodrębniać hierarchiczne cechy z obrazu, umożliwiając modelom uczenie się istotnych wzorców.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Co to underfitting? Jak zaradzić mu?

A

Underfitting to sytuacja, w której model jest zbyt prosty i nie jest w stanie dobrze uchwycić złożoności danych treningowych ani generalizować na nowe dane. Można temu zaradzić poprzez zwiększenie złożoności modelu, dostarczenie bardziej zróżnicowanych danych treningowych lub poprawę procesu uczenia, na przykład poprzez dostosowanie hiperparametrów.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Co to overfitting? Jak zaradzić mu?

A

Overfitting to sytuacja, w której model jest zbyt dokładnie dopasowany do danych treningowych i nie generalizuje dobrze na nowe dane. Można mu zaradzić poprzez zastosowanie technik regularyzacji, takich jak dropout czy L2-norm, a także dostarczenie większej ilości różnorodnych danych treningowych.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Czym jest problem martwego neurona i gdzie występuje?

A

Problem martwego neurona występuje w przypadku funkcji aktywacji ReLU, gdzie dla ujemnych wejść gradient funkcji wynosi 0, co może prowadzić do zatrzymania uczenia dla tych neuronów. To zjawisko może wpływać na wydajność sieci, ale można mu zaradzić poprzez stosowanie wariantów ReLU, takich jak Leaky ReLU.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wymień różnice pomiędzy R-CNN, Fast R-CNN, Faster R-CNN, SSD, YOLO

A

R-CNN: Wykrywanie w dwóch krokach, kosztowne obliczeniowo.
Fast R-CNN: Efektywniejsze wykrywanie, wspólne cechy dla regionów.
Faster R-CNN: Integracja wykrywania z siecią region proposal network (RPN), bardziej efektywne.
SSD: Wykrywanie w wielu skalach poprzez różne warstwy.
YOLO: Wykrywanie w czasie rzeczywistym, podział obrazu na siatkę.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wymień funkcje straty

A

MSE (Mean Squared Error), Cross-Entropy, KL-Divergence, Hinge Loss.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wymień funkcje aktywacji

A

ReLU, Sigmoid, Tanh, Leaky ReLU.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Jaki problem ma standardowa implementacja funckji aktywacji ReLU?

A

Dla ujemnych wejść gradient wynosi 0, co może prowadzić do martwych neuronów.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Czym jest softmax?

A

Softmax to funkcja normalizująca wyniki sieci na postaci rozkładu prawdopodobieństwa, używana głównie w zastosowaniach klasyfikacyjnych.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Jakiej funkcji straty użyjemy w przypadku multiclass classification?

A

Cross-Entropy Loss

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Czym jest IoU?

A

IoU (Intersection over Union) to wskaźnik, który mierzy pokrycie między dwoma obszarami, często używany do oceny dokładności w zadaniach detekcji.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Czym są augmentacje i jakie znasz augmentacje?

A

Augmentacje to techniki zmiany danych treningowych w celu zwiększenia różnorodności. Przykłady to: obrót, odbicie lustrzane, zmiana jasności, przycinanie, zmiana kontrastu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Jak radzić sobie z nierównymi zbiorami danych pomiędzy klasami?

A

Możemy zastosować techniki takie jak oversampling, undersampling, generowanie sztucznych przykładów (augmentacje) dla mniej licznych klas, lub użyć ważonych funkcji straty.

17
Q

Jakie znasz hiperparametry modelu?

A

Przykłady to learning rate, liczba warstw, liczba neuronów, batch size, współczynnik regularyzacji, funkcje aktywacji.

18
Q

Kiedy wybierzemy precision, a kiedy recall?

A

Precision jest wybierane, gdy zależy nam na minimalizacji fałszywych pozytywów. Recall jest wybierane, gdy zależy nam na minimalizacji fałszywych negatywów.

19
Q

Czym jest F1 score?

A

F1 score to miara równowagi pomiędzy precision a recall, dobrze reprezentująca jakość klasyfikacji.

20
Q

Dlaczego nie powinniśmy używać tylko warstwy Dense do rozpoznawania obiektów z obrazów

A

Warstwy Dense nie zachowują struktury przestrzennej obrazu. Warstwy konwolucyjne są bardziej odpowiednie, ponieważ ekstrahują lokalne wzorce.

21
Q

Co charakteryzuje modele ResNet?

A

Modele ResNet wykorzystują skip connections, pozwalając na efektywniejsze uczenie głębokich sieci i przeciwdziałanie zanikającym gradientom.

22
Q

Co oznacza końcowa liczba w architekturach ResNet (ResNet-50, ResNet-101 itd.)

A

To liczba warstw w modelu, 50 oznacza 50 warstw, 101 oznacza 101 warstw, a tak dalej.

23
Q

Jak różni się ResNet od YOLO i kiedy wybierzemy jedno ponad drugie?

A

ResNet to model głębokiej klasyfikacji lub segmentacji. YOLO to model wykrywania obiektów w czasie rzeczywistym. Wybieramy w zależności od głównego zadania: klasyfikacja/segmentacja vs. wykrywanie.

24
Q

Czym jest normalizacja danych?

A

Normalizacja to przekształcenie danych w taki sposób, żeby miały określony zakres, np. [0, 1] lub [-1, 1]. Jest przydatna, gdy chcesz zachować relatywne proporcje między wartościami. Jeśli zakres danych nie ma znaczenia, ale ważne są relacje między wartościami, normalizacja może być bardziej odpowiednia niż standaryzacja.

25
Q

Czym jest standaryzacja danych?

A

Standaryzacja polega na przekształceniu danych w taki sposób, żeby miały średnią równą 0 i odchylenie standardowe równa 1. Jest to szczególnie przydatne, gdy algorytmy uczenia maszynowego lub statystyczne są wrażliwe na różnice w skali między zmiennymi. Przykładowo, algorytmy oparte na odległościach (np. k-means, SVM) oraz algorytmy gradientowe (np. regresja liniowa, sieci neuronowe) mogą skorzystać z danych standaryzowanych, aby uniknąć dominacji jednej zmiennej nad innymi ze względu na jej większy zakres.

26
Q

Czym jest TFLOPS i jak się ma w odniesieniu do modeli deep learningowych?

A

TFLOPS (Tera Floating Point Operations Per Second) to miara wydajności obliczeń zmiennoprzecinkowych na sekundę. W odniesieniu do modeli deep learningowych, oznacza, ile operacji zmiennoprzecinkowych może wykonać model w ciągu sekundy.

27
Q

Czym różni się instance segmentation od semantic segmentation?

A

Instance segmentation identyfikuje każdy obiekt na obrazie osobno, przypisując unikalne etykiety. Semantic segmentation przypisuje ogólną kategorię (np. “pies”, “samochód”) do każdego piksela bez rozróżniania konkretnych instancji.

28
Q

Co charakterystycznego w swojej architekturze zawierają modele instance segmentation?

A
29
Q

Co charakterystycznego w swojej architekturze zawierają modele Faster RCNN?

A

Modele Faster RCNN zawierają dwa etapy: Region Proposal Network (RPN) i klasyfikator. RPN wykrywa regiony, które mogą zawierać obiekty, a klasyfikator klasyfikuje te regiony jako obiekty lub tło.

30
Q

Czym jest RPN?

A

RPN to sieć neuronowa, która wykrywa regiony, które mogą zawierać obiekty.

31
Q

Opisz krótko jak działa konwolucja

A

Konwolucja to operacja matematyczna, która przetwarza sygnał wejściowy przez maskę. Maska określa, które wartości sygnału wejściowego zostaną zachowane, a które zostaną odrzucone.

32
Q

Czym jest stride i padding w warstwach konwolucyjnych?

A

Stride to liczba pikseli, o jaką maska jest przesuwana w każdym kroku. Padding to liczba pikseli, o jaką maska jest rozszerzana na każdym brzegu.

33
Q

Czym jest rozmiar jądra konwolucji? (kernel size)

A

Rozmiar jądra konwolucji to liczba pikseli, które są jednocześnie przetwarzane przez warstwę konwolucyjną. Rozmiar jądra ma wpływ na poziom abstrakcji reprezentowanej przez warstwę konwolucyjną. Małe jądra reprezentują niski poziom abstrakcji, podczas gdy duże jądra reprezentują wysoki poziom abstrakcji.

34
Q

Jaki problem ma sigmoid?

A

Główny problem sigmoidu to zjawisko zanikającego gradientu. Wartości sigmoidalne są ograniczone do zakresu (0, 1), co oznacza, że pochodna funkcji w tych wartościach jest mała. W praktyce, podczas propagacji wstecznej błąd może maleć eksponencjalnie w miarę oddalania się od wartości 0 i 1, co prowadzi do bardzo małych gradientów i utrudnia efektywną aktualizację wag w procesie uczenia. To z kolei może prowadzić do bardzo wolnego lub utrudnionego uczenia się modelu.

35
Q

Po co stosujemy i jak działa dropout?

A

Dropout to technika regularyzacji stosowana w sieciach neuronowych w celu poprawy ogólnej zdolności uogólniania modelu oraz zapobieżenia przeuczeniu (overfitting). Głównym celem dropout jest zmniejszenie zależności pomiędzy neuronami w sieci poprzez losowe ignorowanie niektórych z nich podczas każdej iteracji uczenia. To pomaga wzmocnić zdolność modelu do ogólnego uogólniania poprzez uniemożliwienie przekształcenia się poszczególnych neuronów w sieć zbyt wyspecjalizowaną dla konkretnego zestawu danych treningowych.

36
Q

Po co stosujemy i jak działa batch normalization?

A

Batch Normalization (normalizacja wsadowa) to technika stosowana w sieciach neuronowych w celu poprawy procesu uczenia oraz przyspieszenia zbieżności modelu. Głównym celem batch normalization jest normalizacja wartości aktywacji wewnątrz sieci neuronowej poprzez standaryzację tych wartości w każdej miniwsadzie (batch) danych treningowych.

37
Q

Co to sieć neuronowa?

A

Sieć neuronowa, znana również jako sztuczna sieć neuronowa, to model matematyczny inspirowany działaniem ludzkiego mózgu, który służy do rozwiązywania problemów poprzez analizę danych. Składa się z połączonych ze sobą neuronów, które przetwarzają informacje i uczą się rozpoznawać wzorce w danych. Sieci neuronowe są podstawowym elementem uczenia maszynowego i głębokiego uczenia.

38
Q

Jakie elementy zawiera sieć neuronowa?

A

Neurony, wagi, funkcje aktywacji, warstwy, funkcje straty, algorytm optymalizacji

39
Q

Co jest wykonywane najpierw? Backpropagation czy Gradient Descent?

A

Gradient Descent jest wykonywany jako pierwszy krok, aby obliczyć kierunek aktualizacji wag na podstawie gradientów funkcji straty. Następnie Backpropagation jest używany do obliczenia tych gradientów, a konkretnie do przekazywania gradientów wstecz przez sieć w celu aktualizacji wag. Oba te kroki są kluczowe dla procesu uczenia sieci neuronowej.