Kolos Flashcards

1
Q

Moc obliczeniowa komputerów wektorowych: zależy od liczby stopni potoku

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Moc obliczeniowa komputerów wektorowych: jest odwrotnie proporcjonalna do długości taktu zegarowego

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Moc obliczeniowa komputerów wektorowych: jest wprost proporcjonalna do długości taktu zegarowego

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Moc obliczeniowa komputerów wektorowych: zależy wprost proporcjonalnie od liczby rozkazów wykonywanych łańcuchowo

A

T/N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Moc obliczeniowa komputerów wektorowych: zależy odwrotnie proporcjonalnie od liczby jednostek potokowych połączonych łańcuchowo

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Moc obliczeniowa komputerów wektorowych: zmierza asymptotycznie do wartości maksymalnej wraz ze wzrostem długości wektora

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Moc obliczeniowa komputerów wektorowych: nie zależy od długości wektora

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Moc obliczeniowa komputerów wektorowych: zależy liniowo od długości wektora

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: systemy ściśle połączone, systemy ze wspólną pamięcią, systemy SMP

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: systemy ze wspólna magistralą, systemy wielomagistralowe, systemy z przełącznicą krzyżową

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: systemy SMP, systemy z pamięcią wieloportową, systemy z przełącznicą krzyżową

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: NUMA, MPP, SMP

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: systemy z pamięcią wspólną ,o niejednorodnym dostępie do pamięci, z pamięcią rozproszoną

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: NUMA, klastry, UMA

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wskaż, które z poniższych list są rosnąco uporządkowane według skalowalności: systemy symetryczne, systemy o niejednorodnym dostępie do pamięci, systemy z przesyłem komunikatów

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Komputery macierzowe: maja w liście rozkazów m.in. rozkazy operujące na wektorach danych

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Komputery macierzowe: maja macierzowe potokowe układy arytmetyczne

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Komputery macierzowe: maja w typowych rozwiązaniach zestaw pełnych procesów połączonych siecią połączeń

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Komputery macierzowe:wykonują synchroniczną operację wektorową w sieci elementów przetwarzających

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Przetwarzanie potokowe: nie jest realizowane dla operacji zmiennoprzecinkowych

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Przetwarzanie potokowe: nie jest realizowane w procesorach CISC

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Przetwarzanie potokowe: daje przyspieszenie nie większe od liczby segmentów (stopni) jednostki potokowej

A

T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Przetwarzanie potokowe: w przypadku wystąpienia zależności między danymi wywołuje błąd i przerwanie wewnętrzne

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Przetwarzanie potokowe: jest realizowane tylko dla operacji zmiennoprzecinkowych

A

N

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
W procesorach superskalarnych: liczba rozkazów, które procesor może wykonać w 1 takcie zależy od liczby jednostek potokowych w procesorze
T
26
W procesorach superskalarnych: liczba rozkazów, które procesor może wykonać w jednym takcie, zależy od liczby stopni potoku
N
27
W procesorach superskalarnych: liczba rozkazów pobieranych z pamięci, w każdym takcie musi przekraczać liczbę jednostek potokowych
N
28
W procesorach superskalarnych: liczba rozkazów, które procesor może wykonać w taktach zależy od liczby jednostek potokowych w procesorze
T
29
Systemy SMP: wykorzystują protokół MESI do sterowania dostępem do wspólnej magistrali
N
30
Systemy SMP: posiadają skalowalne procesory
N
31
Systemy SMP: posiadają pamięć fizycznie rozproszoną, ale logicznie wspólną
N
32
Komputery wektorowe: posiadają jednostki potokowe o budowie wektorowej
T
33
Komputery wektorowe: posiadają w liście rozkazów m.in. rozkazy operujące na wektorach danych
T
34
Komputery wektorowe: wykorzystują od kilku do kilkunastu potokowych jednostek arytmetycznych
T
35
Komputery wektorowe: posiadają listę rozkazów operujących wyłącznie na wektorach
N
36
Procesory wektorowe: Mogą być stosowane w systemach wieloprocesorowych
T
37
Procesory wektorowe: mają listę rozkazów operującą jedynie na wektorach
N
38
Procesory wektorowe: mają moc kilka razy większą od procesorów skalarnych
T
39
Systemy MPP są zbudowane z węzłów którymi mogą być: systemy SMP
T
40
Systemy MPP są zbudowane z węzłów którymi mogą być: konstelacje
?
41
Systemy MPP są zbudowane z węzłów którymi mogą być: klastry
N
42
Systemy MPP są zbudowane z węzłów którymi mogą być: systemy NUMA
T
43
Systemy MPP są zbudowane z węzłów którymi mogą być: procesory
T
44
W architekturze NUMA: dane są wymieniane między węzłami w postaci linii pamięci podręcznej (PaP)
T
45
W architekturze NUMA: spójność PaP węzłów jest utrzymywana za pomocą protokołu MESI
N
46
W architekturze NUMA: czas dostępu do pamięci lokalnej w węźle jest podobny do czasu dostępu do pamięci nielokalnej
N
47
W architekturze NUMA: czas zapisu danych do pamięci nielokalnej może być znacznie dłuższy od czasu odczytu z tej pamięci
T
48
W architekturze NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
T
49
W architekturze NUMA: Procesy komunikują się poprzez przesył komunikatów
N
50
W architekturze NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
T
51
Mechanizmy potokowe stosowane są w celu: uszeregowania ciągu wykonywanych rozkazów
N
52
Mechanizmy potokowe stosowane są w celu: uzyskania równoległej realizacji rozkazów
T
53
Mechanizmy potokowe stosowane są w celu: przyspieszenia realizacji rozkazów
T
54
Protokół MESI: jest wykorzystywany do sterowania dostępem do magistrali w systemie SMP
N
55
Protokół MESI: zapewnia spójność pamięci cache w systemie SMP
T
56
Protokół MESI: służy do wymiany komunikatów w systemie MPP
N
57
Protokół MESI: chroni przed hazardem w proc superskalarnych
N
58
Mechanizm skoków opóźnionych: polega na opóźnianiu wykonywania skoku do czasu wykonania rozkazu następnego za skokiem
T
59
Mechanizm skoków opóźnionych: wymaga wstrzymania potoku na jeden takt
N
60
Mechanizm skoków opóźnionych: powoduje błąd na końcu pętli
N
61
Mechanizm skoków opóźnionych: wymaga umieszczenia rozkazu NOP za rozkazem skoku lub reorganizacje programu
T
62
Charakterystyczne cechy architektury MPP: spójność pamięci podręcznej wszystkich węzłów
N
63
Charakterystyczne cechy architektury MPP: fizycznie rozproszona PaO
T
64
Charakterystyczne cechy architektury MPP: fizycznie rozproszona PaO, ale logicznie wspólna
N
65
Charakterystyczne cechy architektury MPP: przesył komunikatów między procesorami
T
66
Charakterystyczne cechy architektury MPP: niska skalowalność
N
67
Charakterystyczne cechy architektury MPP: jednorodny dostęp do pamięci wszystkich węzłów
N
68
Jak można ominąć hazard danych: poprzez rozgałęzienia
N
69
Jak można ominąć hazard danych: poprzez uproszczenie adresowania - adresowanie bezpośrednie
N
70
Jak można ominąć hazard danych: przez zamianę rozkazów
T
71
Cechy architektury CISC: czy może być wykonana w VLIW
N
72
Cechy architektury CISC: czy występuje model wymiany danych typu pamięć - pamięć
T
73
Cechy architektury CISC: jest mała liczba rozkazów
N
74
Cechy architektury RISC: czy występuje model wymiany danych typu rej-rej
T
75
Cechy architektury RISC: jest mała liczba trybów adresowania
T
76
Cechy architektury RISC: jest wykonywanych kilka rozkazów w jednym takcie
T
77
Cechy architektury RISC: jest wykonywanych kilka rozkazów w jednym takcie (w danej chwili czasu)
T
78
Cechy architektury RISC: jest wykonywanych kilka instrukcji procesora w jednym rozkazie asemblerowym
N
79
Cechy architektury RISC: układ sterowania w postaci logiki szytej
T
80
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: GFLOPS
T
81
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie instrukcji wykonywanych na sekundę
N
82
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie operacji zmiennoprzecinkowych na sekundę
T
83
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Mb/sek
N
84
Podstawą klasyfikacji Flynna jest: Liczba jednostek przetwarzających i sterujących w systemach komputerowych
N
85
Podstawą klasyfikacji Flynna jest: Protokół dostępu do pamięci operacyjnej
N
86
Podstawą klasyfikacji Flynna jest: Liczba strumieni rozkazów i danych w systemach komputerowych
T
87
Podstawą klasyfikacji Flynna jest: Liczba modułów pamięci operacyjnej w systemach komputerowych
N
88
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Macierzy elementów przetwarzających
T
89
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Zestawu procesorów superskalarnych
N
90
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Technologii MMX
T
91
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Sieci połączeń typu krata
N
92
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Potokowych jednostek arytmetycznych
T
93
Architektura superskalarna: Dotyczy systemów SMP
T
94
Architektura superskalarna: Wymaga zastosowania protokołu MESI
N
95
Architektura superskalarna: Umożliwia równoległe wykonywanie kilku rozkazów w jednym procesorze
T
96
Architektura superskalarna: Wywodzi się z architektury VLIW
N
97
Klastry: Mają średnią skalowalność
N
98
Klastry: Wykorzystują model wspólnej pamięc
N
99
Klastry: W węzłach mogą wykorzystywać systemy SMP
T
100
Klastry: Do komunikacji między procesami wykorzystują przesył komunikatów
N
101
Klastry: Wykorzystują przełącznicę krzyżową jako sieć łączącą węzły
N
102
Klastry: W każdym węźle posiadają pełną instalację systemu operacyjnego
T
103
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MIMD
N
104
Pojęcie równoległości na poziomie rozkazów: Odnosi się m.in. do przetwarzania potokowego
T
105
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MPP
N
106
Pojęcie równoległości na poziomie rozkazów: Dotyczy m.in. architektury superskalarnej
T
107
Systemy wieloprocesorowe z pamięcią wspólną: Zapewniają jednorodny dostęp do pamięci
N
108
Systemy wieloprocesorowe z pamięcią wspólną: Mogą wykorzystywać procesory CISC
T
109
Systemy wieloprocesorowe z pamięcią wspólną: Są wykorzystywane w klastrach
T
110
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują przesył komunikatów między procesorami
N
111
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują katalog do utrzymania spójności pamięci podręcznych
N
112
Hazard danych: czasami może być usunięty przez zmianę kolejności wykonania rozkazów;
T
113
Hazard danych: nie występuje w architekturze superskalarnej;
N
114
Hazard danych: jest eliminowany przez zastosowanie specjalnego bitu w kodzie programu;
N
115
Hazard danych: może wymagać wyczyszczenia potoku i rozpoczęcia nowej (…).
N
116
Przetwarzanie wielowątkowe: zapewnia lepsze wykorzystanie potoków;
T
117
Przetwarzanie wielowątkowe: minimalizuje straty wynikające z chybionych odwołań do pamięci podręcznej;
T
118
Przetwarzanie wielowątkowe: wymaga zwielokrotnienia zasobów procesora (rejestry, licznik rozkazów…);
N
119
Przetwarzanie wielowątkowe: nie może być stosowane w przypadku hazardu danych.
N
120
Okna rejestrów: chronią przez hazardem danych;
N
121
Okna rejestrów: minimalizują liczbę odwołań do pamięci operacyjnej przy operacjach (…)
T
122
Okna rejestrów: są charakterystyczne dla architektury CISC;
N
123
Okna rejestrów: są zamykane po błędnym przewidywaniu wykonania skoków warunkowych;
N
124
Okna rejestrów: są przesuwane przy operacjach wywołania procedur.
T
125
Tablica historii rozgałęzień: zawiera m.in. adresy rozkazów (?) rozgałęzień;
T
126
Tablica historii rozgałęzień: pozwala zminimalizować liczbę błędnych przewidywań rozgałęzień w zagnieżdżonej… (pętli?);
T
127
Tablica historii rozgałęzień: nie może być stosowana w procesorach CISC;
N
128
Tablica historii rozgałęzień: jest obsługiwana przez jądro systemu operacyjnego.
N
129
Rozkazy wektorowe: nie mogą być wykonywane bez użycia potokowych jednostek arytmetycznych;
N
130
Rozkazy wektorowe: w komputerach wektorowych ich czas wykonania jest wprost proporcjonalny do długości wektora;
N
131
Rozkazy wektorowe: są charakterystyczne dla architektury SIMD;
T
132
Rozkazy wektorowe: są rozkazami dwuargumentowymi i w wyniku zawsze dają wektor
N