Teil 8: Parallele Architekturen Flashcards

1
Q

Nachteil der VNA

A

Es kann immer nur ein Maschinenbefehl geholt und verarbeitet werden -> Sequentialität
-> Lösung: parallele Ausführung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Ziel der parallelen Architekur

A

Überwindung von Einschränkungen, die durch die sequentielle Verarbeitung nicht paralleler Architekturen vorgegeben sind

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wichtigste Einschränkung einer sequentiellen Architektur

A

Leistung eines Rechnersystems

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Skalierbarkeit bei Parallelschaltung von Rechnern

A

die Leistungssteigerung paralleler Rechnersysteme sollte möglichst proportional zur Anzahl der parallelen Einheiten sein

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Warum ist umdenken der Softwareentwickler nötig?

A

nicht nur die Hardware muss paralleles Rechnen ermöglichen, auch die Software und Algorithmen müssen grundsätzlich für paralleles Rechnen konzipiert werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Warum entwickelt man parallele Architekturen?

A
  • getrieben durch Notwendigkeit immer höherer Rechenleistungen
  • solch hohe Rechenleistungen sind meist nicht mit sequentiellen Architekturen erzielbar (siehe Supercomputer)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wesentliche Gruppen von Anwendungen von Parallelrechnern

A
  1. Nicht-numerische Anwendungen
    - > Suchmaschinen, verteilte DB
  2. Numerische Anwendungen (mathematische Probleme und Simulationen)
    - > Wettervorhersagen, Crash Tests
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Parallelität in Algorithmen

A
  • komplexe Probleme müssen in Teilaufgaben zerlegt werden die dann parallel bearbeitet werden können
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Voraussetzungen für Parallelität

A
  • Existenz ausnutzbarer Parallelität
  • Erkennung der Parallelität
  • Aufteilbarkeit in Teilaufgaben
  • (physisches) Vorhandensein paralleler Verarbeitungseinheiten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Problem mit der Parallelität in Algorithmen

A

es gibt auch Probleme, die nicht in Teilaufgaben zerlegt werden können und deshalb nicht skalieren mit der Anzahl paralleler Verarbeitungseinheiten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Klassifikation von Parallelrechnern nach Flynn

A
Unterscheidung nach Datenströmen und Kontrollpfaden
1.  SISD
2  SIMD
3. MISD
4. MIMD
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

single instruction, single data (SISD)

A

Von-Neumann-Rechner

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

single instruction, multiple data (SIMD)

A

Diese Rechner besitzen:

  • ein Instruktionswerk
  • mehrere unabhängige Rechenwerke von denen jedes mit eigenen Speicher verbunden ist.

Rechenwerke werden taktsynchron vom Instruktionswerk angesteuert und führen dieselbe Operation auf unterschiedlichen Daten aus.
Auch Feldrechner genannt (Großrechner, Supercomputer)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

multiple instruction, single data (MISD)

A

Diese Rechner besitzen:
- Multiprozessorsystem, bei dem alle Prozessoren gleichzeitig verschiedene Befehle auf den Daten eines einzigen Datenstroms ausführen.
MIMD und SIMD meist besser für die PV (Großrechner, Supercomputer)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

multiple instruction, multiple data (MIMD)

A

entspricht Kollektion eigenständiger Rechner, mit jeweils:
- Instruktionswerk-
- Rechenwerk
(Großrechner, Supercomputer)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Typen von gemeinsamen Speicher

A
  • Uniform Memory Access (UMA)

- Non-Uniform Memory Access (NUMA)

17
Q

Uniform Memory Access (UMA)

A

Alle Prozessoren benötigen dieselbe Zugriffszeit auf den gemeinsamen Speicher

18
Q

Non-Uniform Memory Access (NUMA)

A

Die Speichermodule sind lokal und jeweils einem Prozessor zugeordnet. Ein Prozessor kann allerdings dennoch auf den Speicher anderer Prozessoren zugreifen (Fernzugriff), allerdings ist dann die Zugriffszeit höher.

Logisch stellt die Gesamtheit der Speichermodule eine Einheit dar, nicht aber technisch. Diese Einheit wird als virtueller gemeinsamer Speicher bezeichnet.