vault backup: 2025-07-07 19:57:44
This commit is contained in:
186
Semester 6/COMARCH/Zusammenfassung/Vorlesung 2.md
Normal file
186
Semester 6/COMARCH/Zusammenfassung/Vorlesung 2.md
Normal file
@@ -0,0 +1,186 @@
|
||||
## 📘 **Zusammenfassung: V2 Architekturen – Computerarchitektur**
|
||||
|
||||
### 🔄 Wiederholung Computergenerationen
|
||||
|
||||
- **0. Generation (bis 1945):** Mechanische Rechenmaschinen (Pascal, Leibniz, Babbage, Zuse)
|
||||
|
||||
- **1. Generation (1945–1955):** Relais & Vakuumröhren – ENIAC, COLOSSUS, MANIAC
|
||||
|
||||
- **2. Generation (1955–1965):** Transistoren – Minicomputer (PDP), Supercomputer (CDC 6600)
|
||||
|
||||
- **3. Generation (1965–1980):** Integrierte Schaltungen – IBM System/360, PDP-11
|
||||
|
||||
- **4. Generation (ab 1980):** VLSI – PCs, x86-Architektur
|
||||
|
||||
- **5. Generation (heute):** Smartphones, Cloud, Embedded Systems
|
||||
|
||||
|
||||
---
|
||||
|
||||
### 🚀 Moore’s Law (Moor’sches Gesetz)
|
||||
|
||||
- **Kerngedanke:** Verdopplung der Anzahl Transistoren pro IC alle 12–24 Monate.
|
||||
|
||||
- Auswirkungen:
|
||||
|
||||
- Kleinere Strukturen → geringere Kosten
|
||||
|
||||
- Mehr Komponenten → höhere Leistung
|
||||
|
||||
- Geringerer Stromverbrauch
|
||||
|
||||
- Aber: Miniaturisierung wird zunehmend teurer und schwieriger.
|
||||
|
||||
|
||||
---
|
||||
|
||||
### 📊 Leistungsmessung von Computern
|
||||
|
||||
- **System-Benchmarks:** Cinebench, 3DMark, HPC Challenge
|
||||
|
||||
- **Kennzahlen:**
|
||||
|
||||
- Instruktionen/Sekunde (IPS), FLOPS
|
||||
|
||||
- Taktzyklen pro Instruktion (CPI), Instruktionen pro Takt (IPC)
|
||||
|
||||
- Speicherzugriffszeit, Durchsatz
|
||||
|
||||
- Netzwerk- & Grafikleistung (FPS, TPS)
|
||||
|
||||
- Kritik an MIPS: „Misleading Information to Promote Sales“ – nicht immer aussagekräftig.
|
||||
|
||||
|
||||
---
|
||||
|
||||
### 🤖 Computer als endlicher Automat (Finite State Machine)
|
||||
|
||||
- **Zustände:** durch Bitmuster repräsentiert
|
||||
|
||||
- **Operation:** Boolesche Funktion auf Teilzuständen
|
||||
|
||||
- Vergleichbare Modelle:
|
||||
|
||||
- Schaltnetz (ohne Schleifen)
|
||||
|
||||
- Endlicher Automat (deterministisch/nichtdeterministisch)
|
||||
|
||||
- Kellerautomat (mit Stack)
|
||||
|
||||
- Turingmaschine (unendliches Band)
|
||||
|
||||
|
||||
---
|
||||
|
||||
### 🚌 Speicheranbindung & Endianness
|
||||
|
||||
- Speicheradressierung:
|
||||
|
||||
- **big-endian:** höchstwertiges Byte an kleinster Adresse
|
||||
|
||||
- **little-endian:** niedrigstwertiges Byte zuerst
|
||||
|
||||
- Bus-System:
|
||||
|
||||
- Bus-Takt meist langsamer als CPU-Takt
|
||||
|
||||
- Cache als schneller Zwischenspeicher
|
||||
|
||||
|
||||
---
|
||||
|
||||
### ⚙️ Aufbau von Computersystemen
|
||||
|
||||
#### Rechenwerk (ALU)
|
||||
|
||||
- Operationen: +, −, *, /, logische Operationen
|
||||
|
||||
- Moderne CPUs: mehrere Register → direkte Register-Register-Operationen
|
||||
|
||||
- Ältere CPUs: Akkumulator-Register für ALU-Operationen
|
||||
|
||||
|
||||
#### Steuerwerk
|
||||
|
||||
- Verantwortlich für:
|
||||
|
||||
- Ausführung der Befehle
|
||||
|
||||
- Datenflusskontrolle
|
||||
|
||||
- Ausnahmebehandlung & Interrupts
|
||||
|
||||
|
||||
---
|
||||
|
||||
### 🧵 Befehlssatzarchitekturen (ISA)
|
||||
|
||||
#### 1️⃣ Stack-Architektur
|
||||
|
||||
- Operanden und Ergebnisse liegen auf Stack.
|
||||
|
||||
- Vorteile: kompakter Code, minimaler Prozessorzustand
|
||||
|
||||
- Nachteil: viele Speicherzugriffe
|
||||
|
||||
- Heute: nur noch in virtuellen Maschinen (JVM, p-Machine)
|
||||
|
||||
|
||||
#### 2️⃣ Akkumulator-Architektur
|
||||
|
||||
- Ein Register (Akkumulator) für Operanden & Ergebnis
|
||||
|
||||
- Speicherzugriff für zweiten Operand nötig
|
||||
|
||||
- Kompakt, aber teuer durch Speicherzugriffe
|
||||
|
||||
|
||||
#### 3️⃣ Register-Memory-Architektur
|
||||
|
||||
- Mehrere Register, 2. Operand aus Speicher
|
||||
|
||||
- Zwei-Adress-Befehle
|
||||
|
||||
- Vorteil: direkt mit Speicher arbeiten
|
||||
|
||||
- Nachteil: Speicherzugriffe kosten Zeit
|
||||
|
||||
|
||||
#### 4️⃣ Register-Register (Load/Store)-Architektur
|
||||
|
||||
- Arithmetik nur auf Registern
|
||||
|
||||
- Speicherzugriff explizit mit Load/Store
|
||||
|
||||
- Drei-Adress-Befehle
|
||||
|
||||
- Vorteil: keine unnötigen Speicherzugriffe
|
||||
|
||||
- Nachteil: mehr Befehle nötig → größerer Code
|
||||
|
||||
- Typisch für **RISC-Architekturen**
|
||||
|
||||
|
||||
---
|
||||
|
||||
### 🔥 RISC vs CISC
|
||||
|
||||
|**Merkmal**|**RISC**|**CISC**|
|
||||
|---|---|---|
|
||||
|**Befehlssatz**|Einfach, einheitlich, kurze Befehle|Komplex, unterschiedliche Länge|
|
||||
|**Hardware**|Einfach, energieeffizient|Komplex oder Mikroprogramme|
|
||||
|**Codegröße**|Größer|Kompakter|
|
||||
|**Beispiele**|ARM, MIPS, SPARC, PowerPC|x86 (Intel, AMD), Zilog Z80|
|
||||
|**Vorteile**|Schneller bei genügend Registern|Speichereffizient|
|
||||
|**Nachteile**|Mehr Programmspeicher nötig|Langsame komplexe Befehle|
|
||||
|
||||
---
|
||||
|
||||
### 📝 Für die Klausur merken
|
||||
|
||||
✅ Unterschiede der Architekturen (Stack, Akkumulator, Register-Memory, Load/Store)
|
||||
✅ RISC vs. CISC: Vor- und Nachteile + Beispiele
|
||||
✅ Endianness und Bedeutung bei Datentransfer
|
||||
✅ Moore’s Law und dessen Grenzen
|
||||
✅ Flaschenhals Speicherzugriff: Register > Cache > RAM > SSD > HDD
|
||||
|
||||
Reference in New Issue
Block a user