4.1 KiB
4.1 KiB
📘 Zusammenfassung: V2 Architekturen – Computerarchitektur
🔄 Wiederholung Computergenerationen
- 0. Generation (bis 1945): Mechanische Rechenmaschinen (Pascal, Leibniz, Babbage, Zuse)
- 1. Generation (1945–1955): Relais & Vakuumröhren – ENIAC, COLOSSUS, MANIAC
- 2. Generation (1955–1965): Transistoren – Minicomputer (PDP), Supercomputer (CDC 6600)
- 3. Generation (1965–1980): Integrierte Schaltungen – IBM System/360, PDP-11
- 4. Generation (ab 1980): VLSI – PCs, x86-Architektur
- 5. Generation (heute): Smartphones, Cloud, Embedded Systems
🚀 Moore’s Law (Moor’sches Gesetz)
- Kerngedanke: Verdopplung der Anzahl Transistoren pro IC alle 12–24 Monate.
- Auswirkungen:
- Kleinere Strukturen → geringere Kosten
- Mehr Komponenten → höhere Leistung
- Geringerer Stromverbrauch
- Aber: Miniaturisierung wird zunehmend teurer und schwieriger.
📊 Leistungsmessung von Computern
- System-Benchmarks: Cinebench, 3DMark, HPC Challenge
- Kennzahlen:
- Instruktionen/Sekunde (IPS), FLOPS
- Taktzyklen pro Instruktion (CPI), Instruktionen pro Takt (IPC)
- Speicherzugriffszeit, Durchsatz
- Netzwerk- & Grafikleistung (FPS, TPS)
- Kritik an MIPS: „Misleading Information to Promote Sales“ – nicht immer aussagekräftig.
🤖 Computer als endlicher Automat (Finite State Machine)
- Zustände: durch Bitmuster repräsentiert
- Operation: Boolesche Funktion auf Teilzuständen
- Vergleichbare Modelle:
- Schaltnetz (ohne Schleifen)
- Endlicher Automat (deterministisch/nichtdeterministisch)
- Kellerautomat (mit Stack)
- Turingmaschine (unendliches Band)
🚌 Speicheranbindung & Endianness
- Speicheradressierung:
- big-endian: höchstwertiges Byte an kleinster Adresse
- little-endian: niedrigstwertiges Byte zuerst
- Bus-System:
- Bus-Takt meist langsamer als CPU-Takt
- Cache als schneller Zwischenspeicher
⚙️ Aufbau von Computersystemen
Rechenwerk (ALU)
- Operationen: +, −, *, /, logische Operationen
- Moderne CPUs: mehrere Register → direkte Register-Register-Operationen
- Ältere CPUs: Akkumulator-Register für ALU-Operationen
Steuerwerk
- Verantwortlich für:
- Ausführung der Befehle
- Datenflusskontrolle
- Ausnahmebehandlung & Interrupts
🧵 Befehlssatzarchitekturen (ISA)
1️⃣ Stack-Architektur
- Operanden und Ergebnisse liegen auf Stack.
- Vorteile: kompakter Code, minimaler Prozessorzustand
- Nachteil: viele Speicherzugriffe
- Heute: nur noch in virtuellen Maschinen (JVM, p-Machine)
2️⃣ Akkumulator-Architektur
- Ein Register (Akkumulator) für Operanden & Ergebnis
- Speicherzugriff für zweiten Operand nötig
- Kompakt, aber teuer durch Speicherzugriffe
3️⃣ Register-Memory-Architektur
- Mehrere Register, 2. Operand aus Speicher
- Zwei-Adress-Befehle
- Vorteil: direkt mit Speicher arbeiten
- Nachteil: Speicherzugriffe kosten Zeit
4️⃣ Register-Register (Load/Store)-Architektur
- Arithmetik nur auf Registern
- Speicherzugriff explizit mit Load/Store
- Drei-Adress-Befehle
- Vorteil: keine unnötigen Speicherzugriffe
- Nachteil: mehr Befehle nötig → größerer Code
- Typisch für RISC-Architekturen
🔥 RISC vs CISC
| Merkmal | RISC | CISC |
|---|---|---|
| Befehlssatz | Einfach, einheitlich, kurze Befehle | Komplex, unterschiedliche Länge |
| Hardware | Einfach, energieeffizient | Komplex oder Mikroprogramme |
| Codegröße | Größer | Kompakter |
| Beispiele | ARM, MIPS, SPARC, PowerPC | x86 (Intel, AMD), Zilog Z80 |
| Vorteile | Schneller bei genügend Registern | Speichereffizient |
| Nachteile | Mehr Programmspeicher nötig | Langsame komplexe Befehle |
📝 Für die Klausur merken
✅ Unterschiede der Architekturen (Stack, Akkumulator, Register-Memory, Load/Store)
✅ RISC vs. CISC: Vor- und Nachteile + Beispiele
✅ Endianness und Bedeutung bei Datentransfer
✅ Moore’s Law und dessen Grenzen
✅ Flaschenhals Speicherzugriff: Register > Cache > RAM > SSD > HDD