4.4 KiB
📘 Zusammenfassung: V2 Architekturen – Computerarchitektur
🔄 Wiederholung Computergenerationen
-
0. Generation (bis 1945): Mechanische Rechenmaschinen (Pascal, Leibniz, Babbage, Zuse)
-
1. Generation (1945–1955): Relais & Vakuumröhren – ENIAC, COLOSSUS, MANIAC
-
2. Generation (1955–1965): Transistoren – Minicomputer (PDP), Supercomputer (CDC 6600)
-
3. Generation (1965–1980): Integrierte Schaltungen – IBM System/360, PDP-11
-
4. Generation (ab 1980): VLSI – PCs, x86-Architektur
-
5. Generation (heute): Smartphones, Cloud, Embedded Systems
🚀 Moore’s Law (Moor’sches Gesetz)
-
Kerngedanke: Verdopplung der Anzahl Transistoren pro IC alle 12–24 Monate.
-
Auswirkungen:
-
Kleinere Strukturen → geringere Kosten
-
Mehr Komponenten → höhere Leistung
-
Geringerer Stromverbrauch
-
-
Aber: Miniaturisierung wird zunehmend teurer und schwieriger.
📊 Leistungsmessung von Computern
-
System-Benchmarks: Cinebench, 3DMark, HPC Challenge
-
Kennzahlen:
-
Instruktionen/Sekunde (IPS), FLOPS
-
Taktzyklen pro Instruktion (CPI), Instruktionen pro Takt (IPC)
-
Speicherzugriffszeit, Durchsatz
-
Netzwerk- & Grafikleistung (FPS, TPS)
-
-
Kritik an MIPS: „Misleading Information to Promote Sales“ – nicht immer aussagekräftig.
🤖 Computer als endlicher Automat (Finite State Machine)
-
Zustände: durch Bitmuster repräsentiert
-
Operation: Boolesche Funktion auf Teilzuständen
-
Vergleichbare Modelle:
-
Schaltnetz (ohne Schleifen)
-
Endlicher Automat (deterministisch/nichtdeterministisch)
-
Kellerautomat (mit Stack)
-
Turingmaschine (unendliches Band)
-
🚌 Speicheranbindung & Endianness
-
Speicheradressierung:
-
big-endian: höchstwertiges Byte an kleinster Adresse
-
little-endian: niedrigstwertiges Byte zuerst
-
-
Bus-System:
-
Bus-Takt meist langsamer als CPU-Takt
-
Cache als schneller Zwischenspeicher
-
⚙️ Aufbau von Computersystemen
Rechenwerk (ALU)
-
Operationen: +, −, *, /, logische Operationen
-
Moderne CPUs: mehrere Register → direkte Register-Register-Operationen
-
Ältere CPUs: Akkumulator-Register für ALU-Operationen
Steuerwerk
-
Verantwortlich für:
-
Ausführung der Befehle
-
Datenflusskontrolle
-
Ausnahmebehandlung & Interrupts
-
🧵 Befehlssatzarchitekturen (ISA)
1️⃣ Stack-Architektur
-
Operanden und Ergebnisse liegen auf Stack.
-
Vorteile: kompakter Code, minimaler Prozessorzustand
-
Nachteil: viele Speicherzugriffe
-
Heute: nur noch in virtuellen Maschinen (JVM, p-Machine)
2️⃣ Akkumulator-Architektur
-
Ein Register (Akkumulator) für Operanden & Ergebnis
-
Speicherzugriff für zweiten Operand nötig
-
Kompakt, aber teuer durch Speicherzugriffe
3️⃣ Register-Memory-Architektur
-
Mehrere Register, 2. Operand aus Speicher
-
Zwei-Adress-Befehle
-
Vorteil: direkt mit Speicher arbeiten
-
Nachteil: Speicherzugriffe kosten Zeit
4️⃣ Register-Register (Load/Store)-Architektur
-
Arithmetik nur auf Registern
-
Speicherzugriff explizit mit Load/Store
-
Drei-Adress-Befehle
-
Vorteil: keine unnötigen Speicherzugriffe
-
Nachteil: mehr Befehle nötig → größerer Code
-
Typisch für RISC-Architekturen
🔥 RISC vs CISC
| Merkmal | RISC | CISC |
|---|---|---|
| Befehlssatz | Einfach, einheitlich, kurze Befehle | Komplex, unterschiedliche Länge |
| Hardware | Einfach, energieeffizient | Komplex oder Mikroprogramme |
| Codegröße | Größer | Kompakter |
| Beispiele | ARM, MIPS, SPARC, PowerPC | x86 (Intel, AMD), Zilog Z80 |
| Vorteile | Schneller bei genügend Registern | Speichereffizient |
| Nachteile | Mehr Programmspeicher nötig | Langsame komplexe Befehle |
📝 Für die Klausur merken
✅ Unterschiede der Architekturen (Stack, Akkumulator, Register-Memory, Load/Store)
✅ RISC vs. CISC: Vor- und Nachteile + Beispiele
✅ Endianness und Bedeutung bei Datentransfer
✅ Moore’s Law und dessen Grenzen
✅ Flaschenhals Speicherzugriff: Register > Cache > RAM > SSD > HDD