## 📘 **Zusammenfassung: V2 Architekturen – Computerarchitektur** ### 🔄 Wiederholung Computergenerationen - **0. Generation (bis 1945):** Mechanische Rechenmaschinen (Pascal, Leibniz, Babbage, Zuse) - **1. Generation (1945–1955):** Relais & Vakuumröhren – ENIAC, COLOSSUS, MANIAC - **2. Generation (1955–1965):** Transistoren – Minicomputer (PDP), Supercomputer (CDC 6600) - **3. Generation (1965–1980):** Integrierte Schaltungen – IBM System/360, PDP-11 - **4. Generation (ab 1980):** VLSI – PCs, x86-Architektur - **5. Generation (heute):** Smartphones, Cloud, Embedded Systems --- ### 🚀 Moore’s Law (Moor’sches Gesetz) - **Kerngedanke:** Verdopplung der Anzahl Transistoren pro IC alle 12–24 Monate. - Auswirkungen: - Kleinere Strukturen → geringere Kosten - Mehr Komponenten → höhere Leistung - Geringerer Stromverbrauch - Aber: Miniaturisierung wird zunehmend teurer und schwieriger. --- ### 📊 Leistungsmessung von Computern - **System-Benchmarks:** Cinebench, 3DMark, HPC Challenge - **Kennzahlen:** - Instruktionen/Sekunde (IPS), FLOPS - Taktzyklen pro Instruktion (CPI), Instruktionen pro Takt (IPC) - Speicherzugriffszeit, Durchsatz - Netzwerk- & Grafikleistung (FPS, TPS) - Kritik an MIPS: „Misleading Information to Promote Sales“ – nicht immer aussagekrĂ€ftig. --- ### đŸ€– Computer als endlicher Automat (Finite State Machine) - **ZustĂ€nde:** durch Bitmuster reprĂ€sentiert - **Operation:** Boolesche Funktion auf TeilzustĂ€nden - Vergleichbare Modelle: - Schaltnetz (ohne Schleifen) - Endlicher Automat (deterministisch/nichtdeterministisch) - Kellerautomat (mit Stack) - Turingmaschine (unendliches Band) --- ### 🚌 Speicheranbindung & Endianness - Speicheradressierung: - **big-endian:** höchstwertiges Byte an kleinster Adresse - **little-endian:** niedrigstwertiges Byte zuerst - Bus-System: - Bus-Takt meist langsamer als CPU-Takt - Cache als schneller Zwischenspeicher --- ### ⚙ Aufbau von Computersystemen #### Rechenwerk (ALU) - Operationen: +, −, *, /, logische Operationen - Moderne CPUs: mehrere Register → direkte Register-Register-Operationen - Ältere CPUs: Akkumulator-Register fĂŒr ALU-Operationen #### Steuerwerk - Verantwortlich fĂŒr: - AusfĂŒhrung der Befehle - Datenflusskontrolle - Ausnahmebehandlung & Interrupts --- ### đŸ§” Befehlssatzarchitekturen (ISA) #### 1ïžâƒŁ Stack-Architektur - Operanden und Ergebnisse liegen auf Stack. - Vorteile: kompakter Code, minimaler Prozessorzustand - Nachteil: viele Speicherzugriffe - Heute: nur noch in virtuellen Maschinen (JVM, p-Machine) #### 2ïžâƒŁ Akkumulator-Architektur - Ein Register (Akkumulator) fĂŒr Operanden & Ergebnis - Speicherzugriff fĂŒr zweiten Operand nötig - Kompakt, aber teuer durch Speicherzugriffe #### 3ïžâƒŁ Register-Memory-Architektur - Mehrere Register, 2. Operand aus Speicher - Zwei-Adress-Befehle - Vorteil: direkt mit Speicher arbeiten - Nachteil: Speicherzugriffe kosten Zeit #### 4ïžâƒŁ Register-Register (Load/Store)-Architektur - Arithmetik nur auf Registern - Speicherzugriff explizit mit Load/Store - Drei-Adress-Befehle - Vorteil: keine unnötigen Speicherzugriffe - Nachteil: mehr Befehle nötig → grĂ¶ĂŸerer Code - Typisch fĂŒr **RISC-Architekturen** --- ### đŸ”„ RISC vs CISC |**Merkmal**|**RISC**|**CISC**| |---|---|---| |**Befehlssatz**|Einfach, einheitlich, kurze Befehle|Komplex, unterschiedliche LĂ€nge| |**Hardware**|Einfach, energieeffizient|Komplex oder Mikroprogramme| |**CodegrĂ¶ĂŸe**|GrĂ¶ĂŸer|Kompakter| |**Beispiele**|ARM, MIPS, SPARC, PowerPC|x86 (Intel, AMD), Zilog Z80| |**Vorteile**|Schneller bei genĂŒgend Registern|Speichereffizient| |**Nachteile**|Mehr Programmspeicher nötig|Langsame komplexe Befehle| --- ### 📝 FĂŒr die Klausur merken ✅ Unterschiede der Architekturen (Stack, Akkumulator, Register-Memory, Load/Store) ✅ RISC vs. CISC: Vor- und Nachteile + Beispiele ✅ Endianness und Bedeutung bei Datentransfer ✅ Moore’s Law und dessen Grenzen ✅ Flaschenhals Speicherzugriff: Register > Cache > RAM > SSD > HDD