## 📘 **Zusammenfassung: V2 Architekturen – Computerarchitektur** ### 🔄 Wiederholung Computergenerationen - **0. Generation (bis 1945):** Mechanische Rechenmaschinen (Pascal, Leibniz, Babbage, Zuse) - **1. Generation (1945–1955):** Relais & Vakuumröhren – ENIAC, COLOSSUS, MANIAC - **2. Generation (1955–1965):** Transistoren – Minicomputer (PDP), Supercomputer (CDC 6600) - **3. Generation (1965–1980):** Integrierte Schaltungen – IBM System/360, PDP-11 - **4. Generation (ab 1980):** VLSI – PCs, x86-Architektur - **5. Generation (heute):** Smartphones, Cloud, Embedded Systems --- ### 🚀 Moore’s Law (Moor’sches Gesetz) - **Kerngedanke:** Verdopplung der Anzahl Transistoren pro IC alle 12–24 Monate. - Auswirkungen: - Kleinere Strukturen → geringere Kosten - Mehr Komponenten → höhere Leistung - > Resultierend: Geringerer Stromverbrauch - Aber: Miniaturisierung wird zunehmend teurer und schwieriger. --- ### 📊 Leistungsmessung von Computern - **System-Benchmarks:** Cinebench, 3DMark, HPC Challenge - **KenngrĂ¶ĂŸen:** - Instruktionen/Sekunde (IPS), FLOPS (Floating point operations/second) - Taktzyklen pro Instruktion (CPI), Instruktionen pro Takt (IPC) - Speicherzugriffszeit, Durchsatz - Netzwerk- & Grafikleistung (FPS, TPS) - Kritik an MIPS: „Misleading Information to Promote Sales“ – nicht immer aussagekrĂ€ftig. (MIPS => Million instructions per second) --- ### đŸ€– Computer als endlicher Automat (Finite State Machine) - **ZustĂ€nde:** durch Bitmuster reprĂ€sentiert - **Operation:** Boolesche Funktion auf TeilzustĂ€nden - Vergleichbare Modelle: - Schaltnetz: keine Schleifen, keine RĂŒckkopplung) - Endlicher Automat (Deterministisch und Nichtdeterministisch) - Kellerautomat (unendlich, aber Zugriff nur auf oberstes Element)(Hardwarelimitierungen?) - Turing-Maschine (endliche ZustĂ€nde des Automaten, unendliches Band zum Lesen und Schreiben) ![[Pasted image 20250708185128.png]] ![[Pasted image 20250708185152.png]] ![[Pasted image 20250708185618.png]] --- ### 🚌 Speicheranbindung & Endianness - Speicheradressierung: - **big-endian:** höchstwertiges Byte an kleinster Adresse - **little-endian:** niedrigstwertiges Byte zuerst - Bus-System: - Bus-Takt meist langsamer als CPU-Takt - Cache als schneller Zwischenspeicher --- ### ⚙ Aufbau von Computersystemen #### Rechenwerk (ALU) - Operationen: +, −, *, /, logische Operationen - Moderne CPUs: mehrere Register → direkte Register-Register-Operationen - Ältere CPUs: Akkumulator-Register fĂŒr ALU-Operationen ![[Pasted image 20250708185932.png]]**** #### Steuerwerk - Verantwortlich fĂŒr: - AusfĂŒhrung der Befehle - Datenflusskontrolle - Ausnahmebehandlung & Interrupts #### Register - Program Counter PC - Befehlsregister (Instruction Registers IR) - **optional**: Stackpointer SP - **Statusregister**: Zustandsregister, Flags usw. - Einfache CPUs haben einen speziellen Akkumulator-Register (Accu) - Aus diesem wird ein Wert gelesen - Ergebnis einer Operation wird hier gelagert - Moderne CPUs können nicht direkt Daten aus dem Hauptspeicher in das Rechenwerk lesen (Sicherheit oder warum?) #### Bottleneck Datentransfer | Speichertyp | Geschwindigkeit | | -------------------- | -------------------- | | CPU Register | < Nanosekunde | | CPU Cache | ~wenige Nanosekunden | | Arbeitsspeicher | 60-70 Nanosekunden | | SekundĂ€rspeicher SSD | 0,4 ms | | SekundĂ€rspeicher HDD | 8-10 ms | --- ### đŸ§” Befehlssatzarchitekturen (ISA) **Befehle bestimmen die Architektur und umgekehrt** #### 1ïžâƒŁ Stack-Architektur - Operanden und Ergebnisse liegen auf Stack. - Benötigt Stack Pointer **SP Register** - Ergebnis wird final auf den Stack gelegt - Vorteile: kompakter Code, minimaler Prozessorzustand, sog. Null-Address Machine - Nachteil: viele Speicherzugriffe - Heute: nur noch in virtuellen Maschinen (JVM, p-Machine) #### 2ïžâƒŁ Akkumulator-Architektur - Ein Register (Akkumulator) fĂŒr Operanden & Ergebnis - Speicherzugriff fĂŒr zweiten Operand nötig - Kompakt, aber teuer durch Speicherzugriffe - **Ein-Adress-Maschine** #### 3ïžâƒŁ Register-Memory-Architektur - Mehrere Register, 2. Operand aus Speicher - Zwei-Adress-Befehle - Vorteil: direkt mit Speicher arbeiten - Nachteil: Speicherzugriffe kosten Zeit #### 4ïžâƒŁ Register-Register (Load/Store)-Architektur - Arithmetik nur auf Registern - Speicherzugriff explizit mit Load/Store - Drei-Adress-Befehle - Vorteil: keine unnötigen Speicherzugriffe - Nachteil: mehr Befehle nötig → grĂ¶ĂŸerer Code - Typisch fĂŒr **RISC-Architekturen** --- ### đŸ”„ RISC vs CISC | **Merkmal** | **RISC** | **CISC** | | --------------- | ----------------------------------- | ------------------------------- | | **Befehlssatz** | Einfach, einheitlich, kurze Befehle | Komplex, unterschiedliche LĂ€nge | | **Hardware** | Einfach, energieeffizient | Komplex oder Mikroprogramme | | **CodegrĂ¶ĂŸe** | GrĂ¶ĂŸer | Kompakter | | **Beispiele** | ARM, MIPS, SPARC, PowerPC | x86 (Intel, AMD), Zilog Z80 | | **Vorteile** | Schneller bei genĂŒgend Registern | Speichereffizient | | **Nachteile** | Mehr Programmspeicher nötig | Langsame komplexe Befehle | Unterschied zwischen CISC und RISC CPUs – Gibt es Mischformen? | ==Merkmal== | ==CISC (Complex Instruction Set Computer)== | ==RISC (Reduced Instruction Set Computer)== | | :--------------- | :------------------------------------------ | :------------------------------------------ | | Befehlssatz | Viele, komplexe Befehle | Wenige, einfache Befehle | | Hardwareaufbau | Komplexe Steuerlogik oder Mikroprogramme | Einfache, schnelle Hardware | | BefehlslĂ€nge | Unterschiedlich lang (z. B. 1–15 Byte) | Gleich lang (z. B. 4 Byte) | | Operationen | Direkt mit Speicher möglich | Nur mit Registern (Load/Store-Prinzip) | | Speicherbedarf | Geringer, da kompakter Code | Höher, da mehr Befehle nötig | | Energieeffizienz | Weniger effizient | Höher, da keine ungenutzten Logikblöcke | | Fokus | Effizienz bei Assembler-Programmierung | Optimierung fĂŒr Compiler und Pipeline | --- ### 📝 FĂŒr die Klausur merken ✅ Unterschiede der Architekturen (Stack, Akkumulator, Register-Memory, Load/Store) ✅ RISC vs. CISC: Vor- und Nachteile + Beispiele ✅ Endianness und Bedeutung bei Datentransfer ✅ Moore’s Law und dessen Grenzen ✅ Flaschenhals Speicherzugriff: Register > Cache > RAM > SSD > HDD