Files
TI-Studium-Mitschriften/Semester 6/COMARCH/Zusammenfassung/Vorlesung 2.md
2025-07-07 19:57:44 +02:00

4.4 KiB
Raw Blame History

📘 Zusammenfassung: V2 Architekturen Computerarchitektur

🔄 Wiederholung Computergenerationen

  • 0. Generation (bis 1945): Mechanische Rechenmaschinen (Pascal, Leibniz, Babbage, Zuse)

  • 1. Generation (19451955): Relais & Vakuumröhren ENIAC, COLOSSUS, MANIAC

  • 2. Generation (19551965): Transistoren Minicomputer (PDP), Supercomputer (CDC 6600)

  • 3. Generation (19651980): Integrierte Schaltungen IBM System/360, PDP-11

  • 4. Generation (ab 1980): VLSI PCs, x86-Architektur

  • 5. Generation (heute): Smartphones, Cloud, Embedded Systems


🚀 Moores Law (Moorsches Gesetz)

  • Kerngedanke: Verdopplung der Anzahl Transistoren pro IC alle 1224 Monate.

  • Auswirkungen:

    • Kleinere Strukturen → geringere Kosten

    • Mehr Komponenten → höhere Leistung

    • Geringerer Stromverbrauch

  • Aber: Miniaturisierung wird zunehmend teurer und schwieriger.


📊 Leistungsmessung von Computern

  • System-Benchmarks: Cinebench, 3DMark, HPC Challenge

  • Kennzahlen:

    • Instruktionen/Sekunde (IPS), FLOPS

    • Taktzyklen pro Instruktion (CPI), Instruktionen pro Takt (IPC)

    • Speicherzugriffszeit, Durchsatz

    • Netzwerk- & Grafikleistung (FPS, TPS)

  • Kritik an MIPS: „Misleading Information to Promote Sales“ nicht immer aussagekräftig.


🤖 Computer als endlicher Automat (Finite State Machine)

  • Zustände: durch Bitmuster repräsentiert

  • Operation: Boolesche Funktion auf Teilzuständen

  • Vergleichbare Modelle:

    • Schaltnetz (ohne Schleifen)

    • Endlicher Automat (deterministisch/nichtdeterministisch)

    • Kellerautomat (mit Stack)

    • Turingmaschine (unendliches Band)


🚌 Speicheranbindung & Endianness

  • Speicheradressierung:

    • big-endian: höchstwertiges Byte an kleinster Adresse

    • little-endian: niedrigstwertiges Byte zuerst

  • Bus-System:

    • Bus-Takt meist langsamer als CPU-Takt

    • Cache als schneller Zwischenspeicher


⚙️ Aufbau von Computersystemen

Rechenwerk (ALU)

  • Operationen: +, , *, /, logische Operationen

  • Moderne CPUs: mehrere Register → direkte Register-Register-Operationen

  • Ältere CPUs: Akkumulator-Register für ALU-Operationen

Steuerwerk

  • Verantwortlich für:

    • Ausführung der Befehle

    • Datenflusskontrolle

    • Ausnahmebehandlung & Interrupts


🧵 Befehlssatzarchitekturen (ISA)

1 Stack-Architektur

  • Operanden und Ergebnisse liegen auf Stack.

  • Vorteile: kompakter Code, minimaler Prozessorzustand

  • Nachteil: viele Speicherzugriffe

  • Heute: nur noch in virtuellen Maschinen (JVM, p-Machine)

2 Akkumulator-Architektur

  • Ein Register (Akkumulator) für Operanden & Ergebnis

  • Speicherzugriff für zweiten Operand nötig

  • Kompakt, aber teuer durch Speicherzugriffe

3 Register-Memory-Architektur

  • Mehrere Register, 2. Operand aus Speicher

  • Zwei-Adress-Befehle

  • Vorteil: direkt mit Speicher arbeiten

  • Nachteil: Speicherzugriffe kosten Zeit

4 Register-Register (Load/Store)-Architektur

  • Arithmetik nur auf Registern

  • Speicherzugriff explizit mit Load/Store

  • Drei-Adress-Befehle

  • Vorteil: keine unnötigen Speicherzugriffe

  • Nachteil: mehr Befehle nötig → größerer Code

  • Typisch für RISC-Architekturen


🔥 RISC vs CISC

Merkmal RISC CISC
Befehlssatz Einfach, einheitlich, kurze Befehle Komplex, unterschiedliche Länge
Hardware Einfach, energieeffizient Komplex oder Mikroprogramme
Codegröße Größer Kompakter
Beispiele ARM, MIPS, SPARC, PowerPC x86 (Intel, AMD), Zilog Z80
Vorteile Schneller bei genügend Registern Speichereffizient
Nachteile Mehr Programmspeicher nötig Langsame komplexe Befehle

📝 Für die Klausur merken

Unterschiede der Architekturen (Stack, Akkumulator, Register-Memory, Load/Store)
RISC vs. CISC: Vor- und Nachteile + Beispiele
Endianness und Bedeutung bei Datentransfer
Moores Law und dessen Grenzen
Flaschenhals Speicherzugriff: Register > Cache > RAM > SSD > HDD