Speedup
Speedup (englisch für Beschleunigung) ist ein Begriff aus der Informatik und beschreibt mathematisch den Zusammenhang zwischen der seriellen und der parallelen Ausführungszeit eines Programmteils.
Definition
Der Speedup einer parallelen Ausführung kann anhand der Gleichung
definiert werden. Dabei stellen und die serielle sowie parallele Ausführungszeit dar. Die obige Gleichung wird für eine Messung des realen Speedups herangezogen. Wird der theoretische Wert betrachtet, so kann dieser mittels dem Ausdruck
dargestellt werden. Dabei gilt:
- ist die Anzahl von Prozessoren
- ist der theoretische Speedup, der erreicht werden kann bei Ausführung des Algorithmus auf Prozessoren
- ist die Ausführungszeit auf einem Ein-Prozessor-System
- ist die Ausführungszeit auf einem Mehrprozessorsystem
- (engl. fraction) ist der Anteil von , welcher parallel ausgeführt werden kann
Wertebereich
Im Idealfall gilt
sodass die Ausführungszeit auf Prozessoren genau -mal so schnell ist, als auf nur einem Prozessor. Da jedoch ein Algorithmus nie komplett zu 100 % parallel ausgeführt werden kann, weil es immer einen sequenziellen nicht parallelisierbaren Anteil gibt, ist der Idealfall nie erreichbar (siehe Amdahlsches Gesetz).
Der Wertebereich lässt sich daher festlegen mit
wobei der Speedup nur dann 1 ist, falls der komplette Algorithmus nicht parallelisierbar ist und daher auf mehreren Prozessoren genauso schnell abgearbeitet wird, wie auf nur einem Prozessor.
Siehe auch
- Amdahlsches Gesetz
- Parallelrechner
- Speedup beim Pipelining
- Speedup-Theorem in der Komplexitätstheorie
- Speedup messen und visualisieren[1]
Literatur
- Rahm, Erhard. Mehrrechner-Datenbanksysteme - Grundlagen der verteilten und parallelen Datenbankverarbeitung (Speedup und Scaleup). Leipzig: 1994.