Der steinsche Algorithmus oder binäre euklidische Algorithmus dient der effizienten Berechnung des größten gemeinsamen Teilers. Der Algorithmus wurde 1967 vom Deutschen Josef Stein vorgestellt.[1] Donald Ervin Knuth zufolge entwickelten R. Silver und J. Tersian den Algorithmus bereits 1962, publizierten ihn aber nicht.[2]
Der Algorithmus nutzt folgende Rechenregeln:
- , falls a und b gerade.
- , falls a gerade und b ungerade.
- , falls a und b ungerade.
Er ist auf Binärrechnern schneller als der jahrtausendealte Euklidische Algorithmus, weil keine zeitaufwändigen Divisionen (bzw. Modulooperationen) durchgeführt werden müssen. Es sind nur Divisionen durch 2 erforderlich, für das man nur das Bitmuster um eins nach rechts, zum niederwertigen Ende, schieben muss. Die meisten Prozessoren besitzen dafür ein effizientes Schieberegister. Anmerkungen:
- Zu beachten ist, dass der steinsche Algorithmus nur dann richtig funktioniert, wenn vorzeichenlose Integer verwendet werden. Der euklidische Algorithmus hingegen funktioniert auch mit vorzeichenbehafteten Integertypen.
- Der steinsche Algorithmus ist auf heutigen Rechnern nur dann effizienter, wenn der Integertyp nicht in ein Register hineinpasst, also mehrere Zugriffe pro Variable benötigt werden. Das ist beispielsweise bei 64-Bit Integerzahlen auf einem Rechner mit 32-Bit Registern der Fall. Umgekehrt ist der euklidische schneller, wenn der Integertyp vollständig in ein Register passt, eine Variable also nur einen einzelnen Zugriff benötigt.
Algorithmus
Die hier in Pseudocode beschriebene Variante des Algorithmus entspricht im Wesentlichen derjenigen, die Donald E. Knuth in seinem Werk The Art of Computer Programming beschreibt.
STEIN(a,b)
wenn a = 0
dann return b
k 0
solange a und b gerade Zahlen sind
a a/2
b b/2
k k + 1
wenn a eine ungerade Zahl ist
dann t -b
sonst t a
solange t ≠ 0
solange t eine gerade Zahl ist
t t/2
wenn t > 0
dann a t
sonst b -t
t a - b
return a 2k
Viele Prozessoren haben heutzutage Befehlssätze, die sehr schnell (oft in einerm Takt) bestimmen können, wie oft eine Ganzzahl durch Zwei teilbar ist. Zum Beispiel stellt die x86-Architektur seit dem 80386 für diesen Zweck die Instruktion bsf
zur Verfügung. Unter Verwendung einer solchen Instruktion ist es möglich, zwei der drei Schleifen des Algorithmus einzusparen und damit seine Laufzeit signifikant zu verbessern. Die folgende Implementierung in der Programmiersprache C nutzt zu diesem Zwecke die POSIX-Standardfunktion ffs
(find first set):
#include <stdlib.h> /* für abs() */
#include <strings.h> /* für ffs() */
extern int
ggt(int a, int b)
{
register int t, k;
if (a == 0 || b == 0)
return a | b;
/* dies kann weggelassen werden, wenn a und b nicht negativ sein dürfen */
a = abs(a);
b = abs(b);
k = ffs(a | b) - 1;
a >>= k;
b >>= k;
t = a & 1 ? -b : a;
do {
t >>= ffs(t) - 1;
if (t > 0)
a = t;
else
b = -t;
t = a - b;
} while (t != 0);
return a << k;
}
Quellen
- ↑ J. Stein: Computational problems associated with Racah algebra. Journal of Computational Physics, Vol. 1, No. 3, pp. 397–405, 1967, ISSN 0021-9991, doi:10.1016/0021-9991(67)90047-2.
- ↑ Donald E. Knuth: The Art of Computer Programming. Volume 2: Seminumerical Algorithms. 3. Auflage. Addison-Wesley Professional, 1997, ISBN 0-201-89684-2, S. 338–341