http://en.wikipedia.org/wiki/Binary_GCD_algorithm
Эта запись в Википедии имеет очень неудовлетворительное значение: двоичный алгоритм GCD был когда-то на 60% более эффективным, чем стандартный алгоритм Евклида, но уже в 1998 году Кнут пришел к выводу, что эффективность в 15% на его современных компьютерах.
Ну прошло еще 15 лет... как эти два алгоритма сегодня складываются с достижениями в области аппаратного обеспечения?
Продолжает ли бинарный GCD превзойти Евклидский алгоритм на языках низкого уровня, но он томится из-за его сложности на языках более высокого уровня, таких как Java? Или разница в современных вычислениях?
Почему меня это волнует? Мне просто так приходится обрабатывать, как 100 миллиардов из них сегодня:) Вот тост, чтобы жить в эпоху вычислительной техники (бедный Евклид).