Я часто слышу это утверждение, что умножение на современное оборудование настолько оптимизировано, что на самом деле это такая же скорость, как и добавление. Это правда?
Я никогда не получил никакого авторитетного подтверждения. Мое собственное исследование только добавляет вопросы. Тесты скорости обычно показывают данные, которые меня смущают. Вот пример:
#include <stdio.h>
#include <sys/time.h>
unsigned int time1000() {
timeval val;
gettimeofday(&val, 0);
val.tv_sec &= 0xffff;
return val.tv_sec * 1000 + val.tv_usec / 1000;
}
int main() {
unsigned int sum = 1, T = time1000();
for (int i = 1; i < 100000000; i++) { sum += i + (i+1); sum++; }
printf("%u %u\n", time1000() - T, sum);
sum = 1;
T = time1000();
for (int i = 1; i < 100000000; i++) { sum += i * (i+1); sum++; }
printf("%u %u\n", time1000() - T, sum);
}
В приведенном выше коде показано, что умножение выполняется быстрее:
clang++ benchmark.cpp -o benchmark
./benchmark
746 1974919423
708 3830355456
Но с другим компилятором, другими аргументами компилятора, иначе написанным внутренним циклом результаты могут меняться, и я даже не могу получить приближение.