Я реализовал одно матричное умножение с boost::numeric::ublas::matrix
(см. мой полный рабочий код повышения)
Result result = read ();
boost::numeric::ublas::matrix<int> C;
C = boost::numeric::ublas::prod(result.A, result.B);
и еще один со стандартным алгоритмом (см. полный стандартный код):
vector< vector<int> > ijkalgorithm(vector< vector<int> > A,
vector< vector<int> > B) {
int n = A.size();
// initialise C with 0s
vector<int> tmp(n, 0);
vector< vector<int> > C(n, tmp);
for (int i = 0; i < n; i++) {
for (int k = 0; k < n; k++) {
for (int j = 0; j < n; j++) {
C[i][j] += A[i][k] * B[k][j];
}
}
}
return C;
}
Вот как я проверяю скорость:
time boostImplementation.out > boostResult.txt
diff boostResult.txt correctResult.txt
time simpleImplementation.out > simpleResult.txt
diff simpleResult.txt correctResult.txt
Обе программы считывают жестко закодированный текстовый файл, который содержит две матрицы 2000 x 2000. Обе программы были скомпилированы с этими флагами:
g++ -std=c++98 -Wall -O3 -g $(PROBLEM).cpp -o $(PROBLEM).out -pedantic
Я получил 15 секунд для моей реализации и более 4 минуты для повышения производительности!
edit: после компиляции с помощью
g++ -std=c++98 -Wall -pedantic -O3 -D NDEBUG -DBOOST_UBLAS_NDEBUG library-boost.cpp -o library-boost.out
Я получил 28.19 секунд для ikj-алгоритма и 60.99 секунд для Boost. Таким образом, Boost все еще значительно медленнее.
Почему так значительно медленнее, чем моя реализация?