С++ OpenMP Parallel For Loop - альтернативы std::vector - программирование
Подтвердить что ты не робот

С++ OpenMP Parallel For Loop - альтернативы std::vector

Основываясь на этом потоке, OpenMP и STL vector, структуры данных являются хорошими альтернативами для общего std::vector в параллели для цикл? Основной аспект - скорость, и вектор может потребовать изменения размера в течение цикла.

4b9b3361

Ответ 1

Вопрос, на который вы ссылаетесь, говорит о том, что "этот векторный контейнер STL не является потокобезопасным в ситуации, когда несколько потоков записываются в один контейнер". Это верно, как указано здесь правильно, если вы вызываете методы, которые могут вызвать перераспределение базового массива, который выполняется std::vector. push_back(), pop_back() и insert() являются примерами этих опасных методов.

Если вам требуется безопасное перераспределение потоков, тогда библиотека блок создания потока Intel предлагает вам параллельные векторные контейнеры. Вы не должны использовать tbb:: concurrent_vector в программах с одним потоком, потому что время, необходимое для доступа к случайным элементам, выше, чем время std::vector делает то же самое (это O (1)). Однако параллельные векторные вызовы push_back(), pop_back(), insert() безопасны для потоков, даже если происходит перераспределение.

EDIT 1: слайды 46 и 47 следующая презентация Intel дают иллюстративный пример параллельного перераспределения с использованием tbb:: concurrent_vector

EDIT 2: Кстати, если вы начнете использовать блок построения протектора Intel (он работает с открытым исходным кодом, он работает с большинством компиляторов, и он намного лучше интегрирован с функциями С++/С++ 11, чем openmp), тогда вы 't нужно использовать openmp для создания parallel_for, Здесь является хорошим примером parallel_for использования tbb.

Ответ 2

Я думаю, вы можете использовать std::vector с OpenMP большую часть времени и по-прежнему иметь хорошую производительность. Следующий код, например, заполняет std::vectors параллельно, а затем объединяет их в конце. До тех пор, пока ваша основная функция цикла/заполнения является узким местом, это должно хорошо работать и быть безопасным потоком.

std::vector<int> vec;
#pragma omp parallel
{
    std::vector<int> vec_private;
    #pragma omp for nowait //fill vec_private in parallel
    for(int i=0; i<100; i++) {
        vec_private.push_back(i);
    }
    #pragma omp critical
    vec.insert(vec.end(), vec_private.begin(), vec_private.end());
}

Edit:

OpenMP 4.0 позволяет определять пользовательские сокращения с помощью #pragma omp declare reduction. Вышеприведенный код можно упростить с помощью

#pragma omp declare reduction (merge : std::vector<int> : omp_out.insert(omp_out.end(), omp_in.begin(), omp_in.end()))

std::vector<int> vec;
#pragma omp parallel for reduction(merge: vec)
for(int i=0; i<100; i++) vec.push_back(i);

Изменить: То, что я пока показал, не заполняет вектор в порядке. Если порядок имеет значение, то это можно сделать так:

std::vector<int> vec;
#pragma omp parallel
{
    std::vector<int> vec_private;
    #pragma omp for nowait schedule(static)
    for(int i=0; i<N; i++) { 
        vec_private.push_back(i);
    }
    #pragma omp for schedule(static) ordered
    for(int i=0; i<omp_get_num_threads(); i++) {
        #pragma omp ordered
        vec.insert(vec.end(), vec_private.begin(), vec_private.end());
    }
}

Это позволяет избежать сохранения std::vector для каждого потока, а затем слияния их в последовательном порядке за пределами параллельной области. Я узнал об этом "трюке" здесь. Я не уверен, как это сделать (или даже возможно) для пользовательских сокращений.. Это невозможно сделать с пользовательскими сокращениями.

Я только понял, что критический раздел не нужен, который я понял из этого вопроса parallel-cumulative-prefix-sums-in-openmp-communicating-values-between-thread. Этот метод также получает правильный порядок.

std::vector<int> vec;
size_t *prefix;
#pragma omp parallel
{
    int ithread  = omp_get_thread_num();
    int nthreads = omp_get_num_threads();
    #pragma omp single
    {
        prefix = new size_t[nthreads+1];
        prefix[0] = 0;
    }
    std::vector<int> vec_private;
    #pragma omp for schedule(static) nowait
    for(int i=0; i<100; i++) {
        vec_private.push_back(i);
    }
    prefix[ithread+1] = vec_private.size();
    #pragma omp barrier
    #pragma omp single 
    {
        for(int i=1; i<(nthreads+1); i++) prefix[i] += prefix[i-1];
        vec.resize(vec.size() + prefix[nthreads]);
    }
    std::copy(vec_private.begin(), vec_private.end(), vec.begin() + prefix[ithread]);
}
delete[] prefix;