текущие потоки графического процессора как-то ограничены (ограничение памяти, ограничение структуры данных, отсутствие рекурсии...).
Как вы думаете, было бы возможно реализовать проблему теории графов на GPU. например, крышка верхушки? доминирующий набор? независимый набор? max clique?....
Можно ли также иметь алгоритмы с ветвями и границами на графических процессорах? Рекурсивный откат?