Подтвердить что ты не робот

Возможность GPU в качестве процессора?

Как вы думаете, будущее GPU в качестве инициаторов ЦП, таких как CUDA? Считаете ли вы, что они собираются стать мейнстримом и стать следующей принятой увлечением в отрасли? Apple строит новую структуру для использования GPU для выполнения задач ЦП, и в проекте Nvidias CUDA в науках много успехов. Вы предложили бы, чтобы студент проводил время в этом поле?

4b9b3361

Ответ 1

Прежде всего, я не думаю, что эти вопросы действительно принадлежат SO.

По-моему, GPU - очень интересная альтернатива, когда вы делаете векторную математику с плавающей запятой. Однако это означает: он не станет основным. Большинство основных приложений (Desktop) выполняют очень мало вычислений с плавающей запятой.

Он уже приобрел тягу в играх (физики-двигатели) и в научных расчетах. Если вы считаете, что любой из этих двух, как "основной", чем "да", GPU станет основным.

Я бы не стал рассматривать эти два как основной, и поэтому я думаю, что GPU будет повышаться, чтобы стать следующей принятой причудой в основной индустрии.

Если вы, будучи студентом, интересуетесь научными вычислениями, основанными на физике, вы должны обязательно совершить некоторое время (графические процессоры - это очень интересные части аппаратного обеспечения в любом случае).

Ответ 2

Зафиксируйте время, если вас интересуют научные и параллельные вычисления. Не думайте о CUDA и превращайте GPU в CPU. Это позволяет использовать более прямой метод программирования графических процессоров, чем старые методы программирования GPGPU.

ЦП общего назначения получают свою способность хорошо работать на самых разных задачах из всей работы, которая прошла в предсказание ветвей, конвейерной обработки, суперскалера и т.д. Это позволяет им достичь хорошей производительности на самых разных рабочих нагрузок, в то же время заставляя их всасывать операции с плавающей запятой с высокой пропускной способностью.

Графические процессоры изначально были предназначены для того, чтобы сделать что-то одно, и делать это очень хорошо. Графические операции по своей сути параллельны. Вы можете рассчитать цвет всех пикселей на экране одновременно, потому что нет никаких зависимостей данных между результатами. Кроме того, требуемым алгоритмам не приходилось иметь дело с ветвями, так как почти любая ветвь, которая требовалась бы, могла быть достигнута путем установления коэффициента эффективности до нуля или одного. Поэтому аппаратное обеспечение может быть очень простым. Не стоит беспокоиться о предсказании ветвлений, и вместо того, чтобы делать суперскалеров процессора, вы можете просто добавить столько же ALU, сколько сможете начинали на чипе.

Благодаря программируемым текстурным и вершинным шейдерам, GPU получил путь к общей программируемости, но они все еще ограничены аппаратным обеспечением, которое все еще предназначено для операций с плавающей точкой с высокой пропускной способностью. Некоторые дополнительные схемы, вероятно, будут добавлены для обеспечения более общего назначения, но только до определенной точки. Все, что ставит под угрозу способность графического процессора делать графику, не вносит его. В конце концов, компании GPU все еще находятся в графическом бизнесе, а целевой рынок все еще является геймерами и людьми, которым нужна визуализация на высоком конце.

Рынок GPGPU по-прежнему остается в ковше, и в определенной степени он останется таким. В конце концов, "это выглядит красиво" - это гораздо более низкий стандарт для удовлетворения, чем "100% гарантированные и воспроизводимые результаты, каждый раз".

Таким образом, графический процессор никогда не будет реализован как процессор. Они просто предназначены для различных видов рабочих нагрузок. Я ожидаю, что GPU получит функции, которые сделают их полезными для быстрого решения более широкого круга проблем, но в первую очередь они будут составлять графические процессоры.

Всегда важно всегда соответствовать той проблеме, которая у вас есть, с наиболее подходящим инструментом, который вы должны решить.

Ответ 3

Долгое время я думаю, что GPU перестанет существовать, поскольку процессоры общего назначения развиваются, чтобы взять на себя эти функции. Intel Larrabee - это первый шаг. История показала, что ставка против x86 - плохая идея.

Изучение широкомасштабных параллельных архитектур и векторной обработки будет по-прежнему полезно.

Ответ 4

GPU никогда не вытеснит процессор. ЦПУ выполняет набор последовательных инструкций, а графический процессор выполняет очень специфический тип вычислений параллельно. Эти GPU имеют большую полезность в численных вычислениях и графике; однако большинство программ никоим образом не могут использовать этот вкус вычислений.

Скоро вы увидите новых процессоров Intel и AMD, которые включают в себя графические вычисления с плавающей запятой с графическим процессором, а также стандартные вычисления ЦП.

Ответ 5

Я думаю, что это правильный путь.

Учитывая, что GPU были задействованы для создания дешевых суперкомпьютеров, это, по-видимому, естественная эволюция вещей. С таким большим количеством вычислительной мощности и R & D, уже сделанным для вас, почему бы не использовать имеющуюся технологию?

Итак, продолжайте и делайте это. Это сделало бы для некоторых интересных исследований, а также законную причину купить эту высококачественную графическую карту, чтобы вы могли играть в Crysis и Assassin Creed на полной графической детализации;)

Ответ 6

Это одна из тех вещей, для которых вы видите 1 или 2 приложения, но скоро кто-то придумает "приложение-убийца", в котором выясняется, как сделать что-то более общее с ним, при сверхбыстрых скоростях.

Пиксельные шейдеры для применения процедур к большим массивам значений float, возможно, мы увидим некоторые приложения для покрытия ГИС или хорошо, я не знаю. Если вы не посвящаете ему больше времени, чем тогда, вы будете иметь тот же уровень понимания, что и я, т.е. мало!

У меня такое чувство, что это может быть действительно большая вещь, как и Intel и S3, может быть, ему просто нужно немного изменить настройки оборудования или кого-то с лампочкой над головой.

Ответ 7

С таким количеством неиспользованной силы я не могу понять, как долго это не будет использоваться. Вопрос в том, как будет использоваться GPU для этого. CUDA, похоже, сейчас догадывается, но на горизонте появляются другие технологии, которые могут сделать его более доступным для среднего разработчика.

Недавно Apple анонсировала OpenCL, который, по их утверждению, намного больше, чем CUDA, но довольно простой. Я не уверен, что именно сделать, но группа khronos (ребята, работающие над стандартом OpenGL) работают над стандартом OpenCL и пытаются сделать его высоко совместимым с OpenGL. Это может привести к технологии, которая лучше подходит для нормальной разработки программного обеспечения.

Это интересная тема, и, кстати, я собираюсь начать магистерскую диссертацию по вопросу о том, как лучше всего сделать доступность GPU для средних разработчиков (если возможно) с CUDA в качестве основного фокуса.

Ответ 8

Давным-давно, было очень сложно делать вычисления с плавающей запятой (тысячи/миллионы циклов эмуляции на каждую команду на ужасно производительных (по сегодняшним меркам) процессорах, таких как 80386). Люди, которые нуждались в производительности с плавающей запятой, могли получить FPU (например, 80387. Старые FPU были довольно тесно интегрированы в работу ЦП, но они были внешними. Позже они стали интегрированными с 80486, имеющим встроенный FPU.

Старинный FPU аналогичен вычислению графического процессора. Мы уже можем получить его с APU AMD. APU - это процессор с встроенным в него графическим процессором.

Итак, я думаю, что фактический ответ на ваш вопрос заключается в том, что GPU не станет процессором, вместо этого у процессора будет встроенный графический процессор.