Подтвердить что ты не робот

Как использовать распределенную подготовку DNN в TensorFlow?

Сегодня Google выпустил TensorFlow.

Я ковырялся в коде, и я не вижу ничего в коде или API для обучения через кластер серверов GPU.

Разве он еще не расширил возможности обучения?

4b9b3361

Ответ 1

Обновлено:

Релиз произошел 26.02.2016 и был анонсирован соавтором Дереком Мюррей в исходном выпуске здесь и использует gRPC для межпроцессного общения.

Предыдущая:

Перед обновлением выше распределенная реализация TensorFlow еще не была выпущена. Поддержка распределенной реализации была темой этой проблемы, где coauthor Vijay Vasudevan писал:

мы работаем над тем, чтобы сделать распределенную реализацию доступной, это в настоящее время не находится в начальной версии

и Джефф Дин позже предоставил обновление:

Наши текущие внутренние распределенные расширения несколько запутались с внутренней инфраструктурой Google, поэтому мы выпустили одномашинная версия первая. Код еще не включен в GitHub, потому что он имеет зависимости от других частей кодовой базы Google на момент, большинство из которых были обрезаны, но есть некоторые оставшиеся из них.

Мы понимаем, что распределенная поддержка действительно важна, и она из лучших функций, которые мы сейчас уделяем первоочередному выбору.

Ответ 2

Нам понадобилось несколько месяцев, но сегодня мы отмечаем выпуск начального распределенного времени TensorFlow. Это включает поддержку нескольких машин, каждая из которых имеет несколько графических процессоров, с сообщением, предоставленным gRPC.

Текущая версия включает в себя необходимые внутренние компоненты, чтобы вы могли собрать кластер вручную и подключиться к нему из клиентской программы. Более подробная информация доступна в readme.

Ответ 3

Update

Как вы могли заметить. Tensorflow уже поддерживал распределенное обучение DNN в течение некоторого времени. Для получения дополнительной информации см. Его официальный сайт.

=============================================== ==========================

Предыдущая

Нет, он еще не поддерживает распространение обучения, что немного разочаровывает. Но я не думаю, что трудно перейти от одной машины к мульти-машине. По сравнению с другими библиотеками с открытым исходным кодом, например, структура диаграмм данных Caffe, TF больше подходит для кросс-машинных задач.