Подтвердить что ты не робот

Любой реальный опыт корпоративного уровня с Transactional NTFS (TxF)?

Фон:

Я знаю этот вопрос SO о Transactional NTFS (TxF) и в этой статье описывая, как его использовать, но я ищу реальный опыт с разумной корпоративной системой большого объема, где много данных blob (например, документы и/или фотографии) должны быть сохраняться после транзакций и читать много раз.

  • Мы ожидаем от нескольких десятков тысяч документов, написанных в день, и читаем несколько десятков тысяч в час.
  • Мы могли либо хранить индексы в файловой системе, либо в SQL Server, но должны иметь возможность масштабировать ее в нескольких ячейках.
  • Мы должны сохранить возможность резервного копирования и восстановления данных для аварийного восстановления.

Вопрос:

  • Любой реальный опыт корпоративного уровня с Transactional NTFS (TxF)?

Связанные вопросы:

  • Кто-нибудь пробовал распределенные транзакции с использованием TxF, где один и тот же файл одновременно привязан к двум зеркальным серверам?
  • Кто-нибудь пробовал распределенную транзакцию с файловой системой и базой данных?
  • Любые проблемы с производительностью/надежность/данные о производительности, которыми вы можете поделиться? Кто-нибудь даже делал что-то в этом масштабе до того, как транзакция вызывает беспокойство?

Редактирование. Чтобы быть более ясным, я исследовал другие технологии, включая новый тип данных FILESTREAM SQL Server 2008, но этот вопрос специально ориентирован только на транзакционную файловую систему > .

Дополнительные ресурсы:

4b9b3361

Ответ 1

К сожалению, кажется, что ответ "Нет".

За почти две недели (одна неделя с 100-процентной щедростью) и 156 просмотров никто не ответил, что они использовали TxF для любых приложений большого объема, как я описал. Я не могу сказать, что это было неожиданно, и, конечно, я не могу доказать отрицательный результат, но, похоже, эта функция Windows не известна или часто используется, по крайней мере, активными членами сообщества SO на момент написания.

Если я когда-нибудь смогу написать какое-то доказательство концепции, я опубликую здесь, что я узнаю.

Ответ 2

Я полагаю, что "реальный, корпоративный" опыт более субъективен, чем кажется.

В Windows Update используется TXF. Поэтому он используется довольно сильно с точки зрения частоты. Теперь он не выполняет никакой работы multi- node, и он не проходит через DTC или ничего подобного, но использует TXF для управления состоянием файла. Он координирует эти изменения с изменениями в реестре (TXR). Это считается?

Мой коллега представил этот разговор с SNIA, который довольно откровенен в отношении много работы вокруг TXF и может пролить немного больше легкий. Если вы думаете об использовании TXF, стоит прочитать.

Ответ 4

Хотя у меня нет обширного опыта с TxF, у меня есть опыт работы с MS DTC. Сам TxF достаточно эффективен. Когда вы бросаете MS DTC для обработки нескольких менеджеров ресурсов на нескольких компьютерах, производительность сильно падает.

Из вашего описания, похоже, вы храните и индексируете очень большие объемы неструктурированных данных. Я предполагаю, что вам также нужна возможность поиска этих данных. Поэтому я настоятельно рекомендую изучить нечто вроде Microsoft Dryad или Google MapReduce и высокопроизводительной распределенной файловой системы для обработки неструктурированного хранения и индексирования данных. Лучшие примеры крупных корпоративных систем, которые хранят и индексируют огромные объемы данных blob, - это поисковые системы Интернета, такие как Bing и Google.

Существует немало ресурсов для управления высокопроизводительными неструктурированными данными, и они, вероятно, решат вашу проблему более эффективно, чем SQL Server и NTFS.

Я знаю его немного дальше, чем вы, вероятно, искали... но вы упоминали, что вы уже исчерпали все другие возможности поиска вокруг окна NTFS/TxF/SQL.;)

Ответ 5

Ronald: FileStream накладывается поверх TxF.

JR: Хотя Windows Update использует TxF/KTM и демонстрирует его полезность, это не приложение с высокой пропускной способностью.