Я пытаюсь найти лучшее решение для создания масштабируемого хранилища для больших файлов. Размер файла может варьироваться от 1-2 мегабайт и до 500-600 гигабайт.
Я нашел некоторую информацию о Hadoop и HDFS, но это выглядит немного сложнее, потому что мне не нужны какие-либо задания Map/Reduce и многие другие функции. Теперь я думаю использовать MongoDB и это GridFS как решение для хранения файлов.
И теперь вопросы:
- Что произойдет с gridfs, когда я попытаюсь написать несколько файлов одновременно. Будет ли какой-либо замок для операций чтения/записи? (Я буду использовать его только как хранилище файлов)
- Будут ли кэшироваться файлы из gridfs в ram и как это повлияет на производительность чтения и записи?
- Возможно, есть другие решения, которые могут более эффективно решить мою проблему?
Спасибо.