Следуя моему предыдущему вопросу:
Использование "Курсоры" для подкачки в PostgreSQL
Каков хороший способ предоставить клиенту API 1 000 000 результатов базы данных?
В настоящее время мы используем PostgreSQL. Несколько предложенных методов:
- Пейджинг с использованием Cursors
- Пейджинг с использованием случайных чисел (добавьте "GREATER THAN ORDER BY" к каждому запросу)
- Пейджинг с использованием LIMIT и OFFSET (ломается для очень больших наборов данных)
- Сохраните информацию в файл и дайте клиенту загрузить ее.
- Итерация по результатам, затем отправьте данные на клиентский сервер
- Возвращает только ключи клиенту, а затем позволяет клиенту запрашивать объекты из облачных файлов, таких как Amazon S3 (все еще может потребоваться подкачка только для получения имен файлов).
Что я не думал об этом глупо и просто лучше, чем любой из этих вариантов?