Подтвердить что ты не робот

SQLite Performance Benchmark - почему: память: такая медленная... только в 1,5 раза быстрее, чем на диске?

Почему: память: в sqlite так медленно?

Я пытался узнать, есть ли какие-либо улучшения производительности, полученные при использовании sqlite в базе данных или на базе SQL. В принципе, я хотел бы торговать временем запуска и памятью, чтобы получать чрезвычайно быстрые запросы, которые не попадают в диск во время приложения.

Однако следующий контрольный показатель дает мне только коэффициент 1,5X в улучшенной скорости. Здесь я генерирую 1M строк случайных данных и загружаю их как на диск, так и на память на основе той же таблицы. Затем я запускаю случайные запросы для обоих dbs, возвращая наборы размером около 300k. Я ожидал, что версия на базе памяти будет значительно быстрее, но, как уже упоминалось, я получаю только ускорение на 1,5X.

Я экспериментировал с несколькими другими размерами dbs и наборов запросов; преимущество: memory: похоже, растет, так как количество строк в db увеличивается. Я не уверен, почему преимущество настолько мало, хотя у меня было несколько гипотез:

  • используемая таблица не является достаточно большой (в строках), чтобы сделать: память: огромный победитель
  • больше объединений/таблиц сделало бы: память: преимущество более очевидным
  • происходит какое-то кэширование на уровне подключения или ОС, так что предыдущие результаты доступны каким-то образом, развращая эталонный показатель
  • есть какой-то скрытый доступ к диску, который я не вижу (я еще не пробовал, но я отключил PRAGMA для ведения журнала)

Я делаю что-то неправильно здесь? Любые мысли о том, почему: memory: не производит почти мгновенный поиск? Здесь контрольный показатель:

==> sqlite_memory_vs_disk_benchmark.py <==

#!/usr/bin/env python
"""Attempt to see whether :memory: offers significant performance benefits.

"""
import os
import time
import sqlite3
import numpy as np

def load_mat(conn,mat):
    c = conn.cursor()

    #Try to avoid hitting disk, trading safety for speed.
    #http://stackoverflow.com/info/304393
    c.execute('PRAGMA temp_store=MEMORY;')
    c.execute('PRAGMA journal_mode=MEMORY;')

    # Make a demo table
    c.execute('create table if not exists demo (id1 int, id2 int, val real);')
    c.execute('create index id1_index on demo (id1);')
    c.execute('create index id2_index on demo (id2);')
    for row in mat:
        c.execute('insert into demo values(?,?,?);', (row[0],row[1],row[2]))
    conn.commit()

def querytime(conn,query):
    start = time.time()
    foo = conn.execute(query).fetchall()
    diff = time.time() - start
    return diff

#1) Build some fake data with 3 columns: int, int, float
nn   = 1000000 #numrows
cmax = 700    #num uniques in 1st col
gmax = 5000   #num uniques in 2nd col

mat = np.zeros((nn,3),dtype='object')
mat[:,0] = np.random.randint(0,cmax,nn)
mat[:,1] = np.random.randint(0,gmax,nn)
mat[:,2] = np.random.uniform(0,1,nn)

#2) Load it into both dbs & build indices
try: os.unlink('foo.sqlite')
except OSError: pass

conn_mem = sqlite3.connect(":memory:")
conn_disk = sqlite3.connect('foo.sqlite')
load_mat(conn_mem,mat)
load_mat(conn_disk,mat)
del mat

#3) Execute a series of random queries and see how long it takes each of these
numqs = 10
numqrows = 300000 #max number of ids of each kind
results = np.zeros((numqs,3))
for qq in range(numqs):
    qsize = np.random.randint(1,numqrows,1)
    id1a = np.sort(np.random.permutation(np.arange(cmax))[0:qsize]) #ensure uniqueness of ids queried
    id2a = np.sort(np.random.permutation(np.arange(gmax))[0:qsize])
    id1s = ','.join([str(xx) for xx in id1a])
    id2s = ','.join([str(xx) for xx in id2a])
    query = 'select * from demo where id1 in (%s) AND id2 in (%s);' % (id1s,id2s)

    results[qq,0] = round(querytime(conn_disk,query),4)
    results[qq,1] = round(querytime(conn_mem,query),4)
    results[qq,2] = int(qsize)

#4) Now look at the results
print "  disk | memory | qsize"
print "-----------------------"
for row in results:
    print "%.4f | %.4f | %d" % (row[0],row[1],row[2])

Вот результаты. Обратите внимание, что диск занимает около 1,5X до тех пор, пока память используется для довольно широкого диапазона размеров запросов.

[ramanujan:~]$python -OO sqlite_memory_vs_disk_clean.py
  disk | memory | qsize
-----------------------
9.0332 | 6.8100 | 12630
9.0905 | 6.6953 | 5894
9.0078 | 6.8384 | 17798
9.1179 | 6.7673 | 60850
9.0629 | 6.8355 | 94854
8.9688 | 6.8093 | 17940
9.0785 | 6.6993 | 58003
9.0309 | 6.8257 | 85663
9.1423 | 6.7411 | 66047
9.1814 | 6.9794 | 11345

Не должно ли RAM быть почти мгновенным относительно диска? Что здесь происходит?

Изменить

Некоторые хорошие предложения здесь.

Я предполагаю, что главная точка для меня - это то, что **, вероятно, нет способа сделать: память: абсолютно быстрее, но есть способ сделать доступ к диску относительно медленнее. **

Другими словами, эталонный показатель адекватно оценивает реалистичную производительность памяти, но не реалистичную производительность диска (например, поскольку прагма cache_size слишком велика или потому, что я не делаю записи). Я буду возиться с этими параметрами и опубликовать свои результаты, когда у меня появится шанс.

Тем не менее, если есть кто-нибудь, кто думает, что я могу выжать еще больше скорости из db in-memory (кроме как поднять cache_size и default_cache_size, что я буду делать), я все уши...

4b9b3361

Ответ 1

Это связано с тем, что SQLite имеет кэш страниц. Согласно Документация, кеш-страница по умолчанию - 2000 страниц 1K или около 2 МБ. Поскольку это составляет от 75% до 90% ваших данных, неудивительно, что два числа очень похожи. Я предполагаю, что в дополнение к кешу страницы SQLite остальная часть данных все еще находится в кэш-памяти ОС. Если SQLite сбросил кеш страниц (и кеш диска), вы увидите некоторые действительно существенные отличия.

Ответ 2

Мой вопрос к вам: что вы пытаетесь сравнить?

Как уже упоминалось, SQLite: memory: DB - это то же самое, что и на основе диска, т.е. paged, и единственное различие заключается в том, что страницы никогда не записываются на диск. Таким образом, единственное различие между этими двумя - это запись на диск: memory: не нужно делать (ему также не нужно делать какие-либо чтения на диске, когда страница диска должна была выгружаться из кеша).

Но чтение/запись из кеша может представлять собой только часть времени обработки запроса, в зависимости от запроса. В вашем запросе есть предложение where с двумя большими наборами идентификаторов, из которых должны быть выделены выбранные строки, что дорого.

Как говорит Кэри Миллсап в своем блоге по оптимизации Oracle (здесь представительный пост: http://carymillsap.blogspot.com/2009/06/profiling-with-my-boy.html), вам нужно понять, какие части обработка запроса требует времени. Предполагая, что тесты набора элементов представляли 90% времени запроса, а 10% на основе диска, переходя к: memory: сохраняет только те 10%. Этот крайний пример вряд ли будет репрезентативным, но я надеюсь, что он иллюстрирует, что ваш конкретный запрос наклонены. Используйте более простой запрос, и части ввода-вывода обработки запросов будут увеличиваться, и, следовательно, преимущество: memory:.

В качестве заключительной заметки мы экспериментировали с виртуальными таблицами SQLite, где вы отвечаете за фактическое хранилище, и с помощью контейнеров С++, которые набираются в отличие от метода хранения значений ячеек SQLite, мы могли видеть существенное улучшение во время обработки: память:, но это немного для получения темы;) --DD

PS: Мне не хватает Кармы, чтобы прокомментировать самый популярный пост этой темы,   поэтому я комментирую здесь:), чтобы сказать, что последняя версия SQLite не использует 1KB   страниц по умолчанию в Windows: http://www.sqlite.org/changes.html#version_3_6_12

Ответ 3

Вы делаете SELECT, вы используете кеш памяти. Попробуйте чередовать SELECT с помощью UPDATE.

Ответ 4

База данных памяти в SQLite на самом деле является кешем страницы, который никогда не касается диска. Поэтому вы должны забыть использовать память db в SQLite для повышения производительности

Можно отключить журнал, отключить режим синхронизации, установить большой кеш страниц, и на большинстве операций вы получите почти такую ​​же производительность, но долговечность будет потеряна.

Из вашего кода абсолютно ясно, что вы ДОЛЖНЫ ВОЗВРАТИТЬ параметры команды и ТОЛЬКО BIND, потому что это привело к более 90% производительности теста.

Ответ 5

Спасибо за код. Я тестировал на 2 x XEON 2690 с 192 ГБ оперативной памяти с 4 жесткими дисками SCSI 15k в RAID 5, и результаты:

  disk | memory | qsize
-----------------------
6.3590 | 2.3280 | 15713
6.6250 | 2.3690 | 8914
6.0040 | 2.3260 | 225168
6.0210 | 2.4080 | 132388
6.1400 | 2.4050 | 264038

Значительное увеличение скорости памяти.

Ответ 6

Может ли быть, что sqlite3 фактически не записывает ваши данные на диск из кеша? что может объяснить, почему цифры похожи.

Возможно также, что ваша ОС работает подкачки из-за низкой доступной памяти?

Ответ 7

Замечу, что вы фокусируетесь на запросах, которые требуют возврата относительно больших наборов данных. Интересно, какой эффект вы увидите с меньшими наборами данных? Для возврата одной строки много раз может потребоваться, чтобы диск искал много - время произвольного доступа к памяти может быть намного быстрее.

Ответ 8

массивы numpy медленнее, чем dict и кортежи, и другие последовательности объектов, пока вы не имеете дело с 5 миллионами или более объектами в последовательности. Вы можете значительно повысить скорость обработки огромных объемов данных, итерации по ней и использования генераторов, чтобы избежать создания и воссоздания временных больших объектов.

numpy стал вашим ограничивающим фактором, поскольку он предназначен для обеспечения линейной производительности. Это не звезда с небольшими или даже большими объемами данных. Но производительность numpy не превращается в кривую по мере роста набора данных. Он остается прямой.

Кроме того, SQLite - это просто очень быстрая база данных. Быстрее, чем большинство баз данных сервера. Он задает вопрос о том, почему кто-то будет использовать базы данных NOSQL, когда легкая сверхбыстрая отказоустойчивая база данных, использующая SQL, уже много лет тестируется во всем: от браузеров до мобильных телефонов.