Я запускаю большой запрос в python script для моей базы данных postgres, используя psycopg2 (я обновлен до версии 2.5). По завершении запроса я закрываю курсор и соединение и даже запускаю gc, но процесс все еще потребляет тонну памяти (точнее, 7.3gb). Мне не хватает шага очистки?
import psycopg2
conn = psycopg2.connect("dbname='dbname' user='user' host='host'")
cursor = conn.cursor()
cursor.execute("""large query""")
rows = cursor.fetchall()
del rows
cursor.close()
conn.close()
import gc
gc.collect()