Иногда вам приходится выполнять много промежуточных операций на одном или нескольких больших массивах Numpy. Это может привести к MemoryError
s. В моих исследованиях до сих пор, U обнаружили, что травление (Pickle, CPickle, Pytables и т.д.) И gc.collect()
- это способы смягчения этого. Мне было интересно, есть ли какие-либо другие методы, которые опытные программисты используют при работе с большими объемами данных (за исключением удаления избыточности в вашей стратегии/коде, конечно).
Кроме того, если я уверен, что нет ничего свободного. С некоторыми из этих методов, каковы компромиссы (то есть скорость, надежность и т.д.)?