Python 的巨大内存成本
Huge cost of Memory in Python
我正在编写一段使用 Python 中的对象的代码。我有 1.1GB 的文件需要解析并转换为对象。
但是,1.1GB 的文件,它消耗了超过 7GB 的内存(我停止了它,因为它可以进一步...),这是相当大的。我使用内存分析器检查并查看发生了什么,并且...有一个我得到的结果示例:
Line # Mem usage Increment Line Contents
================================================
78 30.352 MiB 0.000 MiB @profile
79 def getInfos(listExch):
80
81 30.352 MiB 0.000 MiB SizeTot = 0
82 30.352 MiB 0.000 MiB upListExch = set()
83
84 5325.996 MiB 5295.645 MiB for exch in listExch:
85
86
87 5325.996 MiB 0.000 MiB symbExch = exch.symb
88 5325.996 MiB 0.000 MiB nameExch = exch.name
89 5325.996 MiB 0.000 MiB stList = exch.getStList()
90 5325.996 MiB 0.000 MiB upExch = Exch(symbExch,nameExch)
91
92 7572.309 MiB 2246.312 MiB for st in stList:
93
94 7572.309 MiB 0.000 MiB unexpected = False
95 7572.309 MiB 0.000 MiB symbSt = st.symb
96
97 7572.309 MiB 0.000 MiB filepath = '{0}/{1}.csv'.format(download_path,symbSt)
98
99 7572.309 MiB 0.000 MiB upSt = parseQ(st,filepath)
100 7572.309 MiB 0.000 MiB upExch.addSt(upSt)
101 5325.996 MiB -2246.312 MiB upListExch.add(upExch)
102
103 return upListExch
下面还有我写的对象模型:
Exch
是一个包含listSt
的对象,每个St
包含listQ
个对象。
class Exch:
def __init__(self,symb,name):
self.symb = symb
self.name = name
self.listSt = set()
def addSt(self,st):
self.listSt.add(st)
def setStList(self,listSt):
self.listSt = listSt
def getStList(self):
return self.listSt
class St:
def __init__(self,symb,name):
self.symb = symb
self.name = name
self.listQ = set()
def getQList(self):
return self.listQ
def addQ(self,q):
self.listQ.add(q)
class Q:
def __init__(self,date,dataH,dataM,dataL):
self.date = date
self.dataH = dataH
self.dataM = dataM
self.dataL = dataL
我是不是做错了什么?还是 Python 不适应这种数据量?
编辑:
输入listExch
包含一个Exch
对象的列表,每个st
到listSt
包含一个空的listQ
输出将与输入相同,除了每个 st
个对象中的每个 listQ
将被添加。
已经做了解析器:
def parseQ(st,filepath):
loc_date,loc_dataH,loc_dataM,loc_dataL = 0,0,0,0
with open (filepath, 'rt') as csvfile:
reader = csv.reader (csvfile,delimiter=',')
row1 = next(reader)
unexpected = False
for idx,el in enumerate(row1):
if (el == 'Date'):
loc_date = idx
elif (el == 'Number High'):
loc_dataH = idx
elif (el == 'Number Medium'):
loc_dataM = idx
elif (el == 'Number Low'):
loc_dataL = idx
else:
log.error('Unexpected format on file {}. Skip the file'.format(filepath))
unexpected = True
break
if (unexpected):
log.error('The file "{}" is not properly set'.format(filepath))
return False
else:
next(reader)
for row in reader:
try:
st.addQ(Q(row[loc_date],row[loc_dataH],row[loc_dataM],row[loc_dataL]))
return st
我一点也不惊讶。
读取 CSV 文件会生成一个行列表,每一行都指向一个元素列表。
现在,每个 是一个 PyObject
,这意味着它有一个 typeref,我认为通常使用 size_t
,并且包含它的列表必须包含它的 id(巧合的是,它只是一个指向 PyObject
的指针),所以这是两个 size_t
,即你的指针类型的大小,只是因为有 是一个元素。这甚至没有考虑元素的 "payload" 也需要一点内存的事实!
在 64 位机器上,纯结构开销为 128 位 每个元素。我不知道你的元素是什么样子的,但这很可能比实际内容更多。
一般情况下,不要这样做。如果你的数据是表格的,用 numpy 加载它,它不会有 python 个列表列表,而只是分配一大块内存来转储原始值并在访问它们时计算各个元素的地址,而不是去Python 从一个指针跳到另一个指针的路线。那样的话,你也会赢得很多速度。
我还要提一下,CSV 是一种特别不适合存储大量数据的格式。没有语言的正式定义(这就是为什么 python 的 CSV reader 有 "dialects" 的概念),它在存储浮点数方面非常低效(并且可能不精确),没有有机会在不读取 all N-1 前一行的情况下访问第 N 行,这取决于字符串解析,不能用于就地修改值,除非不改变长度字符串的...总而言之:如果您读入这些文件一次,然后将它们转换成某种实际存储方式的表格格式,那么您就做得很好了。
"but CSV is plaintext and I can read it with my text editor" 论点并不重要——没有人能够 "quickly click through" 1GB 的 CSV。因此,请尝试摆脱 CSV 文件。 Numpy,同样有一个本地存储格式,它可能适合你的目的,或者使用 HDF 或任何其他标准格式——或者如果你的 CSV 的所有元素都属于同一类型,你也可以将它们保存为你的原始字节图像数据 – 这将是最快和最 space 最有效的存储方法(但你必须 "externally" 记住数据的结构),除了稀疏性。
编辑:
正如 OP 指出的那样,that 正是他的计划:读取 CSV,验证其内容,然后将其存储在数据库中!风格不错
现在,读取可以按行进行,因此您可以读取一行(或几行),将数据存储在数据库中,忘记行,获取下一行,等等。验证可以发生在数据库中存储的数据上,可能发生在数据库的单独 "staging" 部分。
我正在编写一段使用 Python 中的对象的代码。我有 1.1GB 的文件需要解析并转换为对象。
但是,1.1GB 的文件,它消耗了超过 7GB 的内存(我停止了它,因为它可以进一步...),这是相当大的。我使用内存分析器检查并查看发生了什么,并且...有一个我得到的结果示例:
Line # Mem usage Increment Line Contents
================================================
78 30.352 MiB 0.000 MiB @profile
79 def getInfos(listExch):
80
81 30.352 MiB 0.000 MiB SizeTot = 0
82 30.352 MiB 0.000 MiB upListExch = set()
83
84 5325.996 MiB 5295.645 MiB for exch in listExch:
85
86
87 5325.996 MiB 0.000 MiB symbExch = exch.symb
88 5325.996 MiB 0.000 MiB nameExch = exch.name
89 5325.996 MiB 0.000 MiB stList = exch.getStList()
90 5325.996 MiB 0.000 MiB upExch = Exch(symbExch,nameExch)
91
92 7572.309 MiB 2246.312 MiB for st in stList:
93
94 7572.309 MiB 0.000 MiB unexpected = False
95 7572.309 MiB 0.000 MiB symbSt = st.symb
96
97 7572.309 MiB 0.000 MiB filepath = '{0}/{1}.csv'.format(download_path,symbSt)
98
99 7572.309 MiB 0.000 MiB upSt = parseQ(st,filepath)
100 7572.309 MiB 0.000 MiB upExch.addSt(upSt)
101 5325.996 MiB -2246.312 MiB upListExch.add(upExch)
102
103 return upListExch
下面还有我写的对象模型:
Exch
是一个包含listSt
的对象,每个St
包含listQ
个对象。
class Exch:
def __init__(self,symb,name):
self.symb = symb
self.name = name
self.listSt = set()
def addSt(self,st):
self.listSt.add(st)
def setStList(self,listSt):
self.listSt = listSt
def getStList(self):
return self.listSt
class St:
def __init__(self,symb,name):
self.symb = symb
self.name = name
self.listQ = set()
def getQList(self):
return self.listQ
def addQ(self,q):
self.listQ.add(q)
class Q:
def __init__(self,date,dataH,dataM,dataL):
self.date = date
self.dataH = dataH
self.dataM = dataM
self.dataL = dataL
我是不是做错了什么?还是 Python 不适应这种数据量?
编辑:
输入listExch
包含一个Exch
对象的列表,每个st
到listSt
包含一个空的listQ
输出将与输入相同,除了每个 st
个对象中的每个 listQ
将被添加。
已经做了解析器:
def parseQ(st,filepath):
loc_date,loc_dataH,loc_dataM,loc_dataL = 0,0,0,0
with open (filepath, 'rt') as csvfile:
reader = csv.reader (csvfile,delimiter=',')
row1 = next(reader)
unexpected = False
for idx,el in enumerate(row1):
if (el == 'Date'):
loc_date = idx
elif (el == 'Number High'):
loc_dataH = idx
elif (el == 'Number Medium'):
loc_dataM = idx
elif (el == 'Number Low'):
loc_dataL = idx
else:
log.error('Unexpected format on file {}. Skip the file'.format(filepath))
unexpected = True
break
if (unexpected):
log.error('The file "{}" is not properly set'.format(filepath))
return False
else:
next(reader)
for row in reader:
try:
st.addQ(Q(row[loc_date],row[loc_dataH],row[loc_dataM],row[loc_dataL]))
return st
我一点也不惊讶。
读取 CSV 文件会生成一个行列表,每一行都指向一个元素列表。
现在,每个 是一个 PyObject
,这意味着它有一个 typeref,我认为通常使用 size_t
,并且包含它的列表必须包含它的 id(巧合的是,它只是一个指向 PyObject
的指针),所以这是两个 size_t
,即你的指针类型的大小,只是因为有 是一个元素。这甚至没有考虑元素的 "payload" 也需要一点内存的事实!
在 64 位机器上,纯结构开销为 128 位 每个元素。我不知道你的元素是什么样子的,但这很可能比实际内容更多。
一般情况下,不要这样做。如果你的数据是表格的,用 numpy 加载它,它不会有 python 个列表列表,而只是分配一大块内存来转储原始值并在访问它们时计算各个元素的地址,而不是去Python 从一个指针跳到另一个指针的路线。那样的话,你也会赢得很多速度。
我还要提一下,CSV 是一种特别不适合存储大量数据的格式。没有语言的正式定义(这就是为什么 python 的 CSV reader 有 "dialects" 的概念),它在存储浮点数方面非常低效(并且可能不精确),没有有机会在不读取 all N-1 前一行的情况下访问第 N 行,这取决于字符串解析,不能用于就地修改值,除非不改变长度字符串的...总而言之:如果您读入这些文件一次,然后将它们转换成某种实际存储方式的表格格式,那么您就做得很好了。
"but CSV is plaintext and I can read it with my text editor" 论点并不重要——没有人能够 "quickly click through" 1GB 的 CSV。因此,请尝试摆脱 CSV 文件。 Numpy,同样有一个本地存储格式,它可能适合你的目的,或者使用 HDF 或任何其他标准格式——或者如果你的 CSV 的所有元素都属于同一类型,你也可以将它们保存为你的原始字节图像数据 – 这将是最快和最 space 最有效的存储方法(但你必须 "externally" 记住数据的结构),除了稀疏性。
编辑: 正如 OP 指出的那样,that 正是他的计划:读取 CSV,验证其内容,然后将其存储在数据库中!风格不错
现在,读取可以按行进行,因此您可以读取一行(或几行),将数据存储在数据库中,忘记行,获取下一行,等等。验证可以发生在数据库中存储的数据上,可能发生在数据库的单独 "staging" 部分。