Я пытаюсь проанализировать следующий поток в ElementTree в python: " http://smarkets.s3.amazonaws.com/oddsfeed.xml" (предупреждение большого файла)
Вот что я пробовал до сих пор:
feed = urllib.urlopen("http://smarkets.s3.amazonaws.com/oddsfeed.xml")
# feed is compressed
compressed_data = feed.read()
import StringIO
compressedstream = StringIO.StringIO(compressed_data)
import gzip
gzipper = gzip.GzipFile(fileobj=compressedstream)
data = gzipper.read()
# Parse XML
tree = ET.parse(data)
но кажется, что он просто держится на compressed_data = feed.read()
, бесконечно, может быть? (Я знаю, что это большой файл, но кажется слишком длинным по сравнению с другими не сжатыми фидами, которые я анализировал, и это большое количество убивает любые выгоды от сжатия от сжатия gzip в первую очередь).
Далее я попробовал requests
, с
url = "http://smarkets.s3.amazonaws.com/oddsfeed.xml"
headers = {'accept-encoding': 'gzip, deflate'}
r = requests.get(url, headers=headers, stream=True)
но теперь
tree=ET.parse(r.content)
или
tree=ET.parse(r.text)
но они вызывают исключения.
Каков правильный способ сделать это?