Подтвердить что ты не робот

TypeError: необходим байтовый объект, а не 'str' в python и CSV

TypeError: требуется объект с байтовым именем, а не 'str'

превышение ошибки при выполнении ниже кода python для сохранения данных таблицы HTML в файле Csv. не знаю, как получить rideup.pls, помогите мне.

import csv
import requests
from bs4 import BeautifulSoup

url='http://www.mapsofindia.com/districts-india/'
response=requests.get(url)
html=response.content

soup=BeautifulSoup(html,'html.parser')
table=soup.find('table', attrs={'class':'tableizer-table'})
list_of_rows=[]
for row in table.findAll('tr')[1:]:
    list_of_cells=[]
    for cell in row.findAll('td'):
        list_of_cells.append(cell.text)
    list_of_rows.append(list_of_cells)
outfile=open('./immates.csv','wb')
writer=csv.writer(outfile)
writer.writerow(["SNo", "States", "Dist", "Population"])
writer.writerows(list_of_rows)

над последней строкой.

4b9b3361

Ответ 1

Вместо Python 3 вы используете методологию Python 2.

Изменить:

outfile=open('./immates.csv','wb')

To:

outfile=open('./immates.csv','w')

и вы получите файл со следующим выходом:

SNo,States,Dist,Population
1,Andhra Pradesh,13,49378776
2,Arunachal Pradesh,16,1382611
3,Assam,27,31169272
4,Bihar,38,103804637
5,Chhattisgarh,19,25540196
6,Goa,2,1457723
7,Gujarat,26,60383628
.....

В Python 3 csv берет ввод в текстовом режиме, тогда как в Python 2 он берет его в двоичном режиме.

Отредактировано для добавления

Вот код, который я запускал:

url='http://www.mapsofindia.com/districts-india/'
html = urllib.request.urlopen(url).read()
soup = BeautifulSoup(html)
table=soup.find('table', attrs={'class':'tableizer-table'})
list_of_rows=[]
for row in table.findAll('tr')[1:]:
    list_of_cells=[]
    for cell in row.findAll('td'):
        list_of_cells.append(cell.text)
    list_of_rows.append(list_of_cells)
outfile = open('./immates.csv','w')
writer=csv.writer(outfile)
writer.writerow(['SNo', 'States', 'Dist', 'Population'])
writer.writerows(list_of_rows)

Ответ 2

У меня была такая же проблема с Python3. Мой код записывался в io.BytesIO().

Замена io.StringIO() решена.

Ответ 3

file = open('parsed_data.txt', 'w')
for link in soup.findAll('a', attrs={'href': re.compile("^http")}): print (link)
soup_link = str(link)
print (soup_link)
file.write(soup_link)
file.flush()
file.close()

В моем случае я использовал BeautifulSoup для записи .txt с Python 3.x. У него была та же проблема. Так же, как @tsduteba сказал, измените 'wb' в первой строке на 'w'.

Ответ 4

просто измените wb на w

outfile=open('./immates.csv','wb')
от

до

outfile=open('./immates.csv','w')