Я очищаю содержимое веб-сайта с помощью Python. Сначала я использовал BeautifulSoup
и Mechanize
на Python, но я увидел, что на веб-сайте была кнопка, которая создавала контент через JavaScript, поэтому я решил использовать Selenium
.
Учитывая, что я могу найти элементы и получить их содержимое с помощью Selenium с помощью методов, таких как driver.find_element_by_xpath
, какая причина заключается в использовании BeautifulSoup
, когда я мог бы просто использовать Selenium для всего?
И в этом конкретном случае мне нужно использовать Selenium, чтобы щелкнуть по кнопке JavaScript, так лучше ли использовать Selenium для синтаксического анализа или использовать Selenium и Beautiful Soup?