Подтвердить что ты не робот

Простой скрипинг экрана с использованием jQuery

Я играл с идеей использования простого скрепера экрана с использованием jQuery, и мне интересно, возможно ли следующее.

У меня есть простая HTML-страница, и я делаю попытку (если это возможно), чтобы захватить содержимое всех элементов списка с другой страницы, например:

Главная страница:

<!-- jQuery -->
<script type='text/javascript'>
$(document).ready(function(){
$.getJSON("[URL to other page]",
  function(data){

    //Iterate through the <li> inside of the URL data
    $.each(data.items, function(item){
      $("<li/>").value().appendTo("#data");
    });

  });
});
</script>

<!-- HTML -->
<html>
    <body>
       <div id='data'></div>
    </body>
</html>

Другая страница:

//Html
<body>
    <p><b>Items to Scrape</b></p>   
    <ul>
        <li>I want to scrape what is here</li>
        <li>and what is here</li>
        <li>and here as well</li>
        <li>and append it in the main page</li>
    </ul>
</body>

Итак, возможно ли, используя jQuery, вытащить все содержимое элементов списка с внешней страницы и добавить их в div?

4b9b3361

Ответ 1

Используйте $.ajax, чтобы загрузить другую страницу в переменную, затем создайте временный элемент и используйте .html(), чтобы установить содержимое в возвращаемое значение. Пропустите через дочерние элементы элемента nodeType 1 и сохраните их первые дочерние узлы. Если внешняя страница не находится на вашем веб-сервере, вам необходимо проксировать файл с помощью собственного веб-сервера.

Что-то вроде этого:

$.ajax({
     url: "/thePageToScrape.html",
     dataType: 'text',
     success: function(data) {
          var elements = $("<div>").html(data)[0].getElementsByTagName("ul")[0].getElementsByTagName("li");
          for(var i = 0; i < elements.length; i++) {
               var theText = elements[i].firstChild.nodeValue;
               // Do something here
          }
     }
});

Ответ 2

$.get("/path/to/other/page",function(data){
  $('#data').append($('li',data));
}

Ответ 3

Если это для одного и того же домена, тогда проблем нет - решение jQuery хорошее.

Но в противном случае вы не можете получить доступ к контенту с произвольного веб-сайта, поскольку это считается угрозой безопасности. См. та же самая политика происхождения.

Есть, конечно, обходные пути на стороне сервера, такие как веб-прокси или заголовки CORS. Если вам повезет, они поддержат jsonp.

Но если вы хотите, чтобы клиентское решение работало с произвольным веб-сайтом и веб-браузером, вам не повезло. Существует предложение для смягчения этой политики, но это не повлияет на текущие веб-браузеры.

Ответ 4

Вы можете рассмотреть pjscrape:

http://nrabinowitz.github.io/pjscrape/

Это позволяет вам сделать это из командной строки, используя javascript и jQuery. Это делается с помощью PhantomJS, который является браузером без браузера (он не имеет окна и существует только для вашего использования script, поэтому вы можете загружать сложные веб-сайты, которые используют AJAX, и он будет работать так, как если бы он был реальным браузер).

Примеры не требуют пояснений, и я считаю, что это работает на всех платформах (включая Windows).

Ответ 5

Простая очистка с помощью jQuery...

// Get HTML from page
$.get( 'http://example.com/', function( html ) {

    // Loop through elements you want to scrape content from
    $(html).find("ul").find("li").each( function(){

        var text = $(this).text();
        // Do something with content

    } )

} );

Ответ 6

Используйте каналы YQL или Yahoo, чтобы сделать запрос кросс-домена для содержимого страницы html. Трубка yahoo или запрос YQL вернут это обратно как JSON, который может быть обработан jquery для извлечения и отображения требуемых данных.

С другой стороны: YQL и Yahoo связывают OBEY файл robots.txt для целевого домена и если страница длинна, то команды регулярного выражения Yahoo Pipes не будут выполняться.