Подтвердить что ты не робот

Как продлить действие Nutch для обхода статьи

Я ищу фреймворк для захвата статей, затем я нашел Nutch 2.1. Здесь мой план и вопросы в каждом:

1

Добавить страницы списка статей в url/seed.txt   Вот одна проблема. То, что я действительно хочу индексировать, это страницы статей, а не страницы списка статей. Но, если я не позволю индексировать страницу списка, Nutch ничего не сделает, потому что страница списка - это вход. Итак, как я могу индексировать только страницу статьи без страниц списка?

2

Напишите плагин для анализа "автора", "даты", "тела статьи", "заголовка" и, возможно, другой информации из html.   Интерфейс плагина Parser в Nutch 2.1:   Parse getParse (String url, страница WebPage)   И класс "WebPage" имеет некоторые предопределенные атрибуты:

public class WebPage extends PersistentBase {
  // ...
  private Utf8 baseUrl;
  // ...
  private ByteBuffer content; // <== This becomes null in IndexFilter
  // ...
  private Utf8 title;
  private Utf8 text;
  // ...
  private Map<Utf8,Utf8> headers;
  private Map<Utf8,Utf8> outlinks;
  private Map<Utf8,Utf8> inlinks;
  private Map<Utf8,Utf8> markers;
  private Map<Utf8,ByteBuffer> metadata;
  // ...
}

So, as you can see, there are 5 maps I can put my specified attributes in. But, 'headers', 'outlinks', 'inlinks' seem not used for this. Maybe I could put those information into markers or metadata. Are they designed for this purpose?
BTW, the Parser in trunk looks like: 'public ParseResult getParse(Content content)', and seems more reasonable for me.

3

После того, как статьи индексируются в Solr, другое приложение может запросить его с помощью "даты", а затем сохранить информацию о статье в Mysql.   Мой вопрос здесь: может ли Nutch хранить статью непосредственно в Mysql? Или я могу написать плагин, чтобы указать поведение индекса?

Является ли Nutch хорошим выбором для моей цели? Если нет, вы, ребята, предлагаете мне другую качественную структуру/библиотеку? Благодарим за помощь.

4b9b3361

Ответ 1

Если вы извлекаете статью из нескольких веб-сайтов, вы можете найти http://www.crawl-anywhere.com/

Он поставляется с пользовательским интерфейсом администратора, в котором вы можете указать, что вы хотите использовать экстрактор статьи из котла (что отлично). Вы также можете указать по шаблону URL-адреса, который соответствует страницам, которые вы хотите просканировать, на какую страницу вы хотите сканировать и индексировать.