Я хотел бы загрузить веб-страницы при отправке URL-адресов из stdin. По существу, один процесс непрерывно создает URL-адреса для stdout/file, и я хочу связать их с wget или curl. (Подумайте об этом как о простом веб-искателе, если хотите).
Это работает нормально:
tail 1.log | wget -i - -O - -q
Но когда я использую 'tail -f', и он больше не работает (буферизация или wget ждут EOF?):
tail -f 1.log | wget -i - -O - -q
Может ли кто-нибудь предоставить решение с помощью wget, curl или любого другого стандартного инструмента Unix? В идеале я не хочу перезапускать wget в цикле, просто продолжайте загружать URL-адреса по мере их появления.