Я попросил 100 страниц, что все 404. Я написал
{
var s = DateTime.Now;
for(int i=0; i < 100;i++)
DL.CheckExist("http://google.com/lol" + i.ToString() + ".jpg");
var e = DateTime.Now;
var d = e-s;
d=d;
Console.WriteLine(d);
}
static public bool CheckExist(string url)
{
HttpWebRequest wreq = null;
HttpWebResponse wresp = null;
bool ret = false;
try
{
wreq = (HttpWebRequest)WebRequest.Create(url);
wreq.KeepAlive = true;
wreq.Method = "HEAD";
wresp = (HttpWebResponse)wreq.GetResponse();
ret = true;
}
catch (System.Net.WebException)
{
}
finally
{
if (wresp != null)
wresp.Close();
}
return ret;
}
Два прогона показывают, что он занимает 00: 00: 30.7968750 и 00: 00: 26.8750000. Затем я попробовал firefox и использовал следующий код
<html>
<body>
<script type="text/javascript">
for(var i=0; i<100; i++)
document.write("<img src=http://google.com/lol" + i + ".jpg><br>");
</script>
</body>
</html>
Использование моего времени comp и подсчета было примерно 4 секунды. 4 секунды - это 6.5-7.5faster, а затем мое приложение. Я планирую сканировать через тысячи файлов, поэтому принятие 3,75 часов вместо 30 минут будет большой проблемой. Как я могу сделать этот код быстрее? Я знаю, кто-то скажет, что firefox кэширует изображения, но я хочу сказать: 1) он все равно должен проверять заголовки с удаленного сервера, чтобы узнать, обновлено ли это (что я хочу, чтобы мое приложение выполняло) 2) Я не получая тело, мой код должен запрашивать только заголовок. Итак, как я могу это решить?