GET循环1k个URL,是否会出现丢包现象?

柳晛 2009-05-26 09:08:37
for(int i = 0; i < URL.Lenth; i++)
{
WebClient wc = new WebClient();

wc.Credentials = CredentialCache.DefaultCredentials;

Byte[] pageData = wc.DownloadData(URL[i]);

string nrGB2312 = Encoding.Default.GetString(pageData);

string nrUTF8 = Encoding.UTF8.GetString(pageData);
}


我试过WebRequest,好像还不如WebClient好用,而且WebRequest速度也慢。

不知道是否存在丢包,因为我在IndexOf收到的html时发现有的字符找不到,用浏览器查看该url的源文件是可以找到的。
...全文
64 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
柳晛 2009-05-26
  • 打赏
  • 举报
回复
谢谢各位,已经试用中断追到出错地方,不是丢包问题,是逻辑问题,尚未解决,我自己研究研究吧。
HDNGO 2009-05-26
  • 打赏
  • 举报
回复
可以指定到循环次数调试的。。。
柳晛 2009-05-26
  • 打赏
  • 举报
回复
[Quote=引用 2 楼 CGabriel 的回复:]
TCP 协议会丢包吗
[/Quote]
理论上不会,但是我的确找不到它里面的字符,我不知道循环中的变量到底出现了什么错误,1000多次哩,F11逐句能累死我。
会不会出现粘包呢?按说也不会...
CGabriel 2009-05-26
  • 打赏
  • 举报
回复
TCP 协议会丢包吗

110,536

社区成员

发帖
与我相关
我的任务
社区描述
.NET技术 C#
社区管理员
  • C#
  • Web++
  • by_封爱
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

让您成为最强悍的C#开发者

试试用AI创作助手写篇文章吧