获取Url的所有连接并自动补全

liulangdeyuyu 2012-12-05 10:46:53
现在获取网页源码的链接已经没问题了,就是在连接补全上还不知道该怎么弄.

获取到了连接有 xxx/a.html
../../a.html
../a.html


怎么去补全这些URL
...全文
608 6 打赏 收藏 转发到动态 举报
写回复
用AI写文章
6 条回复
切换为时间正序
请发表友善的回复…
发表回复
wm0508 2012-12-05
  • 打赏
  • 举报
回复
前缀不是网站域名的这些URL是否能完整抓取到,还是也需要补全???
liulangdeyuyu 2012-12-05
  • 打赏
  • 举报
回复
有些URL的前缀不是网站域名向这个 http://www.discuz.net/archiver/?fid-22.html
ycproc 2012-12-05
  • 打赏
  • 举报
回复
如果是别人的网站你可以用爬虫去爬,或者索引去找。 自己的就直接遍历目录。
csdn_风中雪狼 2012-12-05
  • 打赏
  • 举报
回复
引用 楼主 liulangdeyuyu 的回复:
现在获取网页源码的链接已经没问题了,就是在连接补全上还不知道该怎么弄. 获取到了连接有 xxx/a.html ../../a.html ../a.html 怎么去补全这些URL
获取到的,不全, 自己加他的域名和路径就补全了, 都获取出来了,补全没有什么难度的、 实在不知道怎么补, 在浏览器里打开,看看完整的地址跟你取出来的地址,有什么不同, 把浏览器里不同的部分补全到获取出来的地址前面就是了
wm0508 2012-12-05
  • 打赏
  • 举报
回复
自己加上去啊 WubURL="http://..."+你获取到的链接;
liulangdeyuyu 2012-12-05
  • 打赏
  • 举报
回复
找到了,谢谢大家,Uri中就有处理方法

110,534

社区成员

发帖
与我相关
我的任务
社区描述
.NET技术 C#
社区管理员
  • C#
  • Web++
  • by_封爱
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

让您成为最强悍的C#开发者

试试用AI创作助手写篇文章吧