帮帮我,网络搜索

kvk 2002-05-21 02:13:59
我的设想是下载一个网站的所有图片,请高手指点..一点思路也好,万分感谢!
...全文
145 11 打赏 收藏 转发到动态 举报
写回复
用AI写文章
11 条回复
切换为时间正序
请发表友善的回复…
发表回复
playboy999 2002-05-21
  • 打赏
  • 举报
回复
你好啊我现在也正在做一个比你的还要大的系统不进也是网络搜索我的是要遍历总个网站的数据信息我们可以同时进行啊我的QQ是33911139有兴趣讨论加我吧
kvk 2002-05-21
  • 打赏
  • 举报
回复
欢迎讨论,
我自己也在想
alidiedie 2002-05-21
  • 打赏
  • 举报
回复
up
hffah1749 2002-05-21
  • 打赏
  • 举报
回复
可以下载一些相关的软件进行下载
jimconrad 2002-05-21
  • 打赏
  • 举报
回复
会死循环,呵呵
jimconrad 2002-05-21
  • 打赏
  • 举报
回复
to xuying:
如果网站链接构成的是有环的图怎么办?你的方法是不是过于简单?
jimconrad 2002-05-21
  • 打赏
  • 举报
回复
一个网站还是网页?
网页的话,分析网页的html文档,得到图片路径,然后用http协议去下载。
网站的话,相当于遍历该站点主页及其所有链接页面,是一个图的遍历,需要用到数据结构的知识;还要记录已下载过的图片的全路径,以免重复下载。
pcman1990 2002-05-21
  • 打赏
  • 举报
回复
关注
jimconrad 2002-05-21
  • 打赏
  • 举报
回复
一个网站还是网页?
网页的话,分析网页的html文档,得到图片路径,然后用http协议去下载。
网站的话,相当于遍历该站点主页及其所有链接页面,是一个图的遍历,需要用到数据结构的知识;还要记录已下载过的图片的全路径,以免重复下载。
xuying 2002-05-21
  • 打赏
  • 举报
回复
1.从该网站的首页出发,解析出其中的<img src>标签,如果该img的url是这个网站的,就根据url下载这个图片。

2. 再解析出其中的<href a>标签,获得所有的链接,如果该链接的url是这个网站的,重复1的过程。知道所有的页面处理完毕。
xuying 2002-05-21
  • 打赏
  • 举报
回复
1.从该网站的首页出发,解析出其中的<img src>标签,如果该img的url是这个网站的,就根据url下载这个图片。

2. 再解析出其中的<href a>标签,获得所有的链接,如果该链接的url是这个网站的,重复1的过程。知道所有的页面处理完毕。

18,356

社区成员

发帖
与我相关
我的任务
社区描述
VC/MFC 网络编程
c++c语言开发语言 技术论坛(原bbs)
社区管理员
  • 网络编程
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧