有没有这样的软件,知道别人网站上某个目录,然后把目录下面的所有内容download下来

isquare 2004-09-29 09:26:50
有没有这样的软件,知道别人网站上某个目录,然后把目录下面的所有内容download下来
...全文
221 12 打赏 收藏 转发到动态 举报
写回复
用AI写文章
12 条回复
切换为时间正序
请发表友善的回复…
发表回复
javahui 2004-09-29
  • 打赏
  • 举报
回复
一楼二楼正解,其余的不要误人子弟。
xiawei999 2004-09-29
  • 打赏
  • 举报
回复
告诉你个常用软件就行, 那是 网际快车 flashget 它里面附带一个小功能模块叫,资源探索器,打开网际快车后,按F7就能把它唤出来,然后把网址目录拷进去,剩下的事就让他搜吧,你再全选当吧!

觉的不错,就给点分鼓励一下,呵呵!
wyh2002 2004-09-29
  • 打赏
  • 举报
回复
用离线浏览器?
wenjianyao 2004-09-29
  • 打赏
  • 举报
回复
试试
rcky 2004-09-29
  • 打赏
  • 举报
回复
哈哈 2004-09-29
  • 打赏
  • 举报
回复
yes
LiwuxLiang 2004-09-29
  • 打赏
  • 举报
回复
Webdup,很好用。
dixiatie 2004-09-29
  • 打赏
  • 举报
回复
有,去newhua找找,我曾经用过的
nec 2004-09-29
  • 打赏
  • 举报
回复
wget
bigflyingpig 2004-09-29
  • 打赏
  • 举报
回复
li_zero 2004-09-29
  • 打赏
  • 举报
回复
有下载整个网站的,但是是要根据网页链接,如果有某个文件没有被链接,则不会被发现,就不能被下载
fengforever 2004-09-29
  • 打赏
  • 举报
回复
做梦去吧你
干脆我把根目录下所有文件都弄下来算了

595

社区成员

发帖
与我相关
我的任务
社区描述
提出问题
其他 技术论坛(原bbs)
社区管理员
  • community_281
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧