用java写一个socket 程序来抓取某个url的内容并且将url内容保存到本地

niceplay 2012-03-01 05:01:23
用java写一个socket 程序来抓取某个url的内容并且将url内容保存到本地
...全文
197 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
terry21 2012-03-07
  • 打赏
  • 举报
回复
网络爬虫,网上很多例子。
niceplay 2012-03-05
  • 打赏
  • 举报
回复
[Quote=引用 1 楼 ssyliusha 的回复:]
这个 不用socket 。。

Apache 提供了一个httpclient jar包。 你可以下载下来 没那么复杂的就可以抓去网页数据。。

或者你自己用java提供的包 但比较麻烦。。

抓去了。。复杂的是去解析。。
[/Quote]
要求用啊,我也没办法啊
Ajava攻城师 2012-03-04
  • 打赏
  • 举报
回复
HttpClient抓取内容,要是再解析指定的内容再配合HTMLParser
http://dreamslink.iteye.com/blog/1396965
engourdi 2012-03-04
  • 打赏
  • 举报
回复

URL url = new URL("http://baidu.com");
Scanner s = new Scanner(new InputStreamReader(url.openStream(), "utf-8"));
// s.useDelimiter("\\z");
StringBuilder pb = new StringBuilder();
while(s.hasNext()){
pb.append(s.next());
}
FileWriter fw = new FileWriter("d:/writertest.txt");
BufferedWriter bw = new BufferedWriter(fw);
PrintWriter pw = new PrintWriter(bw);
pw.print(pb.toString());
pw.close();
bw.close();
fw.close();

感觉用url的方便一点呢,不知道这个存文件是不是楼主的意思
ssyliusha 2012-03-02
  • 打赏
  • 举报
回复
这个 不用socket 。。

Apache 提供了一个httpclient jar包。 你可以下载下来 没那么复杂的就可以抓去网页数据。。

或者你自己用java提供的包 但比较麻烦。。

抓去了。。复杂的是去解析。。

62,614

社区成员

发帖
与我相关
我的任务
社区描述
Java 2 Standard Edition
社区管理员
  • Java SE
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧