社区
ASP
帖子详情
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
3dudu
2005-03-29 02:24:44
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
...全文
380
9
打赏
收藏
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
9 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
jhpxf
2005-03-29
打赏
举报
回复
顶
3dudu
2005-03-29
打赏
举报
回复
不要能保存为文本就行了
我看别人是把那些小说截屏,保存为图片格式的
这样<noscript><iframe src=*.html></iframe></noscript>
再屏蔽右键试试
icewolf_li
2005-03-29
打赏
举报
回复
能看到你的叶面就一定有办法保存。否则浏览器怎么把内容显示出来?
goodstuday
2005-03-29
打赏
举报
回复
虽然屏蔽了复制,保存等功能,但是在临时文件夹里还是能找得到
如果别人有心要得到,那这样是没有用的
TSD
2005-03-29
打赏
举报
回复
上面那此代码都可以实现,也是是表面功夫,只要想看别人代码稍稍动动脑就有办法看到的!
goodstuday
2005-03-29
打赏
举报
回复
虽然屏蔽了,但是在临时文件夹里还是能找得到
没有用的
dragonlyf
2005-03-29
打赏
举报
回复
<noscript>
<iframe src=*></iframe>
</noscript>
myvicy
2005-03-29
打赏
举报
回复
<noscript><iframe src=*.html></iframe></noscript> 网页将不能被另存为
. 网页不会被缓存
HTM网页
<META HTTP-EQUIV="pragma" CONTENT="no-cache">
<META HTTP-EQUIV="Cache-Control" CONTENT="no-cache, must-revalidate">
<META HTTP-EQUIV="expires" CONTENT="Wed, 26 Feb 1997 08:21:57 GMT">
或者<META HTTP-EQUIV="expires" CONTENT="0">
ASP网页
Response.Expires = -1
Response.ExpiresAbsolute = Now() - 1
Response.cachecontrol = "no-cache"
PHP网页
header("Expires: Mon, 26 Jul 1997 05:00:00 GMT");
header("Cache-Control: no-cache, must-revalidate");
header("Pragma: no-cache");
myvicy
2005-03-29
打赏
举报
回复
用iframe,还有屏蔽复制、粘贴、右键等。
但是这些都只是表面的,如果你的东西要给客户看,他就有办法保存到自己的机子上。
python爬虫之爬取
起点中文网
小说
python爬虫之爬取
起点中文网
小说 hello大家好,这篇
文章
带大家来制作一个python爬虫爬取阅文集团旗下产品
起点中文网
的程序,这篇
文章
的灵感来源于本人制作的一个项目:电脑助手 启帆助手 ⬆是项目的部分源码 准备工作 用到的库有: urllib.request lxml.etree 代码分析 第一步:导入要用到的库 from urllib import request from lxml import etree 2.第二步:设置请求头及小说网址(这里的网址以作者写的一本为例) heade
起点中文网
字体反爬技术
网页
可以显示数字字母
网页
代码是乱码或空格
我接过一段代码 # -*- coding: utf-8 -*- """ Created on Tue Mar 23 14:38:01 2021 @author: xinyi """ import xlwt import requests from lxml import etree import time all_info_list = [] def get_info(url): html = requests.get(url) selector = etree.HTML(html.
Python分析并爬取
起点中文网
的章节数据,
保存
为txt文档
如题,分析
起点中文网
,并提取出来章节链接,
保存
为txt文档。 代码仅供交流使用,请勿用作商业用途,如有违规,请联系删除 一,分析 1.打开带有章节的链接,例如:(随便选的一篇
文章
) 2.打开浏览器的抓包工具f12(我用的是谷歌浏览器),点击页面的免费试读,因为页面是在一个页面跳转,不需要多开浏览器。 抓到包会发现很杂乱,通过筛选会出现所需要的一些链接,这些链接一个个点击查看返回详情,最后发现那条蓝色链接是包含所有这篇小说的目录的。 3.可以发现这个是一个get包,变化的...
使用 Python 爬取
起点中文网
小说章节
本项目旨在开发一个高效、稳定的Python爬虫,用于从
起点中文网
批量下载小说章节内容。通过分析小说目录页面,爬虫能够提取章节标题、内容等关键信息,并将其导出为结构化的TXT或CSV文件,便于离线阅读和数据分析。项目采用异步请求技术(httpx.AsyncClient)以加速数据获取,并加入反爬处理(如伪装UA)以
防止
被封禁。此外,项目还提供了性能优化建议(如使用代理IP、设置限速延迟等)和扩展功能(如自动摘要生成、情感分析等),以提升爬虫的稳定性和实用性。最后,项目强调了法律与伦理问题,确保爬虫仅限于学习与
python分析并爬取
起点中文网
的章节数据,最后
保存
为txt文档
如题,分析
起点中文网
,并提取出来章节链接,
保存
为txt文档。 代码仅供交流使用,请勿用作商业用途,如有违规,请联系删除 一,分析 1.打开带有章节的链接,例如:(随便选的一篇
文章
) 2.打开浏览器的抓包工具f12(我用的是谷歌浏览器),点击页面的免费试读,因为页面是在一个页面跳转,不需要多开浏览器。 抓到包会发现很杂乱,通过筛选会出现所需要的一些链接,这些链接一个个点击查看返回详情,最后发现那条蓝色链接是包含所有这篇小说的目录的。 3.可以发现这个是一个get包,变化的参数有两个。 4
ASP
28,406
社区成员
356,946
社区内容
发帖
与我相关
我的任务
ASP
ASP即Active Server Pages,是Microsoft公司开发的服务器端脚本环境。
复制链接
扫一扫
分享
社区描述
ASP即Active Server Pages,是Microsoft公司开发的服务器端脚本环境。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章