社区
ASP
帖子详情
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
3dudu
2005-03-29 02:24:44
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
...全文
377
9
打赏
收藏
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
如何防止网页被保存?象起点中文网vip看到文章不能保存一样
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
9 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
jhpxf
2005-03-29
打赏
举报
回复
顶
3dudu
2005-03-29
打赏
举报
回复
不要能保存为文本就行了
我看别人是把那些小说截屏,保存为图片格式的
这样<noscript><iframe src=*.html></iframe></noscript>
再屏蔽右键试试
icewolf_li
2005-03-29
打赏
举报
回复
能看到你的叶面就一定有办法保存。否则浏览器怎么把内容显示出来?
goodstuday
2005-03-29
打赏
举报
回复
虽然屏蔽了复制,保存等功能,但是在临时文件夹里还是能找得到
如果别人有心要得到,那这样是没有用的
TSD
2005-03-29
打赏
举报
回复
上面那此代码都可以实现,也是是表面功夫,只要想看别人代码稍稍动动脑就有办法看到的!
goodstuday
2005-03-29
打赏
举报
回复
虽然屏蔽了,但是在临时文件夹里还是能找得到
没有用的
dragonlyf
2005-03-29
打赏
举报
回复
<noscript>
<iframe src=*></iframe>
</noscript>
myvicy
2005-03-29
打赏
举报
回复
<noscript><iframe src=*.html></iframe></noscript> 网页将不能被另存为
. 网页不会被缓存
HTM网页
<META HTTP-EQUIV="pragma" CONTENT="no-cache">
<META HTTP-EQUIV="Cache-Control" CONTENT="no-cache, must-revalidate">
<META HTTP-EQUIV="expires" CONTENT="Wed, 26 Feb 1997 08:21:57 GMT">
或者<META HTTP-EQUIV="expires" CONTENT="0">
ASP网页
Response.Expires = -1
Response.ExpiresAbsolute = Now() - 1
Response.cachecontrol = "no-cache"
PHP网页
header("Expires: Mon, 26 Jul 1997 05:00:00 GMT");
header("Cache-Control: no-cache, must-revalidate");
header("Pragma: no-cache");
myvicy
2005-03-29
打赏
举报
回复
用iframe,还有屏蔽复制、粘贴、右键等。
但是这些都只是表面的,如果你的东西要给客户看,他就有办法保存到自己的机子上。
python爬虫之爬取
起点中文网
小说
hello大家好,这篇
文章
带大家来制作一个python爬虫爬取阅文集团旗下产品
起点中文网
的程序,这篇
文章
的灵感来源于本人制作的一个项目:电脑助手 启帆助手 ⬆是项目的部分源码 准备工作 用到的库有: urllib.request...
起点中文网
字体反爬技术
网页
可以显示数字字母
网页
代码是乱码或空格
我接过一段代码 # -*- coding: utf-8 -*- """ Created on Tue Mar 23 14:38:01 2021 @author: xinyi """ import xlwt import requests... 参考资料 参考1 参考2 参考3 参考4 参考5 参考6:mango 感谢各位大佬的优秀
文章
Python分析并爬取
起点中文网
的章节数据,
保存
为txt文档
如题,分析
起点中文网
,并提取出来章节链接,
保存
为txt文档。 代码仅供交流使用,请勿用作商业用途,如有违规,请联系删除 一,分析 1.打开带有章节的链接,例如:(随便选的一篇
文章
) 2.打开浏览器的抓包...
使用 Python 爬取
起点中文网
小说章节
本项目旨在开发一个高效、稳定的Python爬虫,用于从
起点中文网
批量下载小说章节内容。通过分析小说目录页面,爬虫能够提取章节标题、内容等关键信息,并将其导出为结构化的TXT或CSV文件,便于离线阅读和数据分析。...
python分析并爬取
起点中文网
的章节数据,最后
保存
为txt文档
如题,分析
起点中文网
,并提取出来章节链接,
保存
为txt文档。 代码仅供交流使用,请勿用作商业用途,如有违规,请联系删除 一,分析 1.打开带有章节的链接,例如:(随便选的一篇
文章
) 2.打开浏览器的抓包工具...
ASP
28,406
社区成员
356,946
社区内容
发帖
与我相关
我的任务
ASP
ASP即Active Server Pages,是Microsoft公司开发的服务器端脚本环境。
复制链接
扫一扫
分享
社区描述
ASP即Active Server Pages,是Microsoft公司开发的服务器端脚本环境。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章