帮我看看这个配置文件,如何设置

readersm68 2004-08-11 05:46:19
web.config文件

<?xml version="1.0" encoding="utf-8" ?>
<configuration>


<appSettings>
<add key="dsn" value="server=localhost;uid=netfriend;password=19771231;database=cnpg_news" />
<add key="dsn1" value="server=localhost;database=cnpg_news;Trusted_Connection=no;user id=netfriend;pwd=19771231;" />
</appSettings>
<system.web>
<compilation defaultLanguage="C#" debug="true"/>
<identity impersonate="true" userName="administrator" password="197869"/>

<pages validateRequest="false" />
<customErrors mode="Off" />
<globalization fileEncoding="gb2312" requestEncoding="gb2312" responseEncoding="gb2312" />
<httpRuntime maxRequestLength="5655648" />
<authentication mode="Windows" />
<sessionState mode="InProc" cookieless="true" timeout="80"/>
<trace enabled="true"/>

</system.web>

</configuration>

“/webnews”应用程序中的服务器错误。
--------------------------------------------------------------------------------

配置错误
说明: 在处理向该请求提供服务所需的配置文件时出错。请检查下面的特定错误详细信息并适当地修改配置文件。

分析器错误信息: 未能从配置文件中指定的凭据创建 Windows 用户标记。源自操作系统的错误“客户没有所需的特权。 ”

源错误:


行 9: <system.web>
行 10: <compilation defaultLanguage="C#" debug="true"/>
行 11: <identity impersonate="true" userName="administrator" password="197869"/>
行 12:
行 13: <pages validateRequest="false" />


源文件: G:\NETServices\ado+asp\WebNews\web.config 行: 11

我的系统登陆权限 userName="administrator" password="197869"/>没有错啊
...全文
138 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
readersm68 2004-08-12
  • 打赏
  • 举报
回复
zjsen(星愿)(个人观点,仅供参考.请自行验证) :你好
没有设置域,本机操作。
readersm68 2004-08-12
  • 打赏
  • 举报
回复
不是ftp设置的问题
readersm68 2004-08-12
  • 打赏
  • 举报
回复
有个部分要上传文件,系统登陆权限 userName="administrator" password="197869"/>是要有操作文件权限。可能是我的ftp停止造成的。
八爪鱼-杭州 2004-08-11
  • 打赏
  • 举报
回复
你在什么地方要用到模拟帐号了?
如果是在域中的话,要这样"域服务器名/用户名",这个错误是因为你的administrator没有权限去操作你要摸拟帐号的资源
eboywy 2004-08-11
  • 打赏
  • 举报
回复
mark没这样用过。
首先一定要知道 Scrapy爬虫框架 对新手非常的不友好,或者从某些视频网站上跟着视频学或者说从培训机构里学几天技能掌握的,主要原因有以下两个方面。框架模块内容太多,虽然只是实现了一个简单的爬虫工作,但是实际上完成一个页面的抓取在框架里最少要走8个以上的步骤,但是这些步骤都是基本都是依靠配置文件完成的,没有丰富的爬虫经验,这些模块很多都不知道是做什么的,也不知道怎么配置。基于框架内进行数据抓取仅限于那些通用的网站抓取,你就简单理解为一个完成重复工作的机器人就行了。但是如果是那种反爬比较厉害的网站那就是另外一种情况了,完全是爬虫工程师和网站开发者的一个博弈了,所以这种情况不适合任何一种爬虫框架。对于那些想在工作中摸鱼的Python工程师来说就一定要使用爬虫框架,你会发现省不少力气而且效率真心非常高,不过一切都是在对框架熟练掌握的基础上、和对业务的深刻理解来说来说。但凡说 Scrapy 无用的基本上没有认真阅读过 Scrapy 的源码,对于 Scrapy框架 中的众多功能在搭建爬虫系统的时候能想到用几个?而且是基本是没有做过大型的爬虫系统项目的。咱们倒着推这个事,你就知道为什么要用Scrapy框架了。我之前的单位是国家互联网的新闻中心,做的项目中的有一项是复现863课题舆情监控系统中的内容,使用的方法是 Scrapy爬虫框架 结合 Django Web 搭建的数据采集系统,抓取的目标对象包括新闻、博客、论坛等等,其中每天目标检测网站成千上万,如果不用框架去做这种数据采集得累死。1.抓取的数据存哪里?单纯Scrapy爬虫脚本写好了执行抓取任务时数据保存到哪里?ES、Mongodb、MySQL?如果做过开发的人都知道存 Mongodb 中,那些说把数据存到 MySQL 的人基本上99%是从培训机构里出来的,因为大多数培训机构爬虫是不讲 Mongodb 的。通过业务计算逻辑把数据传输到生产 ES 环境中。2.几千、几万个爬虫脚本应该怎么管理?很多刚入行的人都觉得爬虫脚本难写,其实并不是这样。最难的是如何管理密密麻麻数不清的爬虫脚本,这里介绍Python如何处理这个事情。管理方式无非集中,Web管理环境、GUI管理环境、手动管理环境,不管是哪一种都需要一定的开发基础和管理思路。比较省事的用别人写好的Scrapy管理框架,比如Gerapy爬虫管理框架。如同这样web直接一键管理爬虫脚本,更多内容看上面的文章,这里就不重复了。3.Scrapy如何面对反爬的?跟大多数单线抓取某个网站解决其反爬一样,只要把反爬的逻辑设置好,比如最简单的更换代理IP,更换header,解析JS生成cookie访问等等,都可以在框架中设置配置文件。4.如何提高代码编写效率以及数据爬取效率?一定要阅读源码,一定要阅读源码,一定要阅读源码你才能知道这个框架里到底有什么内容可以用。5.基于Python各种框架开发的爬虫定制化项目。

62,041

社区成员

发帖
与我相关
我的任务
社区描述
.NET技术交流专区
javascript云原生 企业社区
社区管理员
  • ASP.NET
  • .Net开发者社区
  • R小R
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

.NET 社区是一个围绕开源 .NET 的开放、热情、创新、包容的技术社区。社区致力于为广大 .NET 爱好者提供一个良好的知识共享、协同互助的 .NET 技术交流环境。我们尊重不同意见,支持健康理性的辩论和互动,反对歧视和攻击。

希望和大家一起共同营造一个活跃、友好的社区氛围。

试试用AI创作助手写篇文章吧