rss订阅同样的代码为什么显示的不一样?

qubaaita 2014-08-29 08:42:22
http://www.e2w.com.cn/rss.php
显示:

http://www.e3w.com.cn/rss.php
显示:
...全文
191 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
qubaaita 2014-09-18
  • 打赏
  • 举报
回复
是我太大意了
qubaaita 2014-09-18
  • 打赏
  • 举报
回复
问题已经解决,正确的答案是:http://bbs.phpchina.com/forum.php?mod=viewthread&tid=287028
www_7di_net 2014-08-30
  • 打赏
  • 举报
回复
http://blog.csdn.net/chenanlin1981/article/details/840536 這篇文章還行,你可以參考之
www_7di_net 2014-08-30
  • 打赏
  • 举报
回复
這是瀏覽器渲染的問題,其實你可以自己用xls來修飾一下就行了.跟css一樣的原理.
一、软件简介 AMR超级站群系统是一款全自动采集建站的web应用程序,目前支持95%以上的网站采集。 相对于市面上其他小偷程序或采集工具,本程序具有如下特点: 1.安装方便、使用简单:只需输入想要采集的目标站网址信息,即可将目标站内容自动采集过来;通过配置替换规则,修改CSS即可定制化网站布局和内容; 2.支持静态生成、并按需更新静态:只有用户(包括搜索引擎)访问的页面才会被采集,并且生成静态,不会给目标站造成大流量压力;即使目标站宕掉,本站依然正常工作; 3.自动按需更新静态:后台设置静态更新时间,会根据访客的访问情况自动更新静态,保持和目标站内容一致; 4.支持多子**采集:如果目标站使用了多个二级**,本站亦可自动将所有二级**的站点内容采集过来,形成一个站点; 5.可选图片采集:如果启用图片采集,可以将目标站所有图片自动采集到本站服务器,有利于搜索引擎优化(此功能可能会占用大量硬盘空间,推荐有独立服务器或VPS用户使用); 6.突破图片防盗链:开启图片采集功能,即使对方有图片防盗链功能,亦可轻松突破; 7.支持不同**的图片采集:比如淘宝、新浪这样的大型站点,图片和网站使用了不同的**;本程序亦可将所有图片采集过来,同样可突破图片盗链; 8.可任意修改网页内容/广告:通过替换规则、删除规则、节点规则,可以将网站标题、广告、指定内容替换成自己想要的内容(html代码替换);可以删除不需要的内容; 9.支持正则表达式替换、删除;支持Xpath语法替换、删除、增加或修改节点元素; 10.支持RSS订阅源的自定义调用:程序内置了百度风云榜调用规则,可以轻松在网页任何位置显示百度风云榜,并形成站内聚合搜索; 11.支持站内聚合搜索:站内聚合搜索可以搜索站内内容,如果站内不存在的内容,可以自定义搜索数据来源直接采集其他网站的数据;并且支持中文分词! 12.可以方便创建聚合搜索引擎、比价网、购物搜索网站:通过站内聚合搜索功能,可以自定义N个搜索数据来源,通过自定义显示模板,即可创建聚合搜索引擎、比价网、购物搜索网站; 13.可以使用本程序帮助企业站生成静态,提高企业站安全性:一般动态网站,可以外挂本程序自动生成静态页,静态页可按照设置定时更新; 14.支持代理服务器采集,避免目标站点封IP; 15.提取规则和多站点采集功能:通过这个功能,可以方便的把多个目标站整合成为一个网站!提取规则的目的是可以提取第N方网站的内容填充到你的网站里面,这样就可以和你现在的网站实现无缝对接,您可以利用您之前的网站自己发布内容,用AMR系统来采集整站,实现内容自动更新;由于网页内容是由多个网站的内容组成,也相当于原创的内容了。 16.可以设置不静态化地址:这个功能主要是针对搜索页面,如果搜索页面如果静态化后,搜索不同关键词,显示结果就都一样了,因此要把搜索页面添加到非静态化列表中。 17.强大的广告管理功能:内置广告提取规则,目前可以匹配常用的广告代码,用户只需替换对应尺寸的广告代码即可。 18.自动多语言翻译:支持全球65种语言的全自动互译,达到内容原创效果! 19.错误页自动进行301重定向:如果您更换了目标站,那么原来搜索引擎收录的地址就会报错,这样容易导致K站;现在如果访问到不存在的页面,会提示友好的错误页面,并5秒后自动跳转到网站首页(权重也会转移到首页),告诉搜索引擎原页面已经不存在,让其删除收录的索引,减少被K的风险! 20.建站速度飞快:用户安装AMR超级站群系统时,只需要将目标站根**、本站根**、网站编码写入到一个CSV文件里面,上传到系统即可完成建站; 21.超级方便的广告管理:内置广告提取代码,可以匹配大约80%的广告位,用户只需要替换里面的广告代码,即可批量管理所有站群的广告位!此外,还可批量添加整个站群统一的广告位! 22.支持集群化部署,宕机自动切换:服务器不稳定,一直是网站杀手!我们的方案支持集群化部署,做到多个服务器负载均衡,即使一台服务器宕机,也不会影响网站正常访问! 23.无垃圾文件生成,速度超快:所有采集的内容全部在内存中,避免垃圾文件生成,响应时间超快!过期自动清理内存,使服务器永远保持最高性能运行! 24.专业化的服务器设置:我们将全程协助授权用户设置服务器,确保服务器在稳定的同时,发挥出最大的性能! 25.外链劫持功能:新增外链劫持功能,可以方便的将外链变成内链,并投放广告,配合【AMR web代理系统:http://uwz.cc/11H 】使用,效果最佳!懂的朋友可以参考go.aspx这个文件自行修改! 26.内置文章系统,可以自行添加文章,并自定义模板显示,弥补了纯粹采集系统的不足; 二、安装说明 AMR超级站群系统要求:您的服务器必须支持.net framework 4.0, 必须使用MSSQL2
codeceo 首页问答热门文章RSS订阅 文章首页 Java JavaScript PHP iOS Android HTML5 CSS3 Linux C++ Python C# Node.Js 一文让你彻底理解 Java HashMap 和 ConcurrentHashMap 2018-07-25 分类:JAVA开发、编程开发、首页精华0人评论 来源:crossoverjie.top 分享到:更多0 前言 Map 这样的 Key Value 在软件开发中是非常经典的结构,常用于在内存中存放数据。 本篇主要想讨论 ConcurrentHashMap 这样一个并发容器,在正式开始之前我觉得有必要谈谈 HashMap,没有它就不会有后面的 ConcurrentHashMap。 HashMap 众所周知 HashMap 底层是基于 数组 + 链表 组成的,不过在 jdk1.7 和 1.8 中具体实现稍有不同。 Base 1.7 1.7 中的数据结构图: 先来看看 1.7 中的实现。 这是 HashMap 中比较核心的几个成员变量;看看分别是什么意思? 初始化桶大小,因为底层是数组,所以这是数组默认的大小。 桶最大值。 默认的负载因子(0.75) table 真正存放数据的数组。 Map 存放数量的大小。 桶大小,可在初始化时显式指定。 负载因子,可在初始化时显式指定。 重点解释下负载因子: 由于给定的 HashMap 的容量大小是固定的,比如默认初始化: public HashMap() { this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR); } public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; threshold = initialCapacity; init(); } 给定的默认容量为 16,负载因子为 0.75。Map 在使用过程中不断的往里面存放数据,当数量达到了 16 * 0.75 = 12 就需要将当前 16 的容量进行扩容,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。 因此通常建议能提前预估 HashMap 的大小最好,尽量的减少扩容带来的性能损耗。 根据代码可以看到其实真正存放数据的是 transient Entry[] table = (Entry[]) EMPTY_TABLE; 这个数组,那么它又是如何定义的呢? Entry 是 HashMap 中的一个内部类,从他的成员变量很容易看出: key 就是写入时的键。 value 自然就是值。 开始的时候就提到 HashMap 是由数组和链表组成,所以这个 next 就是用于实现链表结构。 hash 存放的是当前 key 的 hashcode。 知晓了基本结构,那来看看其中重要的写入、获取函数: put 方法 public V put(K key, V value) { if (table == EMPTY_TABLE) { inflateTable(threshold); } if (key == null) return putForNullKey(value); int hash = hash(key); int i = indexFor(hash, table.length); for (Entry e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(hash, key, value, i); return null; } 判断当前数组是否需要初始化。 如果 key 为空,则 put 一个空值进去。 根据 key 计算出 hashcode。 根据计算出的 hashcode 定位出所在桶。 如果桶是一个链表则需要遍历判断里面的 hashcode、key 是否和传入 key 相等,如果相等则进行覆盖,并返回原来的值。 如果桶是空的,说明当前位置没有数据存入;新增一个 Entry 对象写入当前位置。 void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); } void createEntry(int hash, K key, V value, int bucketIndex) { Entry e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); size++; } 当调用 addEntry 写入 Entry 时需要判断是否需要扩容。 如果需要就进行两倍扩充,并将当前的 key 重新 hash 并定位。 而在 createEntry 中会将当前位置的桶传入到新建的桶中,如果当前桶有值就会在位置形成链表。 get 方法 再来看看 get 函数: public V get(Object key) { if (key == null) return getForNullKey(); Entry entry = getEntry(key); return null == entry ? null : entry.getValue(); } final Entry getEntry(Object key) { if (size == 0) { return null; } int hash = (key == null) ? 0 : hash(key); for (Entry e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } return null; } 首先也是根据 key 计算出 hashcode,然后定位到具体的桶中。 判断该位置是否为链表。 不是链表就根据 key、key 的 hashcode 是否相等来返回值。 为链表则需要遍历直到 key 及 hashcode 相等时候就返回值。 啥都没取到就直接返回 null 。 Base 1.8 不知道 1.7 的实现大家看出需要优化的点没有? 其实一个很明显的地方就是: 当 Hash 冲突严重时,在桶上形成的链表会变的越来越长,这样在查询时的效率就会越来越低;时间复杂度为 O(N)。 因此 1.8 中重点优化了这个查询效率。 1.8 HashMap 结构图: 先来看看几个核心的成员变量: static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 /** * The maximum capacity, used if a higher value is implicitly specified * by either of the constructors with arguments. * MUST be a power of two <= 1<<30. */ static final int MAXIMUM_CAPACITY = 1 << 30; /** * The load factor used when none specified in constructor. */ static final float DEFAULT_LOAD_FACTOR = 0.75f; static final int TREEIFY_THRESHOLD = 8; transient Node[] table; /** * Holds cached entrySet(). Note that AbstractMap fields are used * for keySet() and values(). */ transient Set> entrySet; /** * The number of key-value mappings contained in this map. */ transient int size; 和 1.7 大体上都差不多,还是有几个重要的区别: TREEIFY_THRESHOLD 用于判断是否需要将链表转换为红黑树的阈值。 HashEntry 修改为 Node。 Node 的核心组成其实也是和 1.7 中的 HashEntry 一样,存放的都是 key value hashcode next 等数据。 再来看看核心方法。 put 方法 看似要比 1.7 的复杂,我们一步步拆解: 判断当前桶是否为空,空的就需要初始化(resize 中会判断是否进行初始化)。 根据当前 key 的 hashcode 定位到具体的桶中并判断是否为空,为空表明没有 Hash 冲突就直接在当前位置创建一个新桶即可。 如果当前桶有值( Hash 冲突),那么就要比较当前桶中的 key、key 的 hashcode 与写入的 key 是否相等,相等就赋值给 e,在第 8 步的时候会统一进行赋值及返回。 如果当前桶为红黑树,那就要按照红黑树的方式写入数据。 如果是个链表,就需要将当前的 key、value 封装成一个新节点写入到当前桶的后面(形成链表)。 接着判断当前链表的大小是否大于预设的阈值,大于时就要转换为红黑树。 如果在遍历过程中找到 key 相同时直接退出遍历。 如果 e != null 就相当于存在相同的 key,那就需要将值覆盖。 最后判断是否需要进行扩容。 get 方法 public V get(Object key) { Node e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node getNode(int hash, Object key) { Node[] tab; Node first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { if (first instanceof TreeNode) return ((TreeNode)first).getTreeNode(hash, key); do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; } get 方法看起来就要简单许多了。 首先将 key hash 之后取得所定位的桶。 如果桶为空则直接返回 null 。 否则判断桶的第一个位置(有可能是链表、红黑树)的 key 是否为查询的 key,是就直接返回 value。 如果第一个不匹配,则判断它的下一个是红黑树还是链表。 红黑树就按照树的查找方式返回值。 不然就按照链表的方式遍历匹配返回值。 从这两个核心方法(get/put)可以看出 1.8 中对大链表做了优化,修改为红黑树之后查询效率直接提高到了 O(logn)。 但是 HashMap 原有的问题也都存在,比如在并发场景下使用时容易出现死循环。 final HashMap map = new HashMap(); for (int i = 0; i < 1000; i++) { new Thread(new Runnable() { @Override public void run() { map.put(UUID.randomUUID().toString(), ""); } }).start(); } 但是为什么呢?简单分析下。 看过上文的还记得在 HashMap 扩容的时候会调用 resize() 方法,就是这里的并发操作容易在一个桶上形成环形链表;这样当获取一个不存在的 key 时,计算出的 index 正好是环形链表的下标就会出现死循环。 如下图: 遍历方式 还有一个值得注意的是 HashMap 的遍历方式,通常有以下几种: Iterator> entryIterator = map.entrySet().iterator(); while (entryIterator.hasNext()) { Map.Entry next = entryIterator.next(); System.out.println("key=" + next.getKey() + " value=" + next.getValue()); } Iterator<String> iterator = map.keySet().iterator(); while (iterator.hasNext()){ String key = iterator.next(); System.out.println("key=" + key + " value=" + map.get(key)); } 强烈建议使用第一种 EntrySet 进行遍历。 第一种可以把 key value 同时取出,第二种还得需要通过 key 取一次 value,效率较低。 简单总结下 HashMap:无论是 1.7 还是 1.8 其实都能看出 JDK 没有对它做任何的同步操作,所以并发会出问题,甚至 1.7 中出现死循环导致系统不可用(1.8 已经修复死循环问题)。 因此 JDK 推出了专项专用的 ConcurrentHashMap ,该类位于 java.util.concurrent 包下,专门用于解决并发问题。 坚持看到这里的朋友算是已经把 ConcurrentHashMap 的基础已经打牢了,下面正式开始分析。 ConcurrentHashMap ConcurrentHashMap 同样也分为 1.7 、1.8 版,两者在实现上略有不同。 Base 1.7 先来看看 1.7 的实现,下面是他的结构图: 如图所示,是由 Segment 数组、HashEntry 组成,和 HashMap 一样,仍然是数组加链表。 它的核心成员变量: /** * Segment 数组,存放数据时首先需要定位到具体的 Segment 中。 */ final Segment[] segments; transient Set keySet; transient Set> entrySet; Segment 是 ConcurrentHashMap 的一个内部类,主要的组成如下: static final class Segment extends ReentrantLock implements Serializable { private static final long serialVersionUID = 2249069246763182397L; // 和 HashMap 中的 HashEntry 作用一样,真正存放数据的桶 transient volatile HashEntry[] table; transient int count; transient int modCount; transient int threshold; final float loadFactor; } 看看其中 HashEntry 的组成: 和 HashMap 非常类似,唯一的区别就是其中的核心数据如 value ,以及链表都是 Volatile 修饰的,保证了获取时的可见性。 原理上来说:ConcurrentHashMap 采用了分段锁技术,其中 Segment 继承于 ReentrantLock。不会像 HashTable 那样不管是 put 还是 get 操作都需要做同步处理,理论上 ConcurrentHashMap 支持 CurrencyLevel (Segment 数组数量)的线程并发。每当一个线程占用锁访问一个 Segment 时,不会影响到其他的 Segment。 下面也来看看核心的 put get 方法。 put 方法 public V put(K key, V value) { Segment s; if (value == null) throw new NullPointerException(); int hash = hash(key); int j = (hash >>> segmentShift) & segmentMask; if ((s = (Segment)UNSAFE.getObject // nonvolatile; recheck (segments, (j << SSHIFT) + SBASE)) == null) // in ensureSegment s = ensureSegment(j); return s.put(key, hash, value, false); } 首先是通过 key 定位到 Segment,之后在对应的 Segment 中进行具体的 put。 final V put(K key, int hash, V value, boolean onlyIfAbsent) { HashEntry node = tryLock() ? null : scanAndLockForPut(key, hash, value); V oldValue; try { HashEntry[] tab = table; int index = (tab.length - 1) & hash; HashEntry first = entryAt(tab, index); for (HashEntry e = first;;) { if (e != null) { K k; if ((k = e.key) == key || (e.hash == hash && key.equals(k))) { oldValue = e.value; if (!onlyIfAbsent) { e.value = value; ++modCount; } break; } e = e.next; } else { if (node != null) node.setNext(first); else node = new HashEntry(hash, key, value, first); int c = count + 1; if (c > threshold && tab.length < MAXIMUM_CAPACITY) rehash(node); else setEntryAt(tab, index, node); ++modCount; count = c; oldValue = null; break; } } } finally { unlock(); } return oldValue; } 虽然 HashEntry 中的 value 是用 volatile 关键词修饰的,但是并不能保证并发的原子性,所以 put 操作时仍然需要加锁处理。 首先第一步的时候会尝试获取锁,如果获取失败肯定就有其他线程存在竞争,则利用 scanAndLockForPut() 自旋获取锁。 尝试自旋获取锁。 如果重试的次数达到了 MAX_SCAN_RETRIES 则改为阻塞锁获取,保证能获取成功。 再结合图看看 put 的流程。 将当前 Segment 中的 table 通过 key 的 hashcode 定位到 HashEntry。 遍历该 HashEntry,如果不为空则判断传入的 key 和当前遍历的 key 是否相等,相等则覆盖旧的 value。 不为空则需要新建一个 HashEntry 并加入到 Segment 中,同时会先判断是否需要扩容。 最后会解除在 1 中所获取当前 Segment 的锁。 get 方法 public V get(Object key) { Segment s; // manually integrate access methods to reduce overhead HashEntry[] tab; int h = hash(key); long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE; if ((s = (Segment)UNSAFE.getObjectVolatile(segments, u)) != null && (tab = s.table) != null) { for (HashEntry e = (HashEntry) UNSAFE.getObjectVolatile (tab, ((long)(((tab.length - 1) & h)) << TSHIFT) + TBASE); e != null; e = e.next) { K k; if ((k = e.key) == key || (e.hash == h && key.equals(k))) return e.value; } } return null; } get 逻辑比较简单: 只需要将 Key 通过 Hash 之后定位到具体的 Segment ,再通过一次 Hash 定位到具体的元素上。 由于 HashEntry 中的 value 属性是用 volatile 关键词修饰的,保证了内存可见性,所以每次获取时都是最新值。 ConcurrentHashMap 的 get 方法是非常高效的,因为整个过程都不需要加锁。 Base 1.8 1.7 已经解决了并发问题,并且能支持 N 个 Segment 这么多次数的并发,但依然存在 HashMap 在 1.7 版本中的问题。 那就是查询遍历链表效率太低。 因此 1.8 做了一些数据结构上的调整。 首先来看下底层的组成结构: 看起来是不是和 1.8 HashMap 结构类似? 其中抛弃了原有的 Segment 分段锁,而采用了 CAS + synchronized 来保证并发安全性。 也将 1.7 中存放数据的 HashEntry 改为 Node,但作用都是相同的。 其中的 val next 都用了 volatile 修饰,保证了可见性。 put 方法 重点来看看 put 函数: 根据 key 计算出 hashcode 。 判断是否需要进行初始化。 f 即为当前 key 定位出的 Node,如果为空表示当前位置可以写入数据,利用 CAS 尝试写入,失败则自旋保证成功。 如果当前位置的 hashcode == MOVED == -1,则需要进行扩容。 如果都不满足,则利用 synchronized 锁写入数据。 如果数量大于 TREEIFY_THRESHOLD 则要转换为红黑树。 get 方法 根据计算出来的 hashcode 寻址,如果就在桶上那么直接返回值。 如果是红黑树那就按照树的方式获取值。 就不满足那就按照链表的方式遍历获取值。 1.8 在 1.7 的数据结构上做了大的改动,采用红黑树之后可以保证查询效率(O(logn)),甚至取消了 ReentrantLock 改为了 synchronized,这样可以看出在新版的 JDK 中对 synchronized 优化是很到位的。 总结 看完了整个 HashMap 和 ConcurrentHashMap 在 1.7 和 1.8 中不同的实现方式相信大家对他们的理解应该会更加到位。 其实这块也是面试的重点内容,通常的套路是: 谈谈你理解的 HashMap,讲讲其中的 get put 过程。 1.8 做了什么优化? 是线程安全的嘛? 不安全会导致哪些问题? 如何解决?有没有线程安全的并发容器? ConcurrentHashMap 是如何实现的? 1.7、1.8 实现有何不同?为什么这么做? 这一串问题相信大家仔细看完都能怼回面试官。 除了面试会问到之外平时的应用其实也蛮多,像之前谈到的 Guava 中 Cache 的实现就是利用 ConcurrentHashMap 的思想。 同时也能学习 JDK 作者大牛们的优化思路以及并发解决方案。 其实写这篇的前提是源于 GitHub 上的一个 Issues,也希望大家能参与进来,共同维护好这个项目。 分享到:更多0 继续浏览有关ConcurrentHashmapHashMapJAVA开发的文章 发表我的评论 表情插代码发布评论有人回复时邮件通知我 热门文章 成为伟大程序员的 10 个要点 如何成为一名成功的程序员 25个最基本的JavaScript面试问题及答案 程序员最核心的竞争力是什么? Java 内存模型 JMM 浅析 理解 Flexbox:你需要知道的一切 创造型职业程序员的无奈 我(作为一名开发者)所犯过的错误 黑客老王:一个人的黑客史 阿里面试回来,想和Java程序员谈一谈 职场人生 软件工程师生存指南:面试准备、工作经验和实用工具 自由职业的这两年 倾听程序员的心声真的很重要 平庸开发者的生存指南 为什么我从 Google 辞职而为自己工作 我是一名朝九晚五的程序员(你也可以!) 成为伟大程序员的 10 个要点 如何处理前任程序员留下的代码 开发人员爱开发 如何成为一名成功的程序员 版权所有,保留一切权利! © 2016 码农网 浙ICP备14003773号-1 浙公网安备 33010502000955号 商务合作QQ:290074886(请注明来意)
AMR超级站群系统源码 v1.0,AMR超级站群系统是一款全自动采集建站的web应用程序,目前支持95%以上的网站采集。相对于市面上其他站群程序或采集工具,本程序具有如下特点:安装方便、使用简单:只需输入想要采集的目标站网址信息,即可将目标站内容自动采集过来;通过配置替换规则,修改CSS即可定制化网站布局和内容; 建站速度飞快:用户安装AMR超级站群系统时,只需要将目标站根域名、本站根域名、网站编码写入到一个CSV文件里面,上传到系统即可完成建站; 支持静态生成、并按需更新静态:只有用户(包括搜索引擎)访问的页面才会被采集,并且生成静态,不会给目标站造成大流量压力;即使目标站宕掉,本站依然正常工作; 自动按需更新静态:后台设置静态更新时间,会根据访客的访问情况自动更新静态,保持和目标站内容一致; 支持多子域名采集:如果目标站使用了多个二级域名,本站亦可自动将所有二级域名的站点内容采集过来,形成一个站点; 可选图片采集:如果启用图片采集,可以将目标站所有图片自动采集到本站服务器,有利于搜索引擎优化(此功能可能会占用大量硬盘空间,推荐有独立服务器或VPS用户使用); 突破图片防盗链:开启图片采集功能,即使对方有图片防盗链功能,亦可轻松突破; 支持不同域名的图片采集:比如淘宝、新浪这样的大型站点,图片和网站使用了不同的域名;本程序亦可将所有图片采集过来,同样可突破图片盗链; 可任意修改网页内容/广告:通过替换规则、删除规则、节点规则,可以将网站标题、广告、指定内容替换成自己想要的内容(html代码替换);可以删除不需要的内容; 支持正则表达式替换、删除;支持Xpath语法替换、删除、增加或修改节点元素; 支持RSS订阅源的自定义调用:程序内置了百度风云榜调用规则,可以轻松在网页任何位置显示百度风云榜,并形成站内聚合搜索; 支持站内聚合搜索:站内聚合搜索可以搜索站内内容,如果站内不存在的内容,可以自定义搜索数据来源直接采集其他网站的数据;并且支持中文分词! 可以方便创建聚合搜索引擎、比价网、购物搜索网站:通过站内聚合搜索功能,可以自定义N个搜索数据来源,通过自定义显示模板,即可创建聚合搜索引擎、比价网、购物搜索网站; 可以使用本程序帮助企业站生成静态,提高企业站安全性:一般动态网站,可以外挂本程序自动生成静态页,静态页可按照设置定时更新; 支持代理服务器采集,避免目标站点封IP; 提取规则和多站点采集功能:通过这个功能,可以方便的把多个目标站整合成为一个网站!提取规则的目的是可以提取第N方网站的内容填充到你的网站里面,这样就可以和你现在的网站实现无缝对接,您可以利用您之前的网站自己发布内容,用AMR系统来采集整站,实现内容自动更新;由于网页内容是由多个网站的内容组成,也相当于原创的内容了。 可以设置不静态化地址:这个功能主要是针对搜索页面,如果搜索页面如果静态化后,搜索不同关键词,显示结果就都一样了,因此要把搜索页面添加到非静态化列表中。 强大的广告管理功能:内置广告提取规则,目前可以匹配常用的广告代码,用户只需替换对应尺寸的广告代码即可。 自动多语言翻译:支持全球65种语言的全自动互译,达到内容原创效果! 错误页自动进行301重定向:如果您更换了目标站,那么原来搜索引擎收录的地址就会报错,这样容易导致K站;现在如果访问到不存在的页面,会提示友好的错误页面,并5秒后自动跳转到网站首页(权重也会转移到首页),告诉搜索引擎原页面已经不存在,让其删除收录的索引,减少被K的风险! 超级方便的广告管理:内置广告提取代码,可以匹配大约80%的广告位,用户只需要替换里面的广告代码,即可批量管理所有站群的广告位!此外,还可批量添加整个站群统一的广告位! 支持集群化部署,宕机自动切换:服务器不稳定,一直是网站杀手!我们的方案支持集群化部署,做到多个服务器负载均衡,即使一台服务器宕机,也不会影响网站正常访问! 无垃圾文件生成,速度超快:所有采集的内容全部在内存中,避免垃圾文件生成,响应时间超快!过期自动清理内存,使服务器永远保持最高性能运行! 专业化的服务器设置:我们将全程协助授权用户设置服务器,确保服务器在稳定的同时,发挥出最大的性能! 二、下载及安装说明 AMR超级站群系统要求:您的服务器必须支持.net framework 4.0,必须使用MSSQL2005以上数据库版本,建议使用win2008 X64系统,16G内存(可以建200个网站)。 具体安装步骤参加论坛帮助说明:http://www.amr-lab.net/showtopic-341.html 三、升级说明 首先请备份数据库,web.config文件,然后操作如下: 请将程序包解压缩,除了web.config,install.aspx,Setup2000.sql,Setup

20,359

社区成员

发帖
与我相关
我的任务
社区描述
“超文本预处理器”,是在服务器端执行的脚本语言,尤其适用于Web开发并可嵌入HTML中。PHP语法利用了C、Java和Perl,该语言的主要目标是允许web开发人员快速编写动态网页。
phpphpstorm 技术论坛(原bbs)
社区管理员
  • 开源资源社区
  • phpstory
  • xuzuning
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧