有没有大侠知道在mediawiki里执行dumpbackup,怎么能根据不同的category来筛选page?

我是小鹏鹏啊 2010-08-19 09:35:44
我在编写dumpbackup命令时,遇到一个难题,希望能传入一个category的名字,从而进行筛选,获取该category下所有的页面,请问有没有大侠知道怎么办?谢谢。
...全文
153 14 打赏 收藏 转发到动态 举报
写回复
用AI写文章
14 条回复
切换为时间正序
请发表友善的回复…
发表回复
fxs_2008 2010-08-19
  • 打赏
  • 举报
回复
当然可以,我给你看了一下
进下面这页

Special:Export
里面

Add pages from category:

输入category:xxxx(或不带命名空间xxxx) ,点添加即可
CunningBoy 2010-08-19
  • 打赏
  • 举报
回复
硬啃呗,给查询参看给你,PHP手册上的例子

先连接数据库
http://www.php.net/manual/en/function.mysql-connect.php

再查询
http://www.php.net/manual/en/function.mysql-query.php
我是小鹏鹏啊 2010-08-19
  • 打赏
  • 举报
回复
我对php一窍不通...我是搞.net的
CunningBoy 2010-08-19
  • 打赏
  • 举报
回复
你不能用php写一个数据库查询语句吗?然后返回给备份脚本。
我是小鹏鹏啊 2010-08-19
  • 打赏
  • 举报
回复
类似的帖子太少..唯一搜到的一个都是建议直接去数据库里找。。。
CunningBoy 2010-08-19
  • 打赏
  • 举报
回复
我的经验是,很多英文的帖子里面有很实用的解决方法
我是小鹏鹏啊 2010-08-19
  • 打赏
  • 举报
回复
-_-||| google出来的第二条就是本帖。。。
剩下的都是E文的,貌似老外没有遇到过类似的问题,实在不行我只能通过程序模拟http request来访问wiki页面了。。回到最开始的方法。。杯具了。
CunningBoy 2010-08-19
  • 打赏
  • 举报
回复
我也没用过,只是提供思路给你,你在网上多搜搜
我是小鹏鹏啊 2010-08-19
  • 打赏
  • 举报
回复
楼上的大哥,怎么操作?具体点。。我完全没用过wiki。。最好能给个例子出来~谢谢。
CunningBoy 2010-08-19
  • 打赏
  • 举报
回复
脚本实现,用category查pageid,然后执行dumpBackup
我是小鹏鹏啊 2010-08-19
  • 打赏
  • 举报
回复
我看wiki的页面上有个export功能,那里面可以根据category先筛选出来需要的page,然后再导出。。不知道能不能通过脚本来实现。。
fxs_2008 2010-08-19
  • 打赏
  • 举报
回复
没用过这个,但根据category能不能真接查数据库?

里面有没有类似parent的字段,如果递归就递归一下。

我们用的是semantic ask 查询,简单多了
我是小鹏鹏啊 2010-08-19
  • 打赏
  • 举报
回复
通过指定pageid是可以获得不同的页面,但现在的问题是,我并不可能事先知道一个category下面所有页面的id啊,能不能通过-filter参数来指定某一个category,从而筛选出其下的所有Page?。
CunningBoy 2010-08-19
  • 打赏
  • 举报
回复
命令格式如下:
用start和end参数来指定,如果页面不连续可以分多次执行。
========================================================================
This script dumps the wiki page database into an XML interchange wrapper
format for export or backup.

XML output is sent to stdout; progress reports are sent to stderr.

Usage: php dumpBackup.php <action> [<options>]
Actions:
--full Dump complete history of every page.
--current Includes only the latest revision of each page.
--logs Dump action logs for every page.

Options:
--quiet Don't dump status reports to stderr.
--report=n Report position and speed after every n pages processed.
(Default: 100)
--server=h Force reading from MySQL server h
--start=n Start from page_id n
--end=n Stop before page_id n (exclusive)

--skip-header Don't output the <mediawiki> header
--skip-footer Don't output the </mediawiki> footer
--stub Don't perform old_text lookups; for 2-pass dump
--uploads Include upload records (experimental)

Fancy stuff:
--plugin=<class>[:<file>] Load a dump plugin class
--output=<type>:<file> Begin a filtered output stream;
<type>s: file, gzip, bzip2, 7zip
--filter=<type>[:<options>] Add a filter on an output branch

20,359

社区成员

发帖
与我相关
我的任务
社区描述
“超文本预处理器”,是在服务器端执行的脚本语言,尤其适用于Web开发并可嵌入HTML中。PHP语法利用了C、Java和Perl,该语言的主要目标是允许web开发人员快速编写动态网页。
phpphpstorm 技术论坛(原bbs)
社区管理员
  • 开源资源社区
  • phpstory
  • xuzuning
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧