sqlite真不是一般的慢啊.我晕倒了.. [问题点数:20分,结帖人minghao1039]

一键查看最优答案

确认一键查看最优答案?
本功能为VIP专享,开通VIP获取答案速率将提升10倍哦!
Bbs1
本版专家分:0
结帖率 95.45%
Bbs1
本版专家分:0
Bbs1
本版专家分:3
Bbs1
本版专家分:2
Bbs2
本版专家分:114
Blank
蓝花 2009年4月 MS-SQL Server大版内专家分月排行榜第三
Bbs1
本版专家分:1
Bbs1
本版专家分:31
Bbs1
本版专家分:6
Bbs5
本版专家分:2408
Bbs1
本版专家分:98
Bbs1
本版专家分:1
Bbs1
本版专家分:1
Bbs1
本版专家分:11
Bbs1
本版专家分:1
Bbs1
本版专家分:1
Bbs1
本版专家分:3
Python使用SQLite插入大量数据耗时问题
前言使用Python爬虫代理IP时,最先使用了<em>sqlite</em>作为存储ip数据库,<em>sqlite</em>简单、灵活、轻量、开源,和文件系统一样。而当大量插入爬取的数据时,出现了严重的耗时,查看一起资料后,发现:<em>sqlite</em>在每条insert都使用commit的时候,就相当于每次访问时都要打开一次文件,从而引起了大量的I/O操作,耗时严重。
sqlite 性能
  SQLite是一个快速数据库。但“快速”这个词本身是一个主观的和不明确的词。诚实地讲,有些事情SQLite能比其它数据库做得快,也有些事情不能。这么说吧,利用SQLite提供的配置参数,SQLite是足够快速和高效的。跟大多数其它数据库一样,SQLite使用B-tree处理索引,使用B+tree处理表数据。因此,在对单表进行查询时,SQLite要快于(或至少相当于)其它数据库的速度。在一些情况下SQLite可能不如大型数据库快,但大多数这些情况是可理解的。SQLite
sqlite 查询速度比较
以下是在  macOS 上使用 SQLPro for SQLite Read Only 版进行的查询速度对比。   select word from words_table where word &amp;gt;= '小' and word &amp;lt; '少' order by wordfrq desc           0.4s select word,wordfrq from words_tab...
SQLite性能和限制
性能和限制 SQLite是一个很快的数据库,但"快"这个词本身是一个主观的和模糊不清的词。坦白地讲,对于有些事情,SQLite比其他数据库做得快,也有些事情比不上其他数据库。利用SQLite提供的配置参数,SQLite是足够快速和高效的。与大多数数据库一样,SQLite使用B-tree做索引,使用B+-tree处理表。因此,在对单表进行查询时,平均而言,SQLite与其他数据库一样快(至少不
sqlite 速度的问题
我的环境 vs2010 + <em>sqlite</em>.net + ef4.3 + dbcontext generator 我在程序中第一次调用数据库,不管是增改删查 都很<em>慢</em>(要等1-2秒), 然后的数据库操作 速
关于Sqlite3 插入速度的问题。。。
请问, Sqlite3 的插入瓶颈为多少呢?小弟写了一个东西,每秒钟能产生 70000条,现在数据库每秒只能写入 2000条 左右,请问有什么优化的方案么? 每秒 2000 条对于 Sqlite3 来
提高 SQLite 的每秒插入性能?
Optimizing SQLite is tricky. Bulk-insert performance of a C application can vary from 85 inserts per second to over 96,000 inserts per second! Background: We are using SQLite as part of a desktop application. We have large amounts of configuration data stored in XML files that are parsed and loaded into an SQLite database for further processing when the application is initialized. SQLite is ideal for this situation because it's fast, it requires no specialized configuration, and the database is stored on disk as a single file. Rationale: Initially I was disappointed with the performance I was seeing. It turns-out that the performance of SQLite can vary significantly (both for bulk-inserts and selects) depending on how the database is configured and how you're using the API. It was not a trivial matter to figure out what all of the options and techniques were, so I thought it prudent to create this community wiki entry to share the results with Stack Overflow readers in order to save others the trouble of the same investigations. The Experiment: Rather than simply talking about performance tips in the general sense (i.e. "Use a transaction!"), I thought it best to write some C code and actually measure the impact of various options. We're going to start with some simple data: A 28 MB TAB-delimited text file (approximately 865,000 records) of the complete transit schedule for the city of Toronto My test machine is a 3.60 GHz P4 running Windows XP. The code is compiled with Visual C++ 2005 as "Release" with "Full Optimization" (/Ox) and Favor Fast Code (/Ot). I'm using the SQLite "Amalgamation", compiled directly into my test application. The SQLite version I happen to have is a bit older (3.6.7), but I suspect these results will be comparable to the latest release (please leave a comment if you think otherwise). Let's write some code! The Code: A simple C program that reads the text file line-by-line, splits the string into values and then will inserts the data into an SQLite database. In this "baseline" version of the code, the database is created, but we won't actually insert data: /************************************************************* Baseline code to experiment with SQLite performance. Input data is a 28 MB TAB-delimited text file of the complete Toronto Transit System schedule/route info from http://www.toronto.ca/open/datasets/ttc-routes/ **************************************************************/ #include &lt;stdio.h&gt; #include &lt;stdlib.h&gt; #include &lt;time.h&gt; #include &lt;string.h&gt; #include "<em>sqlite</em>3.h" #define INPUTDATA "C:\\TTC_schedule_scheduleitem_10-27-2009.txt" #define DATABASE "c:\\TTC_schedule_scheduleitem_10-27-2009.<em>sqlite</em>" #define TABLE "CREATE TABLE IF NOT EXISTS TTC (id INTEGER PRIMARY KEY, Route_ID TEXT, Branch_Code TEXT, Version INTEGER, Stop INTEGER, Vehicle_Index INTEGER, Day Integer, Time TEXT)" #define BUFFER_SIZE 256 int main(int argc, char **argv) { <em>sqlite</em>3 * db; <em>sqlite</em>3_stmt * stmt; char * sErrMsg = 0; char * tail = 0; int nRetCode; int n = 0; clock_t cStartClock; FILE * pFile; char sInputBuf [BUFFER_SIZE] = "\0"; char * sRT = 0; /* Route */ char * sBR = 0; /* Branch */ char * sVR = 0; /* Version */ char * sST = 0; /* Stop Number */ char * sVI = 0; /* Vehicle */ char * sDT = 0; /* Date */ char * sTM = 0; /* Time */ char sSQL [BUFFER_SIZE] = "\0"; /*********************************************/ /* Open the Database and create the Schema */ <em>sqlite</em>3_open(DATABASE, &amp;db); <em>sqlite</em>3_exec(db, TABLE, NULL, NULL, &amp;sErrMsg); /*********************************************/ /* Open input file and import into Database*/ cStartClock = clock(); pFile = fopen (INPUTDATA,"r"); while (!feof(pFile)) { fgets (sInputBuf, BUFFER_SIZE, pFile); sRT = strtok (sInputBuf, "\t"); /* Get Route */ sBR = strtok (NULL, "\t"); /* Get Branch */ sVR = strtok (NULL, "\t"); /* Get Version */ sST = strtok (NULL, "\t"); /* Get Stop Number */ sVI = strtok (NULL, "\t"); /* Get Vehicle */ sDT = strtok (NULL, "\t"); /* Get Date */ sTM = strtok (NULL, "\t"); /* Get Time */ /* ACTUAL INSERT WILL GO HERE */ n++; } fclose (pFile); printf("Imported %d records in %4.2f seconds\n", n, (clock() - cStartClock) / (double)CLOCKS_PER_SEC); <em>sqlite</em>3_close(db); return 0; } The "Control" Running the code as-is doesn't actually perform any database operations, but it will give us an idea of how fast the raw C file I/O and string processing operations are. Imported 864913 records in 0.94 seconds Great! We can do 920,000 inserts per second, provided we don't actually do any inserts :-) The "Worst-Case-Scenario" We're going to generate the SQL string using the values read from the file and invoke that SQL operation using <em>sqlite</em>3_exec: sprintf(sSQL, "INSERT INTO TTC VALUES (NULL, '%s', '%s', '%s', '%s', '%s', '%s', '%s')", sRT, sBR, sVR, sST, sVI, sDT, sTM); <em>sqlite</em>3_exec(db, sSQL, NULL, NULL, &amp;sErrMsg); This is going to be slow because the SQL will be compiled into VDBE code for every insert and every insert will happen in its own transaction. How slow? Imported 864913 records in 9933.61 seconds Yikes! 2 hours and 45 minutes! That's only 85 inserts per second. Using a Transaction By default, SQLite will evaluate every INSERT / UPDATE statement within a unique transaction. If performing a large number of inserts, it's advisable to wrap your operation in a transaction: <em>sqlite</em>3_exec(db, "BEGIN TRANSACTION", NULL, NULL, &amp;sErrMsg); pFile = fopen (INPUTDATA,"r"); while (!feof(pFile)) { ... } fclose (pFile); <em>sqlite</em>3_exec(db, "END TRANSACTION", NULL, NULL, &amp;sErrMsg); Imported 864913 records in 38.03 seconds That's better. Simply wrapping all of our inserts in a single transaction improved our performance to 23,000 inserts per second. Using a Prepared Statement Using a transaction was a huge improvement, but recompiling the SQL statement for every insert doesn't make sense if we using the same SQL over-and-over. Let's use <em>sqlite</em>3_prepare_v2 to compile our SQL statement once and then bind our parameters to that statement using <em>sqlite</em>3_bind_text: /* Open input file and import into the database */ cStartClock = clock(); sprintf(sSQL, "INSERT INTO TTC VALUES (NULL, @RT, @BR, @VR, @ST, @VI, @DT, @TM)"); <em>sqlite</em>3_prepare_v2(db, sSQL, BUFFER_SIZE, &amp;stmt, &amp;tail); <em>sqlite</em>3_exec(db, "BEGIN TRANSACTION", NULL, NULL, &amp;sErrMsg); pFile = fopen (INPUTDATA,"r"); while (!feof(pFile)) { fgets (sInputBuf, BUFFER_SIZE, pFile); sRT = strtok (sInputBuf, "\t"); /* Get Route */ sBR = strtok (NULL, "\t"); /* Get Branch */ sVR = strtok (NULL, "\t"); /* Get Version */ sST = strtok (NULL, "\t"); /* Get Stop Number */ sVI = strtok (NULL, "\t"); /* Get Vehicle */ sDT = strtok (NULL, "\t"); /* Get Date */ sTM = strtok (NULL, "\t"); /* Get Time */ <em>sqlite</em>3_bind_text(stmt, 1, sRT, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_bind_text(stmt, 2, sBR, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_bind_text(stmt, 3, sVR, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_bind_text(stmt, 4, sST, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_bind_text(stmt, 5, sVI, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_bind_text(stmt, 6, sDT, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_bind_text(stmt, 7, sTM, -1, SQLITE_TRANSIENT); <em>sqlite</em>3_step(stmt); <em>sqlite</em>3_clear_bindings(stmt); <em>sqlite</em>3_reset(stmt); n++; } fclose (pFile); <em>sqlite</em>3_exec(db, "END TRANSACTION", NULL, NULL, &amp;sErrMsg); printf("Imported %d records in %4.2f seconds\n", n, (clock() - cStartClock) / (double)CLOCKS_PER_SEC); <em>sqlite</em>3_finalize(stmt); <em>sqlite</em>3_close(db); return 0; Imported 864913 records in 16.27 seconds Nice! There's a little bit more code (don't forget to call <em>sqlite</em>3_clear_bindings and <em>sqlite</em>3_reset), but we've more than doubled our performance to 53,000 inserts per second. PRAGMA synchronous = OFF By default, SQLite will pause after issuing a OS-level write command. This guarantees that the data is written to the disk. By setting synchronous = OFF, we are instructing SQLite to simply hand-off the data to the OS for writing and then continue. There's a chance that the database file may become corrupted if the computer suffers a catastrophic crash (or power failure) before the data is written to the platter: /* Open the database and create the schema */ <em>sqlite</em>3_open(DATABASE, &amp;db); <em>sqlite</em>3_exec(db, TABLE, NULL, NULL, &amp;sErrMsg); <em>sqlite</em>3_exec(db, "PRAGMA synchronous = OFF", NULL, NULL, &amp;sErrMsg); Imported 864913 records in 12.41 seconds The improvements are now smaller, but we're up to 69,600 inserts per second. PRAGMA journal_mode = MEMORY Consider storing the rollback journal in memory by evaluating PRAGMA journal_mode = MEMORY. Your transaction will be faster, but if you lose power or your program crashes during a transaction you database could be left in a corrupt state with a partially-completed transaction: /* Open the database and create the schema */ <em>sqlite</em>3_open(DATABASE, &amp;db); <em>sqlite</em>3_exec(db, TABLE, NULL, NULL, &amp;sErrMsg); <em>sqlite</em>3_exec(db, "PRAGMA journal_mode = MEMORY", NULL, NULL, &amp;sErrMsg); Imported 864913 records in 13.50 seconds A little slower than the previous optimization at 64,000 inserts per second. PRAGMA synchronous = OFF and PRAGMA journal_mode = MEMORY Let's combine the previous two optimizations. It's a little more risky (in case of a crash), but we're just importing data (not running a bank): /* Open the database and create the schema */ <em>sqlite</em>3_open(DATABASE, &amp;db); <em>sqlite</em>3_exec(db, TABLE, NULL, NULL, &amp;sErrMsg); <em>sqlite</em>3_exec(db, "PRAGMA synchronous = OFF", NULL, NULL, &amp;sErrMsg); <em>sqlite</em>3_exec(db, "PRAGMA journal_mode = MEMORY", NULL, NULL, &amp;sErrMsg); Imported 864913 records in 12.00 seconds Fantastic! We're able to do 72,000 inserts per second. Using an In-Memory Database Just for kicks, let's build upon all of the previous optimizations and redefine the database filename so we're working entirely in RAM: #define DATABASE ":memory:" Imported 864913 records in 10.94 seconds It's not super-practical to store our database in RAM, but it's impressive that we can perform 79,000 inserts per second. Refactoring C Code Although not specifically an SQLite improvement, I don't like the extra char* assignment operations in the while loop. Let's quickly refactor that code to pass the output of strtok() directly into <em>sqlite</em>3_bind_text(), and let the compiler try to speed things up for us: pFile = fopen (INPUTDATA,"r"); while (!feof(pFile)) { fgets (sInputBuf, BUFFER_SIZE, pFile); <em>sqlite</em>3_bind_text(stmt, 1, strtok (sInputBuf, "\t"), -1, SQLITE_TRANSIENT); /* Get Route */ <em>sqlite</em>3_bind_text(stmt, 2, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Branch */ <em>sqlite</em>3_bind_text(stmt, 3, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Version */ <em>sqlite</em>3_bind_text(stmt, 4, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Stop Number */ <em>sqlite</em>3_bind_text(stmt, 5, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Vehicle */ <em>sqlite</em>3_bind_text(stmt, 6, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Date */ <em>sqlite</em>3_bind_text(stmt, 7, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Time */ <em>sqlite</em>3_step(stmt); /* Execute the SQL Statement */ <em>sqlite</em>3_clear_bindings(stmt); /* Clear bindings */ <em>sqlite</em>3_reset(stmt); /* Reset VDBE */ n++; } fclose (pFile); Note: We are back to using a real database file. In-memory databases are fast, but not necessarily practical Imported 864913 records in 8.94 seconds A slight refactoring to the string processing code used in our parameter binding has allowed us to perform 96,700 inserts per second. I think it's safe to say that this is plenty fast. As we start to tweak other variables (i.e. page size, index creation, etc.) this will be our benchmark. Summary (so far) I hope you're still with me! The reason we started down this road is that bulk-insert performance varies so wildly with SQLite, and it's not always obvious what changes need to be made to speed-up our operation. Using the same compiler (and compiler options), the same version of SQLite and the same data we've optimized our code and our usage of SQLite to go from a worst-case scenario of 85 inserts per second to over 96,000 inserts per second! CREATE INDEX then INSERT vs. INSERT then CREATE INDEX Before we start measuring SELECT performance, we know that we'll be creating indexes. It's been suggested in one of the answers below that when doing bulk inserts, it is faster to create the index after the data has been inserted (as opposed to creating the index first then inserting the data). Let's try: Create Index then Insert Data <em>sqlite</em>3_exec(db, "CREATE INDEX 'TTC_Stop_Index' ON 'TTC' ('Stop')", NULL, NULL, &amp;sErrMsg); <em>sqlite</em>3_exec(db, "BEGIN TRANSACTION", NULL, NULL, &amp;sErrMsg); ... Imported 864913 records in 18.13 seconds Insert Data then Create Index ... <em>sqlite</em>3_exec(db, "END TRANSACTION", NULL, NULL, &amp;sErrMsg); <em>sqlite</em>3_exec(db, "CREATE INDEX 'TTC_Stop_Index' ON 'TTC' ('Stop')", NULL, NULL, &amp;sErrMsg); Imported 864913 records in 13.66 seconds As expected, bulk-inserts are slower if one column is indexed, but it does make a difference if the index is created after the data is inserted. Our no-index baseline is 96,000 inserts per second. Creating the index first then inserting data gives us 47,700 inserts per second, whereas inserting the data first then creating the index gives us 63,300 inserts per second. I'd gladly take suggestions for other scenarios to try... And will be compiling similar data for SELECT queries soon. 转载于:https://stackoverflow.com/questions/1711631/improve-insert-per-second-performance-of-<em>sqlite</em>
SQLite3性能优化
SQLite3性能调整主要通过pragma指令来实现。 比如调整:空间释放、磁盘同步、Cache大小等。 一.空间释放 1.如何查询: PRAGMA auto_vacuum; 含义:查询数据库的auto-vacuum标记。 2.标记含义: auto-vacuum标记的含义: 正常情况下,当提交一个从数据库中删除数据的事务时,数据库文件不改变大小。未使用的文件页被标记并在以后的添加操
震惊啊,用ID查询SQLite数据库速度竟然提升了数百倍_经验分享
我一程序使用了SQLite数据库,要批量修改列,大约有2万条,因为考虑到记录在多个数据库之间转移的话ID值会变,为了有可追溯性,所以每条记录设了唯一字符串作为标识,批量修改时也用了这个字符串值作为查询
转 -- 内存数据库性能评测之SQLite数据库
原址如下: http://tech.it168.com/a2012/1016/1408/000001408814_all.shtml 内存数据库性能评测之SQLite数据库 【IT168 专稿】SQLite是一款轻型的数据库,它占用资源非常的低,同时能够跟很多程序语言相结合,但是支持的SQL语句不会逊色于其他开源数据库。它的设计目标是嵌入式的,而且目前已经在很多嵌入式产品中使用了它,它占用资
FastDB和SQLite的性能测试。下载
详细介绍在这里: http://blog.csdn.net/RookieRock/archive/2010/12/06/6057338.aspx 相关下载链接://download.csdn.net/
项目中如何使用SQLite比较好?
SQLlite大家都知道是轻量级的数据,好处很多。现在想要使用到我们的项目中,查了一下好像有多种用法: 有几个疑问: 1 项目中要用到SQLite,是将SQLite的源文件加入到项目中编译吗? 我记得
求SQLite查询的解决方法
最近一个项目要用到Sqlite,但在执行过程中有一条联合查询语句执行非常<em>慢</em>,但我在SQLite Developer里执行却非常快,求指点。。。。。 代码如下: procedure TForm1.But
有关SQLite的优缺点
★技术上的优点和特性 SQLite是一个轻量级、跨平台的关系型数据库。既然号称关系型数据库,支持SQL92标准中常用的玩意儿(比如视图、事务、触发器等)就是理所当然的了,咱今天就不细说了。今天主要聊聊一些有点特色的玩意儿。 ◇轻量级 先说它的第一个特色:轻量级。想必SQLite的作者很看重这个特性,连它的Logo都是用的“羽毛”,来显摆它的轻飘飘。 SQLite和C/S模式的数据库软件不同
Sqlite多表插入性能越来越
现象:在<em>sqlite</em>的数据库中创建2000张表,随后每隔5s向2000张表批量插入一次记录(每张表一条记录,跨表插入2000次),所有数据在一个事务中执行;数据库的pagesize = 8192,系统为win7 64位 硬盘 WD 7200rpm。 问题:刚开始插入数据是1.2s左右,当数据库文件增加到500MB左右时,写入耗时是4s左右,当数据库继续增长到800Mb左右时 ,写入耗时下降到5-6s左右; 求助:想请教内行的专家或高手,帮我分析下,写入性能在数据库达到800MB左右时,是否有可靠的方法将写入耗时降到2-3s【synchronize=full需要断电保护数据库,以免数据库损坏】
SQLite数据库对存储内容大小有限制吗?
打个比方,比如几张大图、文本等片共计10兆多,放在SQLite中可以吗?<em>sqlite</em>是否对存储的数据量大小有限制?
sqlite3 数据库存储数据问题
1, 表: CREATE TABLE T_FEAT \ ( \ ID TEXT NOT NULL, \ UPDTIME TEXT , \ REGTIME TEXT , \ FEAT TEXT , \
sqlite 数据库性能调优
一 、完整性检查    完整性检查 ,是保障 数据库可用 ,app可用的 ,程序启动后,优先要做的事情    数据库损坏的表现: “database disk image is malformed”   1 检查方式:       (1) PRAGMA schema.integrity_check;          (2) PRAGMA schema.quick_check;    ...
SQLITE第一次读取速度
在gentoo(linux)系统下,如果机器不操作,放置一段时间,然后使用<em>sqlite</em>3自带的工具进行select count(*),会发现第一次 运行的速度很<em>慢</em>,第二次就恢复正常了,请问各位高手这个
详细了解SQLITE 优缺点 性能测试
什么是SQLITE: &amp;lt;wbr&amp;gt;&amp;lt;/wbr&amp;gt; SQLite是一个开源免费的数据库,一般用于嵌入系统或者小规模的应用软件开发中,你可以像使用Access一样使用它,你可以免费用于任何应用,包括商业应用,另外,它还支持各种平台和开发工具,这点是某些数据库(比如Access、DBISAM)。 SQLite是一种嵌入式数据库,它跟微软的Access差不多,只是一个.d...
MySql,SQLServer,SQLite性能比较
工作任务:测试三个数据库的性能 测试方法:C#编写工具,对数据库进行大量数据Insert和Selectc测试 测试结果: Insert测试 Select测试 测试结果:SQLServer 和 MySql性能相差不大,Sqlite则数据多大几万条时明显过<em>慢</em> 注:可能写的代码也有问题,都加入了事务处理,过程存储没有添加
SQLite数据库扫盲
今天注意到SQLite 3.6.11(上个月发布的)增加了一个我期待已久的online backup接口,激动之余就顺便和大伙儿聊一下SQLite数据库。本帖权当是SQLite扫盲,如果你对SQLite已经很熟悉,本文就不必再看了。 ★技术上的优点和特性 SQLite是一个轻量级、跨平台的关系型数据库。既然号称关系型数据库,支持SQL92标准中常用的玩意儿(比如视图、事务、触发器等
MySQL和Sqlite3性能测试
测试条件:i5-4460@3.2G,普通机械硬盘。MySql: 5.0.45-community-nt,32bit, innodb引擎,innodb_flush_log_at_trx_commit=0Sqlite3: Synchronous=Off,LockingMode = ExclusiveTableScript:MySql:CREATE TABLE `test` (  `id` int(10...
sqlite3查询所有数据怎么这么
我在一个表里存了2个字段,id 和url 共有1万多行数据在里面,我把他全部读出来,显示在编辑框了 耗时2分钟!我用SQLite Developer打开只要1s搞定。 怎么回事,求指点。 result
提升SQLITE插入、查询效率的方法
首先,建立数据库rc = <em>sqlite</em>3_exec(db, &quot;create table if not exists testinfo (id integer primary key, age integer, height text, weight text)&quot;, NULL, NULL, &amp;amp;zErr);插入篇:1、<em>sqlite</em>3_exec()通常,我们使用<em>sqlite</em>3_exec()函数来...
Sqlite 时间比较
Sqlite 时间比较
踩坑(Running)填坑(ZSSURE):SQLite数据库操作效率分析
背景:之前对于数据库操作部分大多停留在会使用阶段,并未真正考虑过数据库SQL语句的执行效率问题。近期响应项目组其他成员需要,协助手动修改数据库。为了提高工作效率编写了C#测试工程进行相关操作。由于数据库记录量较大(超过10K条),在编写程序过程中发现不同的操作执行效率相差甚远,特做记录如下,待后续有时间再深入分析各种数据库的SQL语句的执行效率。 此次数据库修改要求涉及到删除、修改、添加等各种操作,
SQlite DB 10w级插入数据, 请问怎么优化
问题是这样的, 我们现在是用Sqlite DB 存储一部分数据, 插入的地方已经开启了事务, 每次插入100条数据(有打算改成1000或者更高, 但是由于是并发执行, 对于内存可能有点小问题, 但是问
Sqlite 插入数据解决方法
<em>sqlite</em> 插入数据很<em>慢</em>的原因是因为它是已文件的形式存在磁盘中,每次访问时都要打开一次文件,如果对数据进行大量的操作,那时很<em>慢</em>。解决方法是用事务的形式提交:因为我们开始事务后,进行的大量操作的语句都保存在内存中,当提交时才全部写入数据库,此时,数据库文件也就只用打开一次。我在没有用事务形式插入4366条数据时用了507.781s,平均每一插入一条数据是116ms,用事务形式,插入只用了391ms,相关很大吧。事务方式:begin; INSERT INTO "table" VALUES ('a', 'b'
解决sqlite3插入数据很的问题
初用<em>sqlite</em>3插入数据时,插入每条数据大概需要100ms左右。如果是批量导入,可以引进事物提高速度。但是假设你的业务是每间隔几秒插入几条数据,显然100ms是不能容许的。解决办法是,在调用<em>sqlite</em>3_open函数后添加下面一行代码:     <em>sqlite</em>3_exec(db, "PRAGMA synchronous = OFF; ", 0,0,0);     上面的解决办法貌似治标不治本
解决冷启动电脑后第一次读取Sqlite数据库缓的问题
转载请说明原出处,谢谢~~:http://blog.csdn.net/zhuhongshu/article/details/77482985最近项目中得到用户反馈,说每次重启电脑后,软件界面的数据加载都非常<em>慢</em>。这些数据都是软件启动后从Sqlite数据库读取的。我开始以为是代码有什么地方优化的不够好,出现了瓶颈,后来反复实验发现只有冷启动后第一次打开软件会出现这种情况。后来咨询网友,又查了资料,发现...
SQLITE数据库 UPDATE
SQLITE数据库 UPDATE<em>慢</em>,此为一个实例,供大家!
sqlite性能如何,大家怎么看?
看了很多资料,都说<em>sqlite</em>的并发性能不好...有谁用过或者测试过吗? 请谈谈!
SQLite的效率问题
 这段时间在做一个项目,从SQLite里读取数据,大概有400多张表,总记录数有7万左右,读取每张表,然后执行step将每条记录执行一遍,共了大概3秒,这个时间正常吗?能不能把时间再减少一点。 str
SQLite 大数据量 新增 / 修改 提升效率的办法
原文地址:http://my.oschina.net/atearsan/blog/187226摘要 通过 事务控制 的方式解决 (Android) SQLite 中大数据量 新增/修改 出现的性能瓶颈 一、新增SQLite中的新增默认是单个事务控制的,一次新增就是一次数据库操作,一次事务。如果几千次for循环操作,必然存在效率问题。下面代码是通过事务控制的方式提升效率:public void a
Android中Sqlite的使用及性能优化
1.写在前面的话前面写过一篇关于Sqlite基本操作的文章,今天我们来学习Android中如何使用Sqlite以及性能优化。2.Android平台下数据库相关类SQLiteOpenHelper 抽象类:通过从此类继承实现用户类,来提供数据库打开、关闭等操作函数。 SQLiteDatabase 数据库访问类:执行对数据库的插入记录、查询记录等操作。 SQLiteCursor 查询结构操作类:用来访
【玩转SQLite系列】(五)SQLite数据库优化
【玩转SQLite系列】(五)SQLite数据库优化 >在平时的开发中,其实我们每次给数据库中插入一条数据,数据库都会单独开启一个事务,我们插入多少条数据, 就会对磁盘由多少次操作。这样在数据比较多的情况下,大大的降低了数据库的操作效率。那么,针对这个问题,我们如何来进行优化呢?
SQLite数据库与其它一些数据库的性能比较
SQLite数据库与其它一些数据库的性能比较 这是从一篇繁体blog中的文章:http://blog.joycode.com/fish/archive/2004/08/13/30653.aspxMySQL(MyODBC/ByteFx), SQLite(V3), Access(2003), MSSQL(2000Sp3) 之间的效能測試 今天写了一个简单的测试程序,目的为了解自己目前所
[译]榨取SQLite性能:插入
榨取SQLite性能:插入原文链接:https://medium.com/@JasonWyatt/squeezing-performance-from-<em>sqlite</em>-insertions-971aff98eef2有时我们需要在应用程序中管理大量的数据。将所有数据导入Android应用程序的SQLite数据库中最快的方式是什么?在这篇文章中,我将调查向SQLite数据库中插入大量数据的可行方法,评估每
sqlite数据库真神奇,7G文件大小性能你来猜
sqilong 2011-09-21 15:53 <em>sqlite</em>数据库真神奇,7G文件大小性能你来猜 不得了了,在7G文件大小下,6千万条记录的有索引某个表中,查询条件如果是索引字段,不管什么位置,查询都不要1ms时间。 但如果查询条件不是索引字段的话,最后一条记录的查询竟然需要589秒啊,不是ms啊。 在1千万条记录前插入1百万条记录需要120秒,在6千万条记录后插入1百
Realm、WCDB与SQLite移动数据库性能对比测试
还在通过FMDB用繁琐的SQL语句操作移动端数据库吗?要不要试试Realm或者WCDB?
获取最后一条记录的性能之争
对于没有dba的情况下,sql的性能就成了后端开发要考虑的问题之一了,不然就会影响接口的响应性能。 本次接口需求实际就是获取设备的最后一条上报数据,但是这个设备上报数据量那可是海量。所以后面的查找肯定时间会变长。先看我写的2条sql吧。 一、场景回顾 第一条sql的逻辑: 因为记录的主键是自增的,所以最后一条的id肯定最大,所以先根据设备编码过滤上报数据,然后使用max函数...
在android中从sqlite中获得数据很
我的代码是: DatabaseHandler db = new DatabaseHandler(this); System.out.println("Start - " + System.currentTimeMillis()); for (int i = 1; i < db.getChampsCount() + 1; i++) { String name = db.getChampInfo(i, "name"); String title = db.getChampInfo(i, "title"); String thumb = db.getChampInfo(i, "thumb"); System.out.println("End - " + System.currentTimeMillis()); [...] } 和这个 String getChampInfo(int id, String col) { SQLiteDatabase db = this.getReadableDatabase(); Cursor cursor = db.rawQuery("SELECT " + col + " FROM champions WHERE id = " + id, new String[] {}); if (cursor != null) cursor.moveToFirst(); db.close(); return cursor.getString(0); } 这是DatabaseHelper类的一部分 这个运行没有问题,但是问题是它执行起来时间很长(在我的android机子上是2089ms)。这些字符串是UI的一部分,所以我不认为我能把他放到另外一个线程中。如果要让这段代码跑的快一点,我应该怎么做? 确切的说是110行
android sqlite效率问题
我本地用到的<em>sqlite</em>数据库中有大概10W条数据左右,会经常需要根据不同的条件来查询 由于查询比较频繁,用到了greenDao这个框架,查询确实很快,但是一排序就很<em>慢</em>了 我又将数据生成一个视图来再查询,但是<em>sqlite</em>每次查询都需要去创建视图(不知道怎么表达,大概就是这个意思);这样一来又很<em>慢</em>了 大家有没有什么比较好的办法?
SQLite的性能优化
SQLite的插入速度一直被人指责,而其实它是可以优化的。 并且没经过优化的代码和优化过的差距甚大,比如插入30万条数据,没经过优化可能需要1个小时甚至更长,而经过优化可能不超过10秒。 要做好优化,就需要对SQLite的机制有所了解。 下面是一些性能优化的tips,尤其是第一条。 1,开启整体事务 SQLite在执行一条SQL语句的时候,会默认开启一个事务,所以要写个f
Android SQLite性能分析
作为Android预置的数据库模块,SQLite精致而且强大,对它的深入理解对于提升应用的性能非常重要。这里对SQLite的性能和内存进行了一些测试分析,对比了不同操作的执行性能和内存占用的情况,粗略地列在这里算是作个小结。
MySQL大战SQLite(PostgreSQL强势乱入)
本文转自 http://obmem.com/?p=493-1.本文很长一不小心就写了老长,本文主要是关于MySQL,SQLite和PostgreSQL在我的特殊应用中使用想法和总结。MySQL部分是上个月的实践,PostgreSQL和非数据库解决方案是我这几天的心得。`本文努力地比较了MySQL内存数据库和SQLite数据库在特定应用下的优劣,MySQL一般数据库?它太笨了所以被我放弃
Sqlite优化总结
一.使用索引 创建索引的基本语法如下: CREATE INDEX index_name ON table_name (column_name,...) 间接索引: 定义主键约束或者唯一性约束,可以间接创建索引,主键默认为唯一约束.所 有不需要再创建索引,以免造成浪费. 注意事项: 1.建立索引会增加数据库的大小. 2.对于insert,update,delete操作来说,使用索引会变...
内存数据库FastDB和SQLite性能测评
一、引言在很多项目中,经常会碰到这样的需求,需要对大量数据进行快速存储、查询、删除等操作,特别是在一些针对诸如运营商、银行等大型企业的应用中,这些需求尤为常见。比如智能网中的大量在线并发用户的数据管理、软交换平台中的在线信息交互、宽带/3G等数据网中在线用户行为记录等等。针对这些
android真机调试时使用SQLite3查询数据库
当使用真机调试android程序时,有时需要在adb shell 里查询SQLite数据库。而有的手机例如华为p6,既没有root又没有自带SQLite3工具,那么如何解决这个问题呢?     1、root手机。在网上下载一键root工具,如百度一键root,并允许,使得手机获得root权限;     2、adb root。下载 Superuser Permissions 软件并运行。在cmd
SQLite速度评测代码
今天有个朋友测试 SQLite,然后得出的结论是:SQLite 效率太低,批量插入1000条记录,居然耗时 2 分钟! 下面是他发给我的测试代码。我晕~~~~~~ using System.Data; using System.Data.Common; using System.Data.SQLite; // 创建数据库文件 File.Delete("test1.db
如何优化sqlite的查询速度
通过建立索引,速度快了好几倍 但是大小大了两倍多。。。
Sqlite大数据量查询优化比较-转
标题写的有些大了…… 我做的一个PHP玩具用的是Sqlite数据库,昨天某网站采集了4039篇文章,发现页面打开速度<em>慢</em>的要死,看了一下耗时,发现<em>sqlite</em>在数据量比较大(4000算大?……我觉得挺大的了)的时候执行order by xxx desc会变得很<em>慢</em>…… 1、select * from blog_cms where status=1 limit 0,10 耗时15ms
Qt中提高sqlite的读写速度
SQLite数据库本质上来讲就是一个磁盘上的文件,所以一切的数据库操作其实都会转化为对文件的操作,而频繁的文件操作将会是一个很好时的过程,会极大地影响数据库存取的速度。例如:向数据库中插入100万条数据,在默认的情况下如果仅仅是执行query.exec("insert into DataBase(......) values(......)");就会打开和关闭文件100万次,所以速度当然会很<em>慢</em>。SQLite数据库是支持事务操作的,于是我们就可以通过事务来提高数据库的读写速度。事务的基本原理是:数据库管理系统
sqllite该怎么理解?
在ios开发中,sqllite和coredata起到一个怎么样的作用呢?app是客户端,那么sqllite和coredata是在服务器端么?搞不清楚之间怎么关联的。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,<em>慢</em><em>慢</em>积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
Vue + Spring Boot 项目实战(十四):用户认证方案与完善的访问拦截
本篇文章主要讲解 token、session 等用户认证方案的区别并分析常见误区,以及如何通过前后端的配合实现完善的访问拦截,为下一步权限控制的实现打下基础。
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入  假设现有4个人
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变<em>慢</em>,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
一 说明 如果是初学者,建议去网上寻找安装Mysql的文章安装,以及使用navicat连接数据库,以后的示例基本是使用mysql数据库管理系统; 二 准备前提 需要建立一张学生表,列分别是id,名称,年龄,学生信息;本示例中文章篇幅原因SQL注释略; 建表语句: CREATE TABLE `student` ( `id` int(11) NOT NULL AUTO_INCREMENT, `
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // dosho
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
      11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
Android 9.0系统新特性,对刘海屏设备进行适配
其实Android 9.0系统已经是去年推出的“老”系统了,这个系统中新增了一个比较重要的特性,就是对刘海屏设备进行了支持。一直以来我也都有打算针对这个新特性好好地写一篇文章,但是为什么直到拖到了Android 10.0系统都发布了才开始写这篇文章呢?当然,一是因为我这段时间确实比较忙,今年几乎绝大部分的业余时间都放到写新书上了。但是最主要的原因并不是这个,而是因为刘海屏设备的适配存在一定的特殊性
Linux包管理速查表下载
现有linux发行版本包管理相关命令,可以方便的查看各个版本的Linux系统包管理的命令 相关下载链接:[url=//download.csdn.net/download/yaoda2002/4021347?utm_source=bbsseo]//download.csdn.net/download/yaoda2002/4021347?utm_source=bbsseo[/url]
LM324DataSheet下载
LM324 DataSheet. 相关下载链接:[url=//download.csdn.net/download/frank_163/4499799?utm_source=bbsseo]//download.csdn.net/download/frank_163/4499799?utm_source=bbsseo[/url]
QQ2011 不过期 去广告 绿色下载
QQ2011 不过期 去首面弹窗广告 绿色 相关下载链接:[url=//download.csdn.net/download/qzbnb/5141017?utm_source=bbsseo]//download.csdn.net/download/qzbnb/5141017?utm_source=bbsseo[/url]
相关热词 c# 输入ip c# 乱码 报表 c#选择结构应用基本算法 c# 收到udp包后回包 c#oracle 头文件 c# 序列化对象 自定义 c# tcp 心跳 c# ice连接服务端 c# md5 解密 c# 文字导航控件
我们是很有底线的