数据库日志疯狂增长

bushy 2008-01-21 03:04:18
SQLERVER 2000 执行大概几百M的数据插入,修改,更新时,在他执行的20分钟内,
日志却增长了8G,太奇怪了
请高手指点了,^_^
...全文
138 12 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
12 条回复
切换为时间正序
请发表友善的回复…
发表回复
ORARichard 2008-01-22
  • 打赏
  • 举报
回复
删除再重建索引,或禁用索引试试
bushy 2008-01-22
  • 打赏
  • 举报
回复
谢谢大家的热情帮助,但我解决的不是如何收缩,删除日志,
而是如何防止日志这么离奇的增长
(数据库备份模式已经是简单,且设置为自动收缩
问题出来的时间是我给数据库手动收缩后,就每次执行上述(几百M数据的插入,更新。。。)
操作就会产生8G的日志增长)
LCAAA 2008-01-21
  • 打赏
  • 举报
回复
压缩日志及数据库文件大小

/*--特别注意

请按步骤进行,未进行前面的步骤,请不要做后面的步骤
否则可能损坏你的数据库.


一般不建议做第4,6两步
第4步不安全,有可能损坏数据库或丢失数据
第6步如果日志达到上限,则以后的数据库处理会失败,在清理日志后才能恢复.
--*/

--下面的所有库名都指你要处理的数据库的库名

1.清空日志
DUMP TRANSACTION 库名 WITH NO_LOG

2.截断事务日志:
BACKUP LOG 库名 WITH NO_LOG

3.收缩数据库文件(如果不压缩,数据库的文件不会减小
企业管理器--右键你要压缩的数据库--所有任务--收缩数据库--收缩文件
--选择日志文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了
--选择数据文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了

也可以用SQL语句来完成
--收缩数据库
DBCC SHRINKDATABASE(库名)

--收缩指定数据文件,1是文件号,可以通过这个语句查询到:select * from sysfiles
DBCC SHRINKFILE(1)

4.为了最大化的缩小日志文件(如果是sql 7.0,这步只能在查询分析器中进行)
a.分离数据库:
企业管理器--服务器--数据库--右键--分离数据库

b.在我的电脑中删除LOG文件

c.附加数据库:
企业管理器--服务器--数据库--右键--附加数据库

此法将生成新的LOG,大小只有500多K

或用代码:
下面的示例分离 pubs,然后将 pubs 中的一个文件附加到当前服务器。

a.分离
EXEC sp_detach_db @dbname = '库名'

b.删除日志文件

c.再附加
EXEC sp_attach_single_file_db @dbname = '库名',
@physname = 'c:\Program Files\Microsoft SQL Server\MSSQL\Data\库名.mdf'

5.为了以后能自动收缩,做如下设置:
企业管理器--服务器--右键数据库--属性--选项--选择"自动收缩"

--SQL语句设置方式:
EXEC sp_dboption '库名', 'autoshrink', 'TRUE'

6.如果想以后不让它日志增长得太大
企业管理器--服务器--右键数据库--属性--事务日志
--将文件增长限制为xM(x是你允许的最大数据文件大小)

--SQL语句的设置方式:
alter database 库名 modify file(name=逻辑文件名,maxsize=20)
ojuju10 2008-01-21
  • 打赏
  • 举报
回复


收缩日志:
dump tran databasename with no_log
backup database databasename with no_log
dbcc shrinkdatabase(databasename)
bushy 2008-01-21
  • 打赏
  • 举报
回复
数据库备份模式已经是简单,且设置为自动收缩
问题出来的时间是我给数据库手动收缩后,就每次执行上述(几百M数据的插入,更新。。。)
操作就会产生8G的日志增长
kk19840210 2008-01-21
  • 打赏
  • 举报
回复
以前执行同样的操作不会出来这样的问题

看下你的数据库恢复模型是什么
是不是完全的

以前可能是简单的或者是大容量恢复的
ORARichard 2008-01-21
  • 打赏
  • 举报
回复
试试先收缩一下数据库,在收缩日志
bushy 2008-01-21
  • 打赏
  • 举报
回复
我已经用dawugui 方法清理过日志了,问题是每次执行这样的操作都会有8G左右的增长,
以前执行同样的操作不会出来这样的问题,
yellowknight 2008-01-21
  • 打赏
  • 举报
回复
限定日志的大小吧
kk19840210 2008-01-21
  • 打赏
  • 举报
回复

大概几百M的数据插入,修改,更新

对数据的插入,修改,更新 操作都会记录在日志文件中 还包括 插入,修改,更新的信息都会记录在日志中

要想避免日志过分增长 可以固定日志大小
收缩日志,数据库恢复模型设为简单 等
dawugui 2008-01-21
  • 打赏
  • 举报
回复
确实.

清除日志:


DECLARE @LogicalFileName sysname,
@MaxMinutes INT,
@NewSize INT
USE szwzcheck -- 要操作的数据库名
SELECT @LogicalFileName = 'szwzcheck_Log', -- 日志文件名
@MaxMinutes = 10, -- Limit on time allowed to wrap log.
@NewSize = 20 -- 你想设定的日志文件的大小(M)
-- Setup / initialize
DECLARE @OriginalSize int
SELECT @OriginalSize = size
FROM sysfiles
WHERE name = @LogicalFileName
SELECT 'Original Size of ' + db_name() + ' LOG is ' +
CONVERT(VARCHAR(30),@OriginalSize) + ' 8K pages or ' +
CONVERT(VARCHAR(30),(@OriginalSize*8/1024)) + 'MB'
FROM sysfiles
WHERE name = @LogicalFileName
CREATE TABLE DummyTrans
(DummyColumn char (8000) not null)
DECLARE @Counter INT,
@StartTime DATETIME,
@TruncLog VARCHAR(255)
SELECT @StartTime = GETDATE(),
@TruncLog = 'BACKUP LOG ' + db_name() + ' WITH TRUNCATE_ONLY'
DBCC SHRINKFILE (@LogicalFileName, @NewSize)
EXEC (@TruncLog)
-- Wrap the log if necessary.
WHILE @MaxMinutes > DATEDIFF (mi, @StartTime, GETDATE()) -- time
AND @OriginalSize = (SELECT size FROM sysfiles WHERE name =
@LogicalFileName)
AND (@OriginalSize * 8 /1024) > @NewSize
BEGIN -- Outer loop.
SELECT @Counter = 0
WHILE ((@Counter < @OriginalSize / 16) AND (@Counter < 50000))
BEGIN -- update
INSERT DummyTrans VALUES ('Fill Log')
DELETE DummyTrans
SELECT @Counter = @Counter + 1
END
EXEC (@TruncLog)
END
SELECT 'Final Size of ' + db_name() + ' LOG is ' +
CONVERT(VARCHAR(30),size) + ' 8K pages or ' +
CONVERT(VARCHAR(30),(size*8/1024)) + 'MB'
FROM sysfiles
WHERE name = @LogicalFileName
DROP TABLE DummyTrans
SET NOCOUNT OFF

把szwzcheck换成你数据库的名字即可,在查询分析器里面运行。
有全角的空格(为了显示好看),你自己把他换一下.


收缩日志:

企业管理器--所有任务--收缩数据库--文件--选日志文件收缩

34,837

社区成员

发帖
与我相关
我的任务
社区描述
MS-SQL Server相关内容讨论专区
社区管理员
  • 基础类社区
  • 二月十六
  • 卖水果的net
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧