sql log文件大小增长太快问题

jianpingxu 2010-03-05 09:54:09
公司使用的erp系统发现log文件增长迅速到40G了,有没有什么办法可以限制log文件增长,但是不影响数据库的正常使用,分离数据库直接删除log文件然后附加数据库这样对于系统数据库的使用会不会造成坏的影响,请高手指点个最好的处理办法谢谢
...全文
381 10 打赏 收藏 转发到动态 举报
写回复
用AI写文章
10 条回复
切换为时间正序
请发表友善的回复…
发表回复
ChinaJiaBing 2010-03-06
  • 打赏
  • 举报
回复
公司使用的erp系统发现log文件增长迅速到40G了,有没有什么办法可以限制log文件增长,但是不影响数据库的正常使用,分离数据库直接删除log文件然后附加数据库这样对于系统数据库的使用会不会造成坏的影响,请高手指点个最好的处理办法谢谢


不会有影响..

1.DUMP TRANSACTION ........
2.BACKUP LOG ....
3.DBCC SHRINKFILE
yanghailun_ 2010-03-06
  • 打赏
  • 举报
回复

这个就可能是应用程序的问题,或是数据量本身就非常大,或者操作非常的频繁...还有就是你建的数据库可能仅仅保持默认设置,没有经过相应的优化,

如果不能查看和修改应用程序源代码,那就重点放在优化数据库上...打开数据库的属性,将相关影响因素进行一些修改...
如果问题依旧,还找不出办法,就在数据库上建一个计划任务,在数据库操作的不频繁时候(比如深夜)定一个收缩任务...
zyx_hawk 2010-03-05
  • 打赏
  • 举报
回复
--设置日志大小
SET NOCOUNT ON
DECLARE @LogicalFileName sysname,
@MaxMinutes INT,
@NewSize INT
USE stock1 -- 要操作的数据库名
SELECT @LogicalFileName = 'stock1_log', -- 日志文件名
@MaxMinutes = 10, -- Limit on time allowed to wrap log.
@NewSize = 20 -- 你想设定的日志文件的大小(M)
-- Setup / initialize
DECLARE @OriginalSize int
SELECT @OriginalSize = size
FROM sysfiles
WHERE name = @LogicalFileName
SELECT 'Original Size of ' + db_name() + ' LOG is ' +
CONVERT(VARCHAR(30),@OriginalSize) + ' 8K pages or ' +
CONVERT(VARCHAR(30),(@OriginalSize*8/1024)) + 'MB'
FROM sysfiles
WHERE name = @LogicalFileName
CREATE TABLE DummyTrans
(DummyColumn char (8000) not null)
DECLARE @Counter INT,
@StartTime DATETIME,
@TruncLog VARCHAR(255)
SELECT @StartTime = GETDATE(),
@TruncLog = 'BACKUP LOG ' + db_name()
+ ' WITH TRUNCATE_ONLY'
DBCC SHRINKFILE (@LogicalFileName, @NewSize)
EXEC (@TruncLog)
-- Wrap the log if necessary.
WHILE @MaxMinutes > DATEDIFF (mi, @StartTime, GETDATE())
-- time has not expired
AND @OriginalSize = (SELECT size FROM
sysfiles WHERE name = @LogicalFileName)
AND (@OriginalSize * 8 /1024) > @NewSize
BEGIN -- Outer loop.
SELECT @Counter = 0
WHILE ((@Counter < @OriginalSize / 16) AND
(@Counter < 50000))
BEGIN -- update
INSERT DummyTrans VALUES ('Fill Log')
DELETE DummyTrans
SELECT @Counter = @Counter + 1
END
EXEC (@TruncLog)
END
SELECT 'Final Size of ' + db_name() + ' LOG is ' +
CONVERT(VARCHAR(30),size) + ' 8K pages or ' +
CONVERT(VARCHAR(30),(size*8/1024)) + 'MB'
FROM sysfiles
WHERE name = @LogicalFileName
DROP TABLE DummyTrans
SET NOCOUNT OFF
东那个升 2010-03-05
  • 打赏
  • 举报
回复
定时截断,收缩
中国风 2010-03-05
  • 打赏
  • 举报
回复
要經常備份截取日誌處理
sql_db 2010-03-05
  • 打赏
  • 举报
回复
分离数据库直接删除log文件然后附加数据库这样对于系统数据库的使用会不会造成坏的影响

---
不影响使用,但仅对当次有效,以后还会继续增长的
SQL77 2010-03-05
  • 打赏
  • 举报
回复
限制增长,或者清除,截断
sql_db 2010-03-05
  • 打赏
  • 举报
回复
截断日志,限制日志增长
Q315054403 2010-03-05
  • 打赏
  • 举报
回复
截断日志,再收缩它
正规做法是做好全备/差异/日志备份,以防灾难
当备份后日志空间就复用了

有偿提供全面支持
ai_li7758521 2010-03-05
  • 打赏
  • 举报
回复
/*--特别注意 

请按步骤进行,未进行前面的步骤,请不要做后面的步骤
否则可能损坏你的数据库.


一般不建议做第4,6两步
第4步不安全,有可能损坏数据库或丢失数据
第6步如果日志达到上限,则以后的数据库处理会失败,在清理日志后才能恢复.
--*/

--下面的所有库名都指你要处理的数据库的库名

1.清空日志
DUMP TRANSACTION Mydpc WITH NO_LOG

2.截断事务日志:
BACKUP LOG Mydpc WITH NO_LOG

3.收缩数据库文件(如果不压缩,数据库的文件不会减小
企业管理器--右键你要压缩的数据库--所有任务--收缩数据库--收缩文件
--选择日志文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了
--选择数据文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了

也可以用SQL语句来完成
--收缩数据库
DBCC SHRINKDATABASE(库名)

--收缩指定数据文件,1是文件号,可以通过这个语句查询到:select * from sysfiles
DBCC SHRINKFILE(1)

4.为了最大化的缩小日志文件(如果是sql 7.0,这步只能在查询分析器中进行)
a.分离数据库:
企业管理器--服务器--数据库--右键--分离数据库

b.在我的电脑中删除LOG文件

c.附加数据库:
企业管理器--服务器--数据库--右键--附加数据库

此法将生成新的LOG,大小只有500多K

或用代码:
下面的示例分离 pubs,然后将 pubs 中的一个文件附加到当前服务器。

a.分离
EXEC sp_detach_db @dbname = '库名'

b.删除日志文件

c.再附加
EXEC sp_attach_single_file_db @dbname = '库名',
@physname = 'c:\Program Files\Microsoft SQL Server\MSSQL\Data\库名.mdf'

5.为了以后能自动收缩,做如下设置:
企业管理器--服务器--右键数据库--属性--选项--选择"自动收缩"

--SQL语句设置方式:
EXEC sp_dboption '库名', 'autoshrink', 'TRUE'

6.如果想以后不让它日志增长得太大
企业管理器--服务器--右键数据库--属性--事务日志
--将文件增长限制为xM(x是你允许的最大数据文件大小)

--SQL语句的设置方式:
alter database 库名 modify file(name=逻辑文件名,maxsize=20)

27,579

社区成员

发帖
与我相关
我的任务
社区描述
MS-SQL Server 应用实例
社区管理员
  • 应用实例社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧