社区
Oracle
帖子详情
数据量太大,怎么办???
ypcpy
2003-12-13 03:17:31
现有我单位两年前编制的程序,以oracle做数据平台,现在数据量太大,速度变得非常慢,请问有什么好办法????
...全文
129
11
打赏
收藏
数据量太大,怎么办???
现有我单位两年前编制的程序,以oracle做数据平台,现在数据量太大,速度变得非常慢,请问有什么好办法????
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
11 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
shahand
2003-12-16
打赏
举报
回复
816及以上提供该工具
leecooper0918
2003-12-16
打赏
举报
回复
statspack是oracle 提供的一个性能综合分析包。用于取代老版本的
ultstat包。 它产生的report文件中详细描述了系统的瓶颈所在,例如
TOP 5 Wait Stats.
myf7961
2003-12-15
打赏
举报
回复
何谓statspack report?
leecooper0918
2003-12-13
打赏
举报
回复
上面我已经说了,先做一个完整的statspack report,这样你能
分析出系统主要的瓶颈到底是什么?是硬件需要升级还是应用有
问题。
ypcpy
2003-12-13
打赏
举报
回复
程序是用DEPHIL编的,我没有源程序,现在只能从ORACLE上下手,现在想再买个服务器,可是该如何处理是好?
rpljava
2003-12-13
打赏
举报
回复
还是要从程序入手。可以看看《oracle数据库专家编程〉。
ATCG
2003-12-13
打赏
举报
回复
我觉得,即使表有几千万条记录,而机子只有1G内存,照样可以比较快的,
beckhambobo
2003-12-13
打赏
举报
回复
若是机器性能不好,哪劝单位花血汗钱买部小型机吧
leecooper0918
2003-12-13
打赏
举报
回复
最好先做一个完整的statspack report.
怎么使用statspack,查查精华区和faqs,应该有很多文章。
tomguan
2003-12-13
打赏
举报
回复
做些优化吧,比如建索引,改善sql,很难的,需要高手哦!
ATCG
2003-12-13
打赏
举报
回复
大到什么程度啊?
数据库的数据太多了怎么办?特别大的访问量到数据库上怎么办?分库分表?| 大别山码将
数据库的数据太多了怎么办,一个表有一亿个数据(特别大的访问量到数据库上)?分库分表?Mysql的主从复制 1.使用优化查询的方法 1.使用索引 应尽量避免全表扫描,首先应考虑在 where 及 order by ,group by 涉及的列上建立索引。 2.优化 SQL 语句 2.1 通过 explain(查询优化神器)用来查看 SQL 语句的执行效果, 可以帮助选择更好的索引和优化查询语句, 写出更好的优化语句。 通 常我们可以对比较复杂的尤其是涉及到多表的 SELECT 语句, 把关 键字 EXPLAI
echarts
数据量
太大
,造成图表渲染卡顿,影响性能怎么办?!
一 echarts配置首册 链接:https://echarts.apache.org/zh/option.html#dataZoom 二 DataZoom dataZoom组件 用于区域缩放,从而能自由关注细节的数据信息,或者概览数据整体,或者去除离群点的影响。 现在支持这几种类型的dataZoom组件 可以设置dataZoom的start和end,只显示部分图表,可以优化展示性能,但是有时候即使展示部分,还是
数据量
很多造成渲染性能问题怎么办? 三sampling 对于 ...
数据
太大
爆内存怎么办?七条解决思路
在研究、应用机器学习算法的经历中,相信大伙儿经常遇到数据集
太大
、内存不够用的情况。 这引出一系列问题: 怎么加载十几、几十 GB 的数据文件? 运行数据集的时候算法崩溃了,怎么办? 怎么处理内存不足导致的错误? 本文将讨论一些常用的解决办法,供大家参考。 处理大型 ML 数据文件的七种思路 1. 分配更多内存 有的机器学习工具/库有默认内存设置,比...
数据量
太大
,内存不够怎么办?
最近遇到这个问题,上网查+问同学,基本解决方法:keras,Pipeline,TFrecord,批次读取训练 先看第一个,keras,可能需要改网络什么的,不太想改(先挖个坑,以后学一下keras,小白一只,勿怪) 第二个,pipeline,听起来高大上也很专业,上网搜罗了一堆资料: https://www.cnblogs.com/zyly/p/8982335.html https://blog....
Redis核心技术及实战(九.解决大
数据量
问题)
九:cluster集群——解决大
数据量
问题 原文:《09丨切片集群:数据增多了,是该加内存还是加实例?》 Redis要保存大量数据怎么办? 纵向扩展:升级单个Redis实例的资源配置,如增加内存容量、高配置CPU等。但是,当
数据量
特别大时,硬盘会很难支撑,而且,一个实例中的数据太多,在fork子进程保存快照时就会严重阻塞主线程。 横向扩展:切片集群,使用多个Redis实例存储数据。这时,会有两个问题:数据切片后,怎么在多个实例间分布?客户端怎么确定想要访问的数据在哪个实例上? 1. 数据切片和实例的对应
Oracle
17,090
社区成员
55,238
社区内容
发帖
与我相关
我的任务
Oracle
Oracle开发相关技术讨论
复制链接
扫一扫
分享
社区描述
Oracle开发相关技术讨论
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章