社区
C语言
帖子详情
一个关于效率的问题
free131
2005-03-17 09:09:32
为一个二维数组的每一位赋值,我们一般这样做:
int a[1000][1000];
for(int i = 0; i < 1000; i++)
for(int j = 0; j <1000; j++)
a[i][j] = 10;
有没有效率更高的赋值方法呢,请教.............
...全文
151
8
打赏
收藏
一个关于效率的问题
为一个二维数组的每一位赋值,我们一般这样做: int a[1000][1000]; for(int i = 0; i < 1000; i++) for(int j = 0; j <1000; j++) a[i][j] = 10; 有没有效率更高的赋值方法呢,请教.............
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
8 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
suyouxin
2005-03-18
打赏
举报
回复
放到静态区去
suyouxin
2005-03-18
打赏
举报
回复
int a[1000][1000];
memset(a, 0x00, sizeof(a));
char *p = (char*)a;
for (int i = 0; i < 250000 ; i++) {
p += sizeof(int)/sizeof(char);
*p = 10;
}
原来的1/4哈
还有,没这么大的栈
suyouxin
2005-03-18
打赏
举报
回复
汗,看成char了
gameboy007
2005-03-18
打赏
举报
回复
union fmt {
__int64 b;
int a[2];
};
fmt tmp;
tmp.a[0] = tmp.a[1] = 10;
int a[1000][1000];
fmt* begin = (fmt*)a;
fmt* end = begin + 500000; // 1000 * 1000 / 2
while (begin != end)
{
*begin++ = tmp;
}
free131
2005-03-17
打赏
举报
回复
应该还有更好的方法吧,持续等待中...............
pcboyxhy
2005-03-17
打赏
举报
回复
memset(a, 10, sizeof(a));
是按照字节的
不能这样初始化。
hardeggwang
2005-03-17
打赏
举报
回复
int a[1000][1000]={0};
//1000*1000的数组恐怕在运行的时候会造成问题吧,有这么大的堆栈么?
这样做的结果是所有的这个数组的所有元素都是0
但int a[1000][1000]={10}只能使第一个元素为10,其余还是为0
可以以后应用的时候,每个元素加10,相当于现在的赋值为10
不知道这能否满足你的需要
suyouxin
2005-03-17
打赏
举报
回复
memset(a, 10, sizeof(a));
commons-fileupload-1.2.1.jar和commons-io-1.3.2.jar程序文件
commons-fileupload-1.2.1.jar和commons-io-1.3.2.jar 案例上传: http://hi.baidu.com/lichao77821/blog
MYSQL笔记-关于分组查询中的where和having
效率
问题
MYSQL笔记-关于分组查询中的where和having
效率
问题
前言 最近在学习SQL语法时,遇到了
一个
where和having的
效率
问题
,感觉非常值得注意,所以记录下来便于复习和与各位网友分享。 结论放前面 时间紧迫的同学可以直接看结论,where和having都可以达到对分组后的查询结果再过滤的目的,但在任何情况下请优先考虑使用where,where处理不了的再使用having,因为where的
效率
更高。 情景 现在有一张表emp,存储的数据分别为empno(员工编号),ename(员工姓名),j
关于多线程在多核cpu上执行
效率
的
问题
前言:博主最近在比较python和go语言写的web服务器的执行
效率
问题
,在看了google搜索结果后,产生了疑问 1.为什么python的异步执行框架tornado
效率
可以和go语言媲美? 2.为什么随着线程的增加,并发数的增长呈现逐步缓慢的趋势? 带着这些
问题
,博主探究了下原因,如果有错误,欢迎大家指出。 注意:为简化推理过程和理解,以下只考虑执行任务的线程,系统中其他所有(包括...
python3关于写入csv档
效率
问题
前几天做的
一个
处理csv档的程序放在了服务器上跑,结果发现时间很久,处理
一个
113M差不多70W行的csv档需要65s左右,然后对其中的各部分操作分别计时,发现大部分时间都是花费存取csv档上足足要53s左右,而处理一列数据也仅需3s。然后今天就开始找提高存储
效率
的方法了! 首先说结论,使用csv模块的writerows方法最后是成功的提高了
效率
,不过还是很想通过pickle方法来实现,其中乱码...
关于多重循环
效率
问题
从http://search.csdn.net/Expert/topic/2568/2568192.xml?temp=.0968439搜到的 在多重循环中,如果有可能,应当将最长的循环放在最内层,最短的循环放在最外层,以减少CPU跨切循环层的次数。例如示例4-4(b)的
效率
比示例4-4(a)的高。 for (row=0; row row++) { for
C语言
70,025
社区成员
243,245
社区内容
发帖
与我相关
我的任务
C语言
C语言相关问题讨论
复制链接
扫一扫
分享
社区描述
C语言相关问题讨论
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章