100000000次加减赋值运算大约需要多少时间?

doctorweb 2010-10-04 02:39:19
1亿次加减赋值运算大约需要多少时间?
...全文
905 16 打赏 收藏 转发到动态 举报
写回复
用AI写文章
16 条回复
切换为时间正序
请发表友善的回复…
发表回复
donkey301 2010-10-09
  • 打赏
  • 举报
回复
现在一般的pc机大概是1秒10^8次基本运算,所以1亿的加减赋值大概1秒。
想要多吃饭 2010-10-09
  • 打赏
  • 举报
回复
1nm就好了。
fanster28_ 2010-10-08
  • 打赏
  • 举报
回复
试试就知道了
#include <iostream>
#include <time.h>
#include <omp.h>

void test()
{
int a = 0;
clock_t t1 = clock();
for (int i = 0; i < 100000000; i++)
{
a = i+1;
}
clock_t t2 = clock();
printf("Time = %d\n", t2-t1);
}

int main(int argc, char* argv[])
{
clock_t t1 = clock();
#pragma omp parallel for
for ( int j = 0; j < 2; j++ ){
test();
}
clock_t t2 = clock();
printf("Total time = %d\n", t2-t1);

test();
return 0;
}
FancyMouse 2010-10-08
  • 打赏
  • 举报
回复
>线程开销没有大到这样的程度的
拿线程切换来反驳个毛啊
somebody 2010-10-08
  • 打赏
  • 举报
回复
第一,计算机的计算能力跟硬件配置又有关系,每个计算机都不相同。
第二,计算机系统是多线程的不太可能输出精确地计算的具体时间(能实现也很复杂,涉及到加锁)。只能简单的反应出程序开始运行到结束所用的时间(包含等待的时间)。
如下:
clock_t start,end;
start=clock();
……
//计算一亿次的代码
……
end=clock();
return(end-start);//返回的是毫秒
pmars 2010-10-08
  • 打赏
  • 举报
回复
北大oj一秒大约运行5亿次++运算!
2010-10-06
  • 打赏
  • 举报
回复
晕,图片太大只显示出来一半……
2010-10-06
  • 打赏
  • 举报
回复
豆豆虫豆豆 2010-10-06
  • 打赏
  • 举报
回复
秒级,、甚至毫秒级
fanster28_ 2010-10-06
  • 打赏
  • 举报
回复
线程开销没有大到这样的程度的
CPU线程是非轻量级的,线程创建大概是k级别的时钟周期,与理想情况差异更多来源于存储器访问以及一些调度问题
GPU中线程是轻量级,大概4个时钟周期.
[Quote=引用 6 楼 fancymouse 的回复:]
这种程度的并行,创建销毁线程的时间估计要和计算的时间差不多长了。
[/Quote]
FancyMouse 2010-10-05
  • 打赏
  • 举报
回复
>如果使用OpenMP技术,时间就是毫秒级的了
这种程度的并行,创建销毁线程的时间估计要和计算的时间差不多长了。
power721 2010-10-05
  • 打赏
  • 举报
回复
经过测试低于1s
笔记本CPU2GHz双核
#include<cstdio>
#include<ctime>

int main()
{
int i=0,a=0;
clock_t s=clock();
for(;i<100000000;)
{
a=a+i;
a=a-i;
a=i;
i++;
}
printf("time:%dms\n",clock()-s);
}
yinghuashihun 2010-10-05
  • 打赏
  • 举报
回复
我以前再做OPenMP的时候做过这样的运算,普通的双核,2G内存,不使用多线程,大概就是秒级的,如果使用OpenMP技术,时间就是毫秒级的了
lezhiquan 2010-10-05
  • 打赏
  • 举报
回复
秒级,1S左右,甚至更少
air_snake 2010-10-04
  • 打赏
  • 举报
回复
写个程序测下不就完了


long start = System.currentTimeMillis();
for loop
System.out.println("using " + (System.currentTimeMillis()-start) + "sec");
fengkuang2000 2010-10-04
  • 打赏
  • 举报
回复
现在的计算机算起来的话,3秒左右,具体的我不是太清楚,c语言里用这个数量级可以看到延迟出现在屏幕上的结果

33,025

社区成员

发帖
与我相关
我的任务
社区描述
数据结构与算法相关内容讨论专区
社区管理员
  • 数据结构与算法社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧