如何计算一个C/C++程序运行时间


前两天要计算一个用C++实现的算法运行时间,就用了clock()这个函数。程序大体上如下:

clock_t start,end;
start = clock();
/*my code*/
end = clock();
result = end-start;

因为clock()返回的大约是毫秒级,而我事先预计运行时间也在毫秒级别,所以很作死的直接用end-start来计算,而没有用(double)(end-start)/CLOCKS_PER_SEC为单位来计算。

因为一时间没办法在Linux系统下写,所以先在Windows系统下写好了,然后再移植到Linux运行。结果发现输出差了1000倍之多,心态直接崩了。心灰意冷,上网找别的计时方法,无意中发现了这篇文章Linux下clock计时函数学习,豁然开朗。在这里记录一下,避免再踩坑。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM