C语言测量算法运行时间:简单示例及精度提升方法
在C语言中,可以使用'clock()'函数来测量算法的运行时间。下面是一个简单的示例程序:
#include <stdio.h>
#include <time.h>
// 待测量的算法
void algorithm() {
// 执行需要测量的操作
for (int i = 0; i < 1000000; i++) {
// ...
}
}
int main() {
clock_t start_time, end_time;
double total_time;
start_time = clock(); // 记录开始时间
algorithm(); // 执行待测量的算法
end_time = clock(); // 记录结束时间
total_time = (double)(end_time - start_time) / CLOCKS_PER_SEC; // 计算总运行时间
printf("算法运行时间:%f 秒\n", total_time);
return 0;
}
在上述示例程序中,使用了'clock()'函数来记录算法开始和结束的时间,然后通过计算两个时间之差来得到算法的运行时间。'CLOCKS_PER_SEC'是一个常量,表示每秒钟的时钟周期数。最后,使用'printf'函数将运行时间输出到控制台。
注意,'clock()'函数返回的是时钟周期数,而不是实际的时间。如果需要更精确的计时,可以使用操作系统提供的更高精度的计时函数,如'gettimeofday()'或'QueryPerformanceCounter()'。
原文地址: https://www.cveoy.top/t/topic/mNDy 著作权归作者所有。请勿转载和采集!