㈠ 怎樣知道c語言運行一個程序用了多長時間
在程序開始時調用一次time()結束時調用一次time(),兩次相減就能獲得秒數。
例:
#include
<time.h>
#include
<stdio.h>
int
main()
{
int
iStartTime
=
time(NULL);
int
i
=
1;
int
iEndTime;
while
(i
>
0)//這里應該放你要運行的程序
{
i++;
}
iEndTime
=
time(NULL);
printf("%ds
elapsed.\n",iEndTime-iStartTime);
return
0;
}
但這個方法精度很低,只能精確到秒。要更高的精確度需要調用操作系統的API。如在Windows下,精確到毫秒級:
#include
<windows.h>
#include
<stdio.h>
int
main()
{
unsigned
uStartTime
=
GetTickCount();//該函數只有在Win2000及以上的版本才被支持
int
i
=
1;
unsigned
uEndTime;
while
(i
>
0)
{
i++;
}
uEndTime
=
GetTickCount();
printf("%ums
elapsed.\n",uEndTime-uStartTime);
return
0;
}
㈡ 怎樣計算程序的執行時間(C語言中)
在c語言中有專門處理系統時間,程序計時等等功能的庫,
即time.h
在time.h中函數clock_t clock( void )可以完成計時功能。
這個函數返回從「開啟這個程序進程」到「程序中調用clock()函數」時之間的CPU時鍾計時單元(clock tick)數,在MSDN中稱之為掛鍾時間(wal-clock)。其中clock_t是用來保存時間的數據類型,在time.h文件中,我們可以找到對它的定義:
#ifndef _CLOCK_T_DEFINED
typedef long clock_t;
#define _CLOCK_T_DEFINED
#endif
很明顯,clock_t是一個長整形數。在time.h文件中,還定義了一個常量CLOCKS_PER_SEC,它用來表示一秒鍾會有多少個時鍾計時單元,其定義如下:
#define CLOCKS_PER_SEC ((clock_t)1000)
可以看到每過千分之一秒(1毫秒),調用clock()函數返回的值就加1。
下面這個程序計算了循環1千萬次所用的時間:
#include 「stdio.h」
#include 「stdlib.h」
#include 「time.h」
int main( void )
{
long i = 10000000L;
clock_t start, finish;
double ration;
/* 測量一個事件持續的時間*/
printf( "Time to do %ld empty loops is ", i );
start = clock();
while( i-- ) ;
finish = clock();
ration = (double)(finish - start) / CLOCKS_PER_SEC;
printf( "%f seconds\n", ration );
system("pause");
}
運行結果如下:
Time to do 10000000 empty loops is 0.03000 seconds
參考資料:http://www.zxbc.cn/html/cjjhs/0312542045823.html
㈢ 如何在c語言中記錄程序運行時間
有個time.h
頭文件
clock_t
start,end;
start=clock();
......
end
=
clock();
end-start就是了。
單位為ms,但是不能太精確,因為其實返回的是clock數,但是一般夠用了,你可以搜一下。
㈣ C語言求一個程序運行時間
C/C++中的計時函數是clock()。
所以,可以用clock函數來計算的運行一個循環、程序或者處理其它事件到底花了多少時間,具體參考代碼如下:
#include「stdio.h」
#include「stdlib.h」
#include「time.h」
intmain(void)
{
longi=10000000L;
clock_tstart,finish;
doubleration;
/*測量一個事件持續的時間*/
printf("Timetodo%ldemptyloopsis",i);
start=clock();
while(i--);
finish=clock();
ration=(double)(finish-start)/CLOCKS_PER_SEC;
printf("%fseconds ",ration);
system("pause");
}
㈤ C語言中,我想顯示程序運行時間,請問問題在哪
修改如下,可以精確到毫秒的
#include<stdio.h>
#include<stdlib.h>
#include<time.h>
#include<windows.h>
int main()
{
time_t start,end;start=clock();//用clock(),它可以精確到毫秒的
Sleep(30); //調試的時候發現好像要大於10才能輸出時間
end=clock();
printf("程序運行時間為:%lfs\n",double(end-start)/CLOCKS_PER_SEC);
//CLOCKS_PER_SEC在time.h中定義,為1000,為毫秒換算成秒的基
system("pause");
return 0;
}
㈥ 在c語言中如何取得整個程序的執行時間
#include<stdio.h>
#include<time.h>
int main()
{
clock_t start,end;
start = clock(); //開始時,取得開始時間。
//你自己的代碼
end = clock(); //結束時,取得結束時間
printf("Run time: %lf S",(double)(end-start)/CLOCKS_PER_SEC);
return 0;
}
㈦ 計算C語言程序運行時間(hello world)
#include "time.h"
#include "stdio.h"
main()
{
double start, finish;
start = clock();//取開始時間
printf("Hello, World!\n");
finish = clock();//取結束時間
printf( "%f seconds\n",(finish - start) / CLOCKS_PER_SEC);//以秒為單位顯示之
}
上面的代碼理論上是可以顯示printf("Hello, World!\n");語句的運行時間的,但我猜實際的顯示結果是0,因為printf("Hello, World!\n");這個語句的運行時間是可以忽略不計的,加一個次數較多的循環才能看到效果
㈧ C語言中怎樣測試函數執行時間
有4種方法可以達成測算程序運行時間的目的。
它們分別是使用clock, times, gettimeofday, getrusage來實現的。
下面就來逐一介紹,並比較它們的優劣點。
系統測試環境:
VirtualBox (Ubuntu 9.10)
gcc version 4.4.1
libc6 2.10.1-0ubuntu16
Core Duo T2500 2GMHz
常式如下:
只要修改第11行的定義值,就可以使用不同的測量方法了。
#include <sys/time.h>
#include <sys/resource.h>
#include <unistd.h>
#include <stdio.h>
#include <time.h>
#define TEST_BY_CLOCK (char)(0x00)
#define TEST_BY_TIMES (char)(0x01)
#define TEST_BY_GETTIMEOFDAY (char)(0x02)
#define TEST_BY_GETRUSAGE (char)(0x03)
#define TEST_METHOD (TEST_BY_GETTIMEOFDAY)
#define COORDINATION_X (int)(1024)
#define COORDINATION_Y (int)(1024)
static int g_Matrix[COORDINATION_X][COORDINATION_Y];
double getTimeval()
{
struct rusage stRusage;
struct timeval stTimeval;
if (TEST_METHOD == TEST_BY_GETTIMEOFDAY)
{
gettimeofday(&stTimeval, NULL);
}
else if (TEST_METHOD == TEST_BY_GETRUSAGE)
{
getrusage(RUSAGE_SELF, &stRusage);
stTimeval = stRusage.ru_utime;
}
return stTimeval.tv_sec + (double)stTimeval.tv_usec*1E-6;
}
int main()
{
int i, j;
int n = 0;
clock_t clockT1, clockT2;
double doubleT1, doubleT2;
if (TEST_METHOD == TEST_BY_CLOCK)
{
clockT1 = clock();
}
else if (TEST_METHOD == TEST_BY_TIMES)
{
times(&clockT1);
}
else if (TEST_METHOD == TEST_BY_GETTIMEOFDAY)
{
doubleT1 = getTimeval();
}
else if (TEST_METHOD == TEST_BY_GETRUSAGE)
{
doubleT1 = getTimeval();
}
for (i = 0; i < COORDINATION_X; i++)
{
for (j = 0; j < COORDINATION_Y; j++)
{
g_Matrix[i][j] = i * j;
}
}
if (TEST_METHOD == TEST_BY_CLOCK)
{
clockT2 = clock();
printf("Time result tested by clock = %10.30f\n",(double)(clockT2 - clockT1)/CLOCKS_PER_SEC);
}
else if (TEST_METHOD == TEST_BY_TIMES)
{
times(&clockT2);
printf("Time result tested by times = %10.30f\n", (double)(clockT2 - clockT1)/sysconf(_SC_CLK_TCK));
}
else if (TEST_METHOD == TEST_BY_GETTIMEOFDAY)
{
doubleT2 = getTimeval();
printf("Time result tested by gettimeofday = %10.30f\n",(double)(doubleT2 - doubleT1));
}
else if (TEST_METHOD == TEST_BY_GETRUSAGE)
{
doubleT2 = getTimeval();
printf("Time result tested by getrusage = %10.70f\n", (double)(doubleT2 - doubleT1));
}
return 0;
}
1. 使用clock的方法:
clock是ANSI C的標准庫函數,關於這個函數需要說明幾點。
首先,它返回的是CPU耗費在本程序上的時間。也就是說,途中sleep的話,由於CPU資源被釋放,那段時間將不被計算在內。
其次,得到的返回值其實就是耗費在本程序上的CPU時間片的數量,也就是Clock Tick的值。該值必須除以CLOCKS_PER_SEC這個宏值,才
能最後得到ss.mmnn格式的運行時間。在POSIX兼容系統中,CLOCKS_PER_SEC的值為1,000,000的,也就是
1MHz。
最後,使用這個函數能達到的精度大約為10ms。
2. 使用times的方法:
times的用法基本和clock類似,同樣是取得CPU時間片的數量,所不同的是要除以的時間單位值為sysconf(_SC_CLK_TCK)。
3. 使用gettimeofday的方法:
用gettimeofday直接提取硬體時鍾進行運算,得到的結果的精度相比前兩種方法提高了很多。
但是也正由於它提取硬體時鍾的原因,這個方法只能計算程序開始時間和結束時間的差值。而此時系統中如果在運行其他的後台程序,可能會影響到最終結果的值。如果後台繁忙,系統dispatch過多的話,並不能完全真實反映被測量函數的運行時間。
4. 使用getrusage的方法:
getrusage得到的是程序對系統資源的佔用信息。只要指定了RUSAGE_SELF,就可以得到程序本身運行所佔用的系統時間。
㈨ C語言中如何輸出顯示程序的運行時間 望賜教!
BOOLQueryPerformanceFrequency(LARGE_INTEGER *lpFrequency);可以返回硬體支持的高精度計數器的頻率。先調用QueryPerformanceFrequency()函數獲得機器內部計時器的時鍾頻率。接著在需要嚴格計時的事件發生前和發生之後分別調用QueryPerformanceCounter(),利用兩次獲得的計數之差和時鍾頻率,就可以計算出事件經歷的精確時間。
#include"stdafx.h"
#include<windows.h>
#include<time.h>
#include"process.h"
#definerandom(x)(rand()%x)
int_tmain(intargc,_TCHAR*argv[])
{
LARGE_INTEGERfre={0};//儲存本機CPU時鍾頻率
LARGE_INTEGERstartCount={0};
LARGE_INTEGERendCount={0};
QueryPerformanceFrequency(&fre);//獲取本機cpu頻率
//開始計時
QueryPerformanceCounter(&startCount);
//運算
for(inti=0;i<10000000;i++)
{
floatfTem1=random(100)*random(1000)*random(10000)*random(100000);
}
//結束計時
QueryPerformanceCounter(&endCount);
//計算時間差
doubledTimeTake=((double)endCount.QuadPart-(double)startCount.QuadPart)/(double)fre.QuadPart;
printf("用時%f ",dTimeTake);
system("pause");
return0;
}