簡體   English   中英

測量計算時間

[英]Measuring computation time

我有一個與迭代一起使用的程序。 例如,如果我有50000次迭代,則程序進行50000次迭代,最后停止。 當我測量1000次迭代的計算時間時,我得到了(例如)1秒,但是對於50000次迭代,則為10秒。

我應該期望迭代次數和計算時間成正比嗎? 對於給定的示例,我不應該期望50秒鍾進行50000次迭代嗎? 我只是對結果感到困惑...

我正在使用clock()函數對其進行測量。 在迭代之前,我從srand(time(NULL))開始。 比定義clock_t startTime; startTime = clock(); .....並使用((double)(clock()-startTime))/ CLOCKS_PER_SEC)測量最終迭代時間:

在現代處理器上,測量性能可能很棘手,因為例如其中許多處理器的時鍾速度可變。

這意味着它們通常會變慢,因為不需要CPU,並且它們可以消耗更少的能量並以這種方式產生更少的熱量。

當您需要大量計算時,操作系統會檢測到CPU現在可以工作了,可以提高時鍾速度(以及熱量和電流)以更快地獲得結果。

為避免出現此特定問題,您應該測量計算中使用的時鍾周期,而不是cpu時間(或更糟糕的掛鍾時間)。 一個好的分析器應該給您這個選項(我正在使用oprofile )。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM