[英]Worst-case time complexity of a recursive dividing function?
鉴于此算法:
void turtle_down(double val){
if (val >= 1.0)
turtle_down(val/2.0);
}
据我所知,T(n) = T(n/2) + O(1)。
O(1) 是基函数最坏情况下的时间复杂度,即 val != 0.0(我做对了吗?)。 然后递归调用给出了 T(n/2) 的时间复杂度,因为我们在递归调用之前除以 n。 那正确吗?
但我不明白如何在这里做数学。 我不知道我们将如何达到 O(log n)(base 2)。 有人愿意解释或向我展示数学吗?
void turtle_down(double val){
if (val != 0.0)
turtle_down(val/2.0);
}
在上面的代码中,测试条件if (val != 0.0)
可能不会给你预期的结果。 它会进入一个无限循环。 考虑 val=32 的情况。 可以看到,通过与 2 重复除法,它永远不会达到 0。
但是如果你用if (val >= 1)
替换测试条件,那么给定函数的递归关系将是 T(n) = T(n/2) + O(1)。
在这种情况下,时间复杂度为 T(n) = O(log n)。
要获得此结果,您可以使用主定理。
要理解给定的复杂度,请考虑 val = 32。您可以将 val 重复除以 2,进行 5 次,直到变为 1。注意 log 32 = 5。由此我们可以看到对该函数的调用次数为log n
.
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.