算法的时间复杂度


时间复杂度定义

在进行算法分析时,语句总的执行次数T(n) 是关于问题规模n 的函数,进而分析T(n)随n 的变化情况而确定T(n)的数量级。
算法的时间复杂度,也就是算法的时间量度,记作T(n) = O(f(n))。它表示随问题规模n 的增大,算法执行时间的增长率和
f(n) 的增长率相同。f(n) 是问题规模n 的某个函数。

这种使用大写O来体现算法时间复杂度的记法,我们称之为大O记法。一般而言,随着n的增大,T(n) 增长最慢的算法为最优算法,如O(1)。

推导大O阶方法

1 用常数1取代运行时间中的所有加法常数。f(n) = 6 -> f(n) = 1
2 在修改后的运行次数函数中,只保留最高级阶项。 f(n) = n² + n -> f(n) = n²
3 如果最高次项存在且不是1,则去除与这个项相乘的常数。f(n) => n²/2 -> f(n) = n²

常数阶

不论n的大小,运行次数恒定的算法,我们称之为具有O(1)的时间复杂度,又为常数阶。如hash算法,即为f(n) = 1。

线性阶

运行次数与n的大小呈线性关系,我们称之为具有O(n) 的时间复杂度,又称线性阶。如遍历一个集合,即为f(n) = n。

对数阶

运行次数与n 的大小呈对数关系,我们称之为具有O(logn)的时间复杂度,又称对数阶。
如下程序,f(n) = log2n, 时间复杂度为O(n) = logn。

int count =1;
while(count < n) {
  count = count *2;
}

平方阶

运行次数与n 的大小呈平方阶关系,我们称之为O(n2)的时间复杂度,又称平方阶。如等比数列。

常见的时间复杂度

执行函数
19 O(1)
n + 1 O(n)
n² + 1 O(n2)
3log2n + 2 O(logn)
n + nlog2n O(nlogn)
n³ + n O(n³)

时间复杂度大小依此为:
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n³)


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM