时间复杂度定义
在进行算法分析时,语句总的执行次数T(n) 是关于问题规模n 的函数,进而分析T(n)随n 的变化情况而确定T(n)的数量级。
算法的时间复杂度,也就是算法的时间量度,记作T(n) = O(f(n))。它表示随问题规模n 的增大,算法执行时间的增长率和
f(n) 的增长率相同。f(n) 是问题规模n 的某个函数。
这种使用大写O来体现算法时间复杂度的记法,我们称之为大O记法。一般而言,随着n的增大,T(n) 增长最慢的算法为最优算法,如O(1)。
推导大O阶方法
1 用常数1取代运行时间中的所有加法常数。f(n) = 6 -> f(n) = 1
2 在修改后的运行次数函数中,只保留最高级阶项。 f(n) = n² + n -> f(n) = n²
3 如果最高次项存在且不是1,则去除与这个项相乘的常数。f(n) => n²/2 -> f(n) = n²
常数阶
不论n的大小,运行次数恒定的算法,我们称之为具有O(1)的时间复杂度,又为常数阶。如hash算法,即为f(n) = 1。
线性阶
运行次数与n的大小呈线性关系,我们称之为具有O(n) 的时间复杂度,又称线性阶。如遍历一个集合,即为f(n) = n。
对数阶
运行次数与n 的大小呈对数关系,我们称之为具有O(logn)的时间复杂度,又称对数阶。
如下程序,f(n) = log2n, 时间复杂度为O(n) = logn。
int count =1;
while(count < n) {
count = count *2;
}
平方阶
运行次数与n 的大小呈平方阶关系,我们称之为O(n2)的时间复杂度,又称平方阶。如等比数列。
常见的时间复杂度
执行函数 | 阶 |
---|---|
19 | O(1) |
n + 1 | O(n) |
n² + 1 | O(n2) |
3log2n + 2 | O(logn) |
n + nlog2n | O(nlogn) |
n³ + n | O(n³) |
时间复杂度大小依此为:
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n³)