1. 时间复杂度
计算方法:
1.一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。
2.计算方法
1. 一般情况下,算法的基本操作重复执行的次数是模块n的某一个函数f(n),因此,算法的时间复杂度记做:T(n)=O(f(n))分析:随着模块n的增大,算法执行的时间的增长率和f(n)的增长率成正比,所以f(n)越小,算法的时间复杂度越低,算法的效率越高。
按数量级递增排列,常见的时间复杂度有: 常数阶O(1),对数阶O(log2n),线性阶O(n), 线性对数阶O(nlog2n),平方阶O(n2),立方阶O(n3),…, k次方阶O(nk), 指数阶O(2n) 。随着问题规模n的不断增大,上述时间复杂度不断增大,算法的执行效率越低。
指数时间
指的是一个问题求解需要的计算时间m(n),依输入数据的大小n而呈指数增长(即输入数据的数量依线性增长,所花时间将会以指数增长)
for (i = 1 ;i<=n;i++)
x++;
for(i = 1;i i<= n; i++)
for (j = 1;j <= n;j++)
x++;
第一个for 循环的时间复杂度为O(n),第二个for循环的时间复杂度为O(n^ 2) ,则整个算法的时间复杂度为O(n+n^2) = O(n ^ 2 )
常数时间
若对于一个算法,T(n)的上界与输入大小无关,则称其具有常数时间,记作O(1)时间,一个例子是访问数组中的单个元素,因为访问它只需要一个指令,但是,找到无序数组中的最小元素则不是,因为这需要遍历所有元素来找出最小值,这是一项线性时间的操作,或称O(n)时间,但如果预先知道元素的数量并假设数量保持不变,则该操作也可被称为具有常数时间。
对数时间
若算法的T(n) = O(log n),则称其具有对数时间
常见的具有对数时间的算法有二叉树的相关操作
和二分搜索。
对数时间的算法是非常有效的,因为每增加一个输入,其所需要的额外计算时间会变小
递归地将字符串砍半并且输出是这个类别函数的一个简单例子,他需要O(log n)的时间因为每次输出之前我们都将字符串砍半,这意味着,如果我们想增加输出的次数,我们将字符串长度加倍。
线性时间
如果一个算法的时间复杂度为O(n),则将这个算法具有线性时间,过O(n)时间,非正式的说,这意味着对于足够大的输入,运行时间增加的大小与输入成线性关系,例如,一个计算列表所有元素的和的程序,需要的时间与列表的长度成正比。
所以说:
log n > nlogn > n ^ 2
O(N) > O(n ^ 2)