计算机上的O N代表什么意思,算法中的大O表示法
1.算法概念
计算机科学中的算法指的就是计算机执行的指令。
算法是计算机处理信息的本质,因为计算机程序本质上是一个算法来告诉计算机确切的步骤来执行一个指定的任务,如计算职工的薪水或打印学生的成绩单。
一般地,当算法在处理信息时,会从输入设备或数据的存储地址读取数据,把结果写入输出设备或某个存储地址供以后再调用。
-----------
输入 --> | 算法 | --> 输出
-----------
算法的核心是创建问题抽象的模型和明确求解目标,之后可以根据具体的问题选择不同的模式和方法完成算法的设计。
2. 时间复杂度
算法的时间复杂度是指算法需要消耗的时间资源。
一般来说,计算机算法是问题规模n 的函数f(n),算法的时间复杂度也因此记做:
T(n) = O(f(n))
算法执行时间的增长率与f(n) 的增长率正相关,称作渐近时间复杂度(Asymptotic Time Complexity),简称时间复杂度。
3. 空间复杂度
算法的空间复杂度是指算法需要消耗的空间资源。
其计算和表示方法与时间复杂度类似,一般都用复杂度的渐近性来表示。
同时间复杂度相比,空间复杂度的分析要简单得多。
4. 大 O 表示法
什么是大 O 表示法?
我们常常会听到有人说,“这个算法在最糟情况下的运行时间是 O(n^2) 而且占用了 O(n) 大小的空间”,他的意思是这个算法有点慢,不过没占多大空间。
这里的 O(n^2) 和 O(n) 就是我们通常用来描述算法复杂度的大 O 表示法。
大
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
