计算机里面递归的作用是什么?

相信每一个计算机科班出身的同学或许都有这样的经历:在大三的某一天,仿佛打通了全身筋脉一般把三年的所学:“数电里的与非门——计算机体系结构——汇编语言——C语言——C++语言——Java语言”。所有知识全部串联了起来。所有这些语言的出现都仿佛都有了必然性和追根溯源的历史感。

读懂此文,需要以下基础:

2. 汇编基础(静态数据段,代码段,堆栈段)。

有以下或者类似知识就更好了:

1. C语言编译,C++对象模型,MFC反射的实现

2. JAVA的解释器运行原理

3. 使用过javascript,Python,PHP:感受过代码和类型系统在运行时的自由程度的不同

**序 —— 一些问题**

1. 程序设计语言的目的是什么?

2. 为什么大多数语言有控制流?逐行执行+跳转。这与我们的需求差很远(例如一个教务管理系统、一个自动打车APP)

3. 为什么类型申明在C语言中要与控制流隔离开来?

4. 现在主流语言最基本的元素是?

5. 有没有语言它的类型结构,在运行时也可以改变?

1. 编译后确定了什么信息,之后不再改变;

2. 运行时可以改变、添加什么;

3. 运行时是否保存着类型信息。

程序中的信息分为几类?

a) 编译时Meta-Data元数据(类型框架、空间占用)

b) 运行时Meta-Data元数据(继承体系、用于new或者反射)(特别区别编译与运行的Meta-Data的不同。)

c) 堆栈段中地址偏移(C++的switch case中不能声明变量、共享内存)

a) 代码段(动态性需要操作系统或者虚拟机支持,例如动态链接库,动态类加载,lisp语言自生成代码)

汇编语言没有动态性吗?

没有。首先,寄存器、数据段、堆栈、代码段完全由程序员控制。完完全全是写死了的。然后,根据冯诺伊曼机的规则;取指令,执行,取指令,执行……

既然都有数据段了,还要堆栈段来做什么?这不是多余?

一开始本没有堆栈,直到60年代出现了module模块化,才有了堆栈。汇编中的模块叫子程序,不过仍旧靠程序员全权控制。

堆栈和模块化的优点有?

2. 功能分离到模块,可复用

堆栈和模块化的缺点有?

1. 时间上:保存现场、还原现场的代价(另,高级语言编译“消除尾递归”节约部分成本)

2. 空间上:爆栈的危险

C语言比起汇编多了什么东西?

2. 表达式(相比汇编,可以处理多个操作数了。)

3. 函数与模块{}(真·模块化,栈操作无需程序员完成)

4. 类型(原子类型、结构类型、数组、指针)

总之,C语言并没有比汇编多了新的特性,它只是把汇编的繁琐操作抽象出来,让编译器完成,减轻程序员负担。

1. 解析表达式,控制流(汇编中指令只有1-3个操作数,而表达式可以多个操作数)

2. 模块和函数的抽象(完成堆栈中保存恢复现场的工作)

3. 类型变量的管理(所有变量被替换成直接访问的地址,最快的访问速率)

变量是替换成可以直接访问地址的?

a) 编译时的Meta-Data(struct的成员,数组的长度,以便替换到指令流;只在编译器中维护,编译结束后丢弃)

b) 计算出每个变量相对于该模块的偏移(一旦算出该偏移地址,将固定在执行码中,无法改变;就是说编译完成后,所有变量的偏移地址都固定下来了。)

c) 对变量的存储进行管理(所有的变量/内存地址的布置,都是在编译时确定的;也就是说,可执行码中没有类型信息,只有地址,任何数据都是地址来操作,完全和汇编类似。至于寄存器的安排,那是更下一层的类似缓存策略算法的结果。)

编译出来的执行码与汇编的执行码有特征的区别吗?

没有。特别是在编译器优化之后。

无法通过执行码,区分汇编和C程序。

打个比方,一只“程序猫”在黑笼子里,在里面喵喵的叫,无法通过它的叫声来判断它是“汇编猫”还是“C语言猫”。

从效率上来讲,C的多余代价在哪里?

总之,经过优化的C程序执行码与汇编效率几乎相同。

因为从理论上来说,C并没有引入运行时的新机制。

我理解的C语言只是一种汇编的宏而已。

(推荐《深度探索C++对象模型》)

C++语言比C语言多了什么?

5. 涉及到了多种编程范式

(开始更抽象,语言逐渐开始脱离冯氏结构。)

其中,面向对象的思想,让程序与现实事物的关系更加紧密。

程序设计的负担,也因为OO与设计模式的流行,而变得轻松。

就是一套指导思想行为准则。

(例如,C是过程式,Haskell是函数式,JAVA是面向对象,Python是简单的大杂烩,shell是调用命令的,lua是调用c程序的,PHP是写页面的,ProLog是线性逻辑推理的。

再再例如,CSS是描述网页表现的,HTML是描述网页内容的。

C++有什么编程范式?

1. 过程式(使用STL的类C语言编程)

2. ADT式(自定义抽象数据类型,继承;但是不用new,不用virtual;拷贝构造;为了防止资源泄漏,也发明了RAII的方式进行资源的初始化和释放)

3. 面向对象式(使用new,使用virtual,需要指针或引用;实现多态。)

4. 泛型编程(《Modern C++ Design》各种奇淫技巧,业务层代码比较少遇到)

C++编译器是怎样实现的?

C++开始有一个叫做cfront的编译器,即把C++语言先翻译成C语言。

然后再用C编译器来编译,C的编译器并不知道此段代码是来自C++还是C。

C++语言特性分别是怎样实现?简单说。

1. 成员变量:和C语言的struct 类似,最后也会被直接替换成地址,便于高效访问。

3. 类型继承体系:通过C++编译时的Meta-Data来实现。即在编译时,编译器是知道类型信息与继承体系的,但是编译成C语言后就丧失了此类型信息。

4. 虚函数、虚继承:为了支持多态,这也是“面向对象”最重要的特性,使用了虚函数表和虚基类表。注意,运行时多态是通过运行时查表实现的。稍后详细说。

5. 模板:通过代码复制的方式实现。每次编译都需要重新编译,不能编成库文件直接使用。

1. 首先,C++的编译准则,希望做到与C一样的效率。希望做到以下:

——a) 没有运行时调用间接性。任何数据在运行时都是一个地址直接就访问到。

——b) 没有运行时的Meta-Data。无需通过Meta-Data来访问某个复杂的类层次。

——c) 所有的数据都希望用C中struct来实现,即在编译时就确定好对象及其成员地址。

2. 以上,在过程式范式,与ADT范式中都是成立的。

3. 但是,在面向对象范式中,渴望做到:

**需要维系着同一个继承体系成员结构的一致性,只有这样,才能保证运行时的多态性。即希望通过同一个入口,访问到父类或者子类的相同数据成员、函数成员,而不在乎具体对象的是父类还是子类。**

i. 虚函数,运行时,每个有虚函数的类型(哪怕是子类)都维持着一个虚函数表,这已经是运行时的Meta-Data,通过查表,即可找到对象自己的虚函数。

——如何处理后继的base基类?由编译器判断指针类型并加上相应的偏移。

——添加一个虚基类指针,指向共享部分。

1. 虚基类的子类都要背负一个基类指针指向共享部分。如果继承了多个虚基类,还需要多个这样的指针。(Microsoft的解决方法是增加一个虚基类表,类似于虚函数表。)

2. 虚继承链条的增加,会导致间接访问的层次增加。例如两个菱形继承的串联。

跨平台的级别有哪些级别?——头文件,库,源代码

1. C++确实在源代码的层次是可能跨平台的(例如《POSA2》中加了针对不同平台的各种宏的代码)。

2. 也可以通过相同的头文件去访问不同平台的库。

3. 但是,不同操作系统中的不同的API大大增加了跨平台的难度。

4. 跨平台的责任留给了程序员(充斥着大量宏的C++跨平台代码确实让人头疼。)

5. 编译器面对不同的系统也不敢作为,它只是负责编译源代码,链接。

如何使用C++才能保证其高效性能?

1. 有额外负担的机制:虚函数,虚继承,拷贝构造。

2. 用一次虚函数,多了一次指针寻址的效率损失,并且相对于inline内联(另,inline是编译器优化的重头),还损失了保存和恢复现场的效率。

3. 用一次虚继承,也多一次指针寻址的效率损失。(另,虚基类没有成员变量没有虚函数的时候会被优化。这也是JAVA可以多重继承接口interface的原因。)

4. 不要使用virtual在复杂的多继承,深层次继承中。

5. 编译速度会较慢:virtual机制会使编译器处理更多的Meta-Data。

(推荐《本地Java代码的静态编译和动态编译问题》)

JAVA语言比C++语言多了什么?

3. 没有类的多继承,有接口的多继承。

从编译来说,JAVA比C++迈出了一大步。

它的跨平台特性和运行时的灵活性,为JAVA自己以及未来语言都提供了很多可能性。

1. 跨平台:在OS与字节码间隔了一层。实现了程序员无负担的跨平台。

2. 动态编译:许多信息不必在编译后确定,为动态特性提供可能,稍后详细说。

3. 运行时维护着类型信息,甚至可以加载新的类型。(CORBRA依赖这个实现)

JAVA编译执行的过程是怎样的?

1. 编译后产生一个基于堆栈的字节码。

2. JRE在不同的OS上提供支持。

3. 起初的JRE是解释执行的,效率低下。

a) 获取待执行的下一个字节码。

c) 从操作数堆栈获取所需的操作数。

d) 按照 JVM 规范执行操作。

e) 将结果写回堆栈。

JAVA是如何解决执行效率低下的问题呢?

JIT(Just-in-time)是怎样运行的呢?如何解决了效率的问题?

1. 每次按照一个function来编译。转成中间表示,并优化其效率,再生成可执行码。

2. 编译器的编译线程和执行线程是分开的,应用程序不会等待编译的执行。

3. 分析框架Profiler会观察程序行为,对频繁执行的function进一步优化。(例如function内部对象维持一个池不必每次生成。)

动态编译的优点有什么?

可以根据程序的行为,优化其代码

1. 例如频繁执行的function——热方法

2. 例如arrayCopy方法,如果每次都拷贝大段内存,在指令集中有特别指令可以加速。

3. 例如类层次结构,多态的优化。(大多数虚调用都有其固定的一个目标,JIT因此生成的直接调用代码比虚表调用代码的效率会更高。)

动态编译的缺点有什么?

1. 大量的初始编译会影响程序启动时间。

2. 运行时候的编译,行为分析都需要花费时间。

3. 运行效率达到稳定需要时间。

4. 实时GUI型的程序不能忍受“动态编译”和“GC”带来的延迟。

JAVA如何解决实时的需求?

使用AOT(Ahead-of-time)编译器:预先编译成为可执行码。

对于一些动态特性的支持效率低下

总体来说,JAVA适合怎样的应用呢?

JAVA比较时候需要长期运行的应用,例如Web服务器,Daemon服务。

函数式语言通常有哪些呢?

2. 包含了函数式特性的语言

函数式语言有哪些特性?

1. 函数无副作用,只对输入输出有作用

2. 高阶函数,lamda演算。(这个像C函数指针,但是它是高阶的,即返回值可能也是函数)

3. 没有过程,类似规格说明的语法,更容易理解,自解释。

4. 基于list的编程,函数更通用。

5. 惰性计算(这个很像“树形DP”)

6. 有对应的数学形式化表达,有可能证明其正确性。(最终目标可能是保证程序没有bug。)

7. 其模型适合多核或者分布式的计算。

**最重要的是,由于函数式语言不可在同一数据上做修改,每一次运用一个函数都会在新的位置产生新的数据,这与过程式语言在同一位置对数据做多次操作不同:函数式语言的函数依赖于前一次函数产生的结果数据,过程式语言依赖于数据的位置。这里函数式语言就暗含了计算的依赖顺序,如果没有前后顺序关系,就可以并发。而过程式语言没有指定这个顺序,就需要通过加锁、Actor、Channel等模式来指定这个顺序**

总的来说,函数式语言,向着更抽象迈了一大步,更像是数学上的表达,几乎与冯诺伊曼体系断绝了关系。

1. 效率不高(因为其抽象,远离了冯诺伊曼体系)

2. 平台以及开发环境都比较简单。

3. 缺少推广,应用不广泛

ProLog语言,线性逻辑。人工智能语言。没有接触过。

1. 多态性:运行时根据具体对象来访问属于它的方法。(而不理会指针的类型。)

2. 反射:运行时维系着类型结构的Meta-Data。

3. 运行时类加载:运行后再次加载新的数据类型和指令流。

4. 动态链接:OS根据按需链接库文件。

编译语言 和 解释语言 的分界在哪里?

语言本身并没有编译类型或者解释类型。(例如:JAVA也可以静态编译后成可执行码。)只有少数运行时特性是依赖于解释型的。(可能需要运行环境的支持。)

为什么解释语言都需要虚拟机或者运行环境支持?

动态编译,运行时Meta-Data的保存,这些功能对于每个程序都是一致的。

所以把它们分离开来,不必每个程序植入这些代码

非脚本语言 和 脚本语言

脚本语言,我理解是负责调度其他代码的语言。

例如shell脚本(调用命令),lua(调用C)。

1. 源码跨平台(C,C++,但是因为系统调用接口不同,程序员负担太大,但是汇编却不是。)

2. 执行码跨平台(JAVA,有些语言直接从源码解释执行,例如Javascript,PHP)

发展历史(推荐《近看图灵碗 (一. 从苏黎世到巴黎)》)

学术上有哪些实验性语言?

程序设计语言的目的是什么?

为什么大多数语言有控制流?逐行执行+跳转。这与我们的需求差很远(例如一个教务管理系统。)

逐行执行,很大程度是起源于冯诺依曼体系结构。

为什么类型申明在C语言中要与控制流隔离开来?

因为在编译时,具体的类型信息,要转化成地址偏移,然后替换控制流中的类型变量。

现在主流语言最基本的元素是?

控制流 与 类型系统。

有没有语言它的类型结构,在运行时也可以改变?

Javascript只有对象没有类,使用prototype的方式继承,运行时给某个对象添加新的数据成员。没有类型体系。

许多后来的语言在运行时都保存着类型信息的,例如Python,JAVA。

类型系统——为了计算出变量地址信息

}

一个过程调用自身的方法称为递归。

递归方法在计算机编程中广泛应用,Stack Overflow的创始人之一Joel Spolsky在《JAVA语言学校的危险性》一文中特别提到了指针和递归对程序员能力的重要程度,不过好像很多软件工程师在编程中不怎么使用递归,甚至有的大公司编程规范直接避免使用递归,之所以会这样主要是能够基于过程自身来定义它的想法会让人不安,能够调用自身的过程怎么会有意义哪?公司规范要求避免使用递归是希望尽量避免代码不可控,因为不是所有的程序员都能很好地使用它,但是作为一个有理想的程序员,必须要认真对待并掌握递归,因为它是构建大型软件系统的根基。

去年有一部非常火爆的电视剧《开端》,主人公在不停地循环进入相同的公交车场景,这非常像递归的思想,自己不断地在调用自身的过程(公交车剧情),递归之所以让人不安,就在于如果使用不当很容易陷入死循环而无法自拔,这就需要有退出条件,《开端》这部剧退出循环的条件就是还原真相,救下所有的当事人。
递归中的递是进入的意思,归是返回的意思,也就是递归的过程是由进入和返回两个部分组成的,可以想象地下城寻宝的游戏场景,首先是从地面进入,反复进入一层又一层的地穴中寻找宝藏,直到在最深处的地穴中发现了宝藏,就可以原路一层又一层的逐步返回到地面了。进入地穴直到最深处的过程就是“递”,发现了宝藏就是退出条件,返回到地面的过程就是“归”

阶乘在数学上的定义如下:
根据上面的公式可以推断出下面两个结论:
递归虽然让人不安,但是实际上递归却相当自然明了,我们可以轻易地根据公式写出递归方式计算阶乘的方法,以python为例:
代码几乎就是数学公式的直译,我们以计算6!为例把整个计算过程展开如下图,要计算6!需要逐层递进,直到遇到1!=1这个退出条件,接着就是逐层返回计算结果直到得出最终结果720。

通过上图的形状我们可以看到,计算n!的步骤(时间维度)随着n的规模增加而线性增加,同样的空间(资源消耗)也会随之线性增加,因为解释器要维持层层调用的中间过程所需要的开销。

采用递归方式求阶乘是一种自顶向下的计算方法,还可以采用自底向上的迭代方式计算阶乘,我们把计算阶乘的公式调整一下,先从1开始逐步累乘到n。
同样把计算6!的计算过程展开,发现通过迭代方式计算n!的步骤(时间维度)随着n的规模增加而线性增加,但是空间消耗却是固定的,因为计算过程中阶乘的结果都保存在product这个变量中。


递归思想实际上就是把问题分解为更小规模的问题,每分解一次后的问题就更接近能直接得出结果的基本问题,也就是退出条件。使用递归过程就是设计出问题的分解方式以及找到退出条件。lisp语言支持一种叫“尾递归”的能力,使得在递归形式下也可以进行迭代计算,也就是说所谓的fow、while循环不过是递归形式的语法糖而已,但是并不是所有的语言天然就支持尾递归,也就是说不支持尾递归的语言,既是递归形式上进行的是迭代运算,解释器仍然会维持中间过程的空间开销。

}

我要回帖

更多关于 正则表达式的作用 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信