首页 > 其他 > 详细

计算理论的重大突破,无限深度递归

时间:2014-09-29 12:22:41      阅读:269      评论:0      收藏:0      [点我收藏+]

目前无论是Lisp还是Javascript(C++就更不用说了),递归深度都远远低于可用内存大小,而且栈一旦分配就无法挪动(有指针似乎无解),这个问题的根源在于call指令会把下一指令的地址入栈。我经过几年的思考终于发现,可以把C++的内存模型完全放在堆上,也就是说进行call之前先new出调用函数所需要的空间,而把返回地址作为参数传递进去。这样就从根源上解决了此问题,那什么尾递归就是个渣,完全没有通用性。还有个好处就是程序长时间运行可以合并大量零碎内存。


比较有意思的评论:


call 需要调用 new,new 本身就是个函数调用,那逻辑上岂不是无限递归了。


还有有几个脑残Lisp会显式限制递归深度的。yinwang都噗了几遍“栈”了你咋还不长进。R.K.Dybvig反倒是前在一篇dissertation指出在他之前Scheme实现还都没直接用你所谓的栈的。


计算理论的重大突破,无限深度递归

原文:http://blog.csdn.net/roundsheep/article/details/39667593

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!