请教一个看似简单问题

wanderForEver 2003-10-08 07:04:10
下面是一个简单的程序:

#include <iostream>
class Test
{

public :
int getInt(){
int tmp = 1;
return tmp;
}
char* getStr(){
char tmp[] = {'a','b','c'};
return tmp;
}
};
int main(void){
Test myTest;
std::cout<<myTest.getInt()<<std::endl;
int tmp[] = {1,2,3};
std::cout<<*tmp<<std::endl;
std::cout<<*(myTest.getStr())<<std::endl;
return 0;
}

//记得很多次面试的时候,被别人问及那个getStr()函数(方法),我总是回答它的返回值是不可预料的,因为当调用返回以后,堆栈已经关闭了。面试的人也觉得对。

但是,上面那个简单的程序我却发现能打印出来预期的结果——难道我以前的理解错了?
如果没错,这个代码该怎么写才能体现那种堆栈关闭以后返回值不可预料的情况?
请大家指点,谢谢先。
...全文
23 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
wanderForEver 2003-10-09
  • 打赏
  • 举报
回复
结贴喽
smch 2003-10-08
  • 打赏
  • 举报
回复
你用一个指针指向返回值,然后Sleep一下再out该指针。不过也不一定可以。只要那个函数中使用的内存还没有被分配作其它用途的话可能还是同样的结果。
Darlinton 2003-10-08
  • 打赏
  • 举报
回复
I agree with mfc168. He is right.
不是每次都能返回不可预料的结果
因为你的返回值是一个地址,而当函数执行结束的时候,因为堆栈已经关闭,该地址有可能已经改变(返回错误值),有可能没有改变(正确),而地址是否改变,取决于你的其他操作是否有分配指针或内存操作占用了该地址空间
mfc168 2003-10-08
  • 打赏
  • 举报
回复
理解是正确的,但不是说每次都能返回不可预料的结果
因为你的返回值是一个地址,而当函数执行结束的时候,因为堆栈已经关闭,该地址有可能已经改变(返回错误值),有可能没有改变(正确),而地址是否改变,取决于你的其他操作是否有分配指针或内存操作占用了该地址空间
最近一直在研究爬虫和Lucene,虽然开始决定选用Heritrix来执行爬虫操作,但是后来发现用它来做还是存在一定的问题,比如需要程序生成相应的XML文件,对于同一个Job,怎样才能保证重复运行该Job时文件夹始终是同一个(Heritrix为Job创建文件夹的规则是“Job名称-时间戳”)等等,都是需要考虑的问题,最终还是将其搁浅。    后来google了一下,找到了一个简单爬虫的程序代码(http://www.blogjava.net/Jack2007/archive/2008/03/24/188138.html),随即试验了一下,发现确实能得到网页的内容,在这里还是要谢谢代码的提供者——Jack.Wang。    虽然试验成功,但是在随后的大数据量试验时,还是出现了问题。最初试验时,我只是让程序去抓取10个URL链接,当我将URL链接数改为100个时,问题出现了——URL中存在重复,而且非常容易的就变成死循环。举个例子来说,比如我首先爬的是A.html,在A.html中有两个链接:B.html,C.html,等爬完A.html以后,程序会爬B.html,这时如果B.html中的所有链接中有A.html这个页面的链接,那么程序又会去爬A.html这个页面,如此一来就形成了一个死循环,永远也不能停止。    跟踪程序发现,原来是在添加要抓取的网页的链接列表中,没有将已经抓取过的URL去除,所以才造成了死循环。现在虽然加上了这个判断,但是从我运行程序的效果来看,也不是很理想,总是感觉有些慢,800个页面要一两分钟才能爬完,这个我觉得有点说不过去。    这个产品,做到现在,我遇到了这么几个情况,有和大家分享的,也有向大家请教,求助的。    1.关于对应关系数据的保存方式    在创建索引的时候,需要将网页的URL和网页的内容传到相应的方法中,当然URL和内容是要对应的,也许是经验太少吧,我采取的是通过构建一个JavaBean的方式来传递的,不知道大家有没有更好的方法       2.关于要创建索引的内容的保存方式    最初的想法是不创建文件,直接将内容保存到变量中,然后创建索引,即先抓取网页的内容,然后将网页的内容和URL保存到自己构建的JavaBean对象中,接着将这个对象放到一个list列表中,等所有网页抓取完毕以后,将这个列表传到创建索引的方法中。这种做法看似不错,可是当URL数量很大时,会导致内存不够用,所以还是创建文件比较稳妥。    3.关于网页编码问题    遇到这个问题也是一个巧合,本来我抓取的是客户的一个网站,后来同事说如果客户看访问日志,这个月的数据会和平常的数据不一样,所以我就抓取公司的网站,结果,问题出现了。原先公司的网站是用GB2312编码做的页面,现在采用的是UTF-8的编码,虽然我已经判断了页面的编码,可是依然不能解决保存的文件中文乱码的问题,不知道大家有什么好办法没有。错误信息为:java.io.UnsupportedEncodingException    附件为爬虫代码 本文出自 “徘徊在c#,java,php之间” 博客,请务必保留此出处http://jerrysun.blog.51cto.com/745955/221879

16,466

社区成员

发帖
与我相关
我的任务
社区描述
VC/MFC相关问题讨论
社区管理员
  • 基础类社区
  • Web++
  • encoderlee
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

        VC/MFC社区版块或许是CSDN最“古老”的版块了,记忆之中,与CSDN的年龄几乎差不多。随着时间的推移,MFC技术渐渐的偏离了开发主流,若干年之后的今天,当我们面对着微软的这个经典之笔,内心充满着敬意,那些曾经的记忆,可以说代表着二十年前曾经的辉煌……
        向经典致敬,或许是老一代程序员内心里面难以释怀的感受。互联网大行其道的今天,我们期待着MFC技术能够恢复其曾经的辉煌,或许这个期待会永远成为一种“梦想”,或许一切皆有可能……
        我们希望这个版块可以很好的适配Web时代,期待更好的互联网技术能够使得MFC技术框架得以重现活力,……

试试用AI创作助手写篇文章吧