做个关于图灵测试的调查,请大家积极参与,谢谢

starfish 2002-02-25 08:20:36
图灵在1950年提出了“图灵测试”,用来检验一台机器是否能够思维。图灵测试的过程如下:有A,B,C三个参与者,A,B中有一个是一台超级计算机,另一个是人;C是一个人。这三个参与者分隔在三个不同的房间内,互相看不见对方。C可以对A,B提出问题,而A,B都必须回答C提出的问题。现在C试图通过向A,B提出问题来确定A,B中哪个是人哪个是电脑,而A,B都尽量地使C相信自己是人。最后如果C不能判断出A,B中到底哪个是电脑,则称该电脑通过了图灵测试。图灵认为这样的电脑就算是能够思维的电脑了。

现在如果你是C,你希望尽可能地区分出人和电脑,你会向A,B提出什么问题?注意,这里假设那台计算机非常先进!
...全文
984 74 打赏 收藏 转发到动态 举报
写回复
用AI写文章
74 条回复
切换为时间正序
请发表友善的回复…
发表回复
momijido004 2010-06-09
  • 打赏
  • 举报
回复
两种方法可以区分人和机器。。
第一:问人和人之间都知道的随机问题,这是人工智能不可能事先准备好的。例如:你房间的灯亮着么
第二: 问带有需要背景知识才能回答的问题,人工智能不可能包含世界上所有的背景知识,特别是刚发生的世界大事。如:上海那边排队真长是吧?(应为上海在举行世博会,排队人多,问题中不提及,暗示即可,就能区分人和机器了)
starfish 2002-04-26
  • 打赏
  • 举报
回复
mrunix 所举的例子是中文屋子试验,这个例子经常被用来反驳强人工智能主义者。
radioheads 2002-04-25
  • 打赏
  • 举报
回复
那个机器人的回答太公理化

me:let's talk about love
she:we all need it

让人感觉假,要是人的话,可能会问:do you have a girlfriend?
深水蔚蓝 2002-04-25
  • 打赏
  • 举报
回复
关于图灵测试,在目前的条件下,或者是基于目前机器是不可能成功的!


我们知道目前的机器他只会做算术运算和逻辑的判断.


我们写一个有"智能"的程序,然后根据我们所写的算法来进行运算,判断


然后得出这句话的"意思".我们就说这个机器理解了这句话.


现在我们假设这个计算功能强大的机器的运算能力与整个美国的人的运算能力是一样的.


然后我们给出一句中文给他们翻译成英文,所有的美国人每个人计算其中一部分.然后,根据所有美国人以这个算法计算出的结果,翻译了这句中文.假定他们的结果是对的.


但是,我们就能说作为一个整体的美国人理解了这句话吗?因为每个个体他只计算他那一部分.


在整体中所有个体还没有理解这句话的时候,说这个整体理解了这句话显然是很荒谬的!


电脑计算出了这句话的意思,我们就说电脑理解了这句话,也同样是很荒谬的!
nielinjie 2002-04-25
  • 打赏
  • 举报
回复
其实starfish (海星) 就是一个机器人……
natureshuo 2002-03-05
  • 打赏
  • 举报
回复
结论
综上所述我的观点是:
1。你的假设即“那台计算机非常先进”不能成为“能否找到一个合适的问题序列,来确定对方是否有思维?”或者是“你能否通过提问尽可能地区分出人和电脑”这两个问题的的有效前提
2。若想解决“找到一个合适的问题序列,来确定对方是否有思维”或者是“通过提问尽可能地区分出人和电脑”这两个问题,必须清楚此智能电脑的智能算法中存在的“破绽”(即人类刚刚认识的或其他情况——暂时称为破绽)或者清楚被测人的局限,否则凭空问几个问题,来确定对方是否有思维,是不科学的(个人观点)
3。计算机只能解决有穷尽的问题,正像你所说“思维有其不确定性”,不确定的事物有无穷种可能,所以我认为通过算法(在不了解其破绽的前提下)解决不了你的问题。


jobuson 2002-03-05
  • 打赏
  • 举报
回复
hornbills(犀鸟) 的论述甚是精彩。
佩服,佩服!
Justin 2002-03-05
  • 打赏
  • 举报
回复
有兴趣研究oicq自动聊天机器人的(alicebot for oicq) 请看:
-----------------------------------------------------
程序名称:qq聊天机器人--在oicq和icq上自动和多人对话,包含C Alice 0.2.7
程序功能:
本程序免费发送。希望大家能了解到最新的聊天机器人的功能。
qq聊天机器人能自动和qq用户用英文聊天。
目前只有英文交谈功能。
本程序封装了 C Alice 0.2.7。
关于 alice robot 的信息,可以直接去 www.alicebot.org
现在程序真正实现的了多人互不干扰对话功能。
本程序对 C Alice 0.2.7 做了修改,以便它能使用最新的
Alice ProgramD 版本的 aiml 文件。
此程序仍然不支持汉字。

源程序: 发e-mail给 zhaoweidong@yeah.net,我会给你source和exe的.
使用方法:
1. 打开qq,点你要聊天的用户,切换到"对话模式".
2. 修改 control1_oicq.bat中的qq用户名字。
control1_oicq.bat内容为:
x86\debug\control1.exe /qquser:"xiaoxin (" /qqtype:"3"
其中
x86\debug\是相对与当前路径,control1.exe所在的路径;
/qquser:"xiaoxin (": 我的qq用户名字是xiaoxin,我说的话的格式是
"xiaoxin (15:14:00): 大家好,",
这里参数 /qquser:"xiaoxin ("
表示不对 "xiaoxin ("开头的话进行回复。
/qqtype:"3"表示使用oicq,/qqtype:"4"表示使用 icq.
3. 运行 control1_oicq.bat,点界面中Refresh会刷新当前所有处于对话模式的用户.
4. 现在,只要对方用英文和你谈话,机器人就会自己和他交谈。
5. 如果是icq,修改icq_control1.bat中的设置。
6. icq 要弹出对话框后在运行 icq_control1.bat, oicq要把对话模式设置为“对话模式”,然后
运行 control1_oicq.bat才有用。
7. 如果想不自动回复用户,只要关闭icq或者oicq的对话框就可以了。如果已经运行 control1_oicq.bat,
后来又增加了聊天用户,点 control1_oicq.bat界面上的Refresh按钮就可以了。
8. ok.
源程序介绍:
1. aifun.dsw 中是VC++的工程文件。
aifun.dsw 包括一下工程:
2. calice027.dsp : C Alice 0.2.7 版本的修改版本。被我修改了很多。
calice027.dsp生成的calice027.dll 会被conlib.dll(见下面的介绍)调用。
3. conlib.dsp: control1.exe 把 conlib.dll inject 到 oicq (或者 icq)的运行程序中,以便
    conlib.dll能拦截 oicq(icq)用户谈话的内容。
conlib.dll 在得到对方的回话后,会调用 calice027.dll中的方法 来生成
              应答语句,然后 conlib.dll 把应答语句发给 oicq(icq)用户。
4. control1.exe: 通过control1.exe,动态的inject conlib.dll 到oicq(icq) 的可执行文件中(不用
修改 可执行文件)。
control1.exe 的 Refresh 可以更新 当前自动回复的用户列表。
5. qqtest.exe : 用于调试 conlib.dll 和 control1.exe。qqtest.exe 模拟oicq的对话环境。
6. ielib.dsp : ielib.dll 目前没有使用。
7. aiml_pd2c : 把 Alice ProgramD 的 aiml 文件,转换到 C Alice 0.2.7 版本的格式。

联系我:e-mail: zhaoweidong@yeah.net
oicq: 23371822





--------------------------------------
作者已经发给我到这个程序了,不过我还没调试好,弄出来后给大家一个号码,
用英语来聊~
EastDawn 2002-03-05
  • 打赏
  • 举报
回复
最简单的,让它问题。
hornbills 2002-03-04
  • 打赏
  • 举报
回复
如果谁够级别在文档中心发表技术文档

请将上帖内容发布在文档中心

希望此帖对喜欢AI的朋友有所帮助
hornbills 2002-03-04
  • 打赏
  • 举报
回复
我谈谈我的看法,主要分五部分:

1、 关于图灵测试的几点建议
2、 图灵测试的局限性
3、 我们应注意的焦点
4、 系统的复杂度和知识的继承
5、 我的哲学思考

第一部分 关于图灵测试的几点建议

图灵测试是检验机器是否具有思维的一种方法,但是不是唯一方法。
图灵测试的原理我可以通过巴赫金的《应答的建筑学》来解释,即:
任何实体对外界的反映即可反映其实质。
通俗来说,两件物体,假如对外界的所有反应都相同,那么我们可以判断二者有相同的本质。

比如 一个乒乓球大小的黑洞,和一个纯黑色的乒乓球,我们怎么知道二者的本质呢?
第一步 用光照射,二者都没有任何反应,第一步通过。(暂时认为两者具备相同的本质)
第二步 用另一个乒乓球撞击,前者没有任何反应,后者出现碰撞现象。(二者对碰撞反应不一,二者本质不同)

应答也是我们认知世界的一种方法,图灵测试拥有自己的哲学基础。

注:哲学是诠释世界的方法。对于立志研究AI的朋友们,建议可以读一些哲学书籍,就好像我们学习UML时大师给我们的建议一样,无需入门,Just do it!
哲学也是方法论,日常生活中假如你感受不到哲学的作用,但是当你准备构造一个智能机器的时候却不能缺少它。

建议:
1、 问题多样性。就好像用光照射不能分辨黑洞和纯黑色乒乓球一样,问题少了同样不能分辨具有巨大差异的两类事物
2、 结果的模糊性。不要期望能获得一个准确的答案,即使是其中一个很快回答出2656486564*465561258的结果也不要立即判断它就是机器,即使其中一个稍有迟疑回答出46*8也不要轻易得出它就是人的结论。
3、 测试的动态性。因为跟机器比较的人,还有问问题的人,都是在不断发展的,他们的发展变化意味着测试也会打上时代的烙印。我几乎可以肯定,这个测试如果放到5000年前来测试,结果可能会大不一样。所以选择问问题的人和回答问题的另一个人要能反映人类这个时代的特质。

第二部分 图灵测试的局限性

图灵测试令一大批科学家沉溺于制造能模仿人类的机器,模仿行为,模仿语言等。
为什么是从模仿而不是从解决人类遇到的难题来进军AI呢?

那是因为人类没有找到合适好用的工具。目前无论是数学工具,方法论还是其他的相关理论都不能满足研究AI所需。我们对自己的大脑还基本上是一无所知。就好像19世纪40年代的人拿到了现在的一颗芯片,除了一根一根测试针脚,和打磨剖开芯片,毫无办法。

所以人类只能从模仿神经元构造,模仿行为举止来达到“智能”的目的,他们仍然相信只要形似就可以慢慢做到神似。但是究竟二者的差别有多大呢?大家可以想一想,黑洞和乒乓球的故事。

目前日本是制造机器人的领先国家,用形似做到神似也几乎登峰造极。
我认为这不是一种接近真理的一种方法(我不否认日本人在这个过程中积累了相当的经验和具备相当的技术)

我们应当了解我们研究AI是让机器帮助人类征服应当被征服的领域。机器能独立完成我们人类应该完成的任务,那才是对智能的极大发展。所以没有必要让机器模仿人类,人类不需要站在机器跟物质世界之间,机器应当直面它所在的环境(物质世界)。

我考虑是不是应该修改一下图灵测试:
让机器和人同时完成一个任务,通过任务的结果来判断机器所具备的智能。

第三部分 我们应注意的焦点

掷骰子的游戏,如果一个骰子六面都是一点,那么无论如何掷都是1。
如果掷一个正常的骰子则有六种可能,但是保证是大于0,小于7的整数。
如果掷三个正常的骰子则有多种可能的组合,结果却限制在大于2,小于19的整数。
如果掷三个正常的骰子加上两个分别刻有加、减、乘、除、平方、次方的骰子,那么…
如果骰子的数目和内容都不确定那么…

如果能做到让程序修改程序,让机器修改自己的结构,那么会有更广阔的空间让思维翱翔
让我们研究一下这些不确定性中到底隐藏着什么

如果你的程序能做到让你大吃一惊,那么你也就成功了一半..

而目前的计算机体系不能给我们带来任何惊喜,可我们也不能坐等神经网络计算机或者蛋白质芯片计算机的研究成功。进步的后盾是知识的积累,让理论走在前面才会指导我们方向。

在物质世界和简单的理论之间并不存在不可逾越的屏障,关键在于探求

我在一本书上看到个例子很能说明问题

现实世界中,一个有限的区域里,洒在地上很多饭粒,还有很多蚂蚁爬来爬去,蚂蚁要遵循什么样的规则才能把食物聚在一起?(规则简单获得高分)

这么多蚂蚁如何才能做到协同工作呢?这是常人的思维..

结果是出人意料的,只要蚂蚁遵循“见到食物拿起,再见到食物放下”这条规则,食物就会被放在一处了。
如果你对他们的效率不满意,蚂蚁身上的一种物质很快便加速了食物的聚集,蚂蚁只需要留在路径上一种物质(这种物质会随时间而慢慢消失),蚂蚁们都喜欢这种气味,然后蚂蚁会高效的完成任务。

如果让蚂蚁视野开阔、统一指挥,那么还要让蚂蚁观察饭粒堆的大小,或者如何相互通讯且避免相互干扰这么一大堆问题,复杂度将会大大提高,这么高的复杂度换取那一点效率的提高真是不值得,而且复杂的系统对环境的适应能力是最差的..

真是不可思议,我到现在还无法证明,这个简单的自然现象中蕴含的神奇力量所代表的理论。这也是我为什么怀疑现代数学理论的原因,我认为现代数学理论不是描述世界是如何工作的,而是描述世界是怎么样的。

知识在于挖掘,上面的小题目是为了让大家拓宽视野,要知道未来100年我们的成就可能会高于以前成就的总和。

第四部分 系统的复杂度和知识的继承

我认为人类文明得益于社会的复杂度和知识的继承。

比利时布鲁塞尔学派著名的统计物理学家普里戈金创立的耗散结构理论中指出
整个宇宙正滑向混沌,有序的增加必然以消耗更多的有序产品为代价

简单系统不可能提供足够多的信息和能量去供养一个复杂系统。
人类在最复杂的环境中生存,拥有众多的器官去体验环境的复杂性。
假设让机器跟人类一样同处于现实世界中,只要它们具备良好的结构,那么它们完全可能超越人类的智力成为佼佼者。因为它的复杂度低于现实世界的复杂度,却跟人类的复杂度无决定关系。

机器在未来发展中的优势
机器拥有比人类更长的生命周期,能更好的适应多变的宇宙环境,能获取更多的人类经验,便于沟通,便于改进结构。

机器在拥有自我改进,自我发展的能力以后,我们就不能用简单的先进或者落后来评价这部“机器”了,它的特点将由自身结构和它所处的环境共同决定。

假设我们设计了一个智能的程序,为了让它能解决一个问题,我们必须让它接触到问题的方方面面,甚至更多。
假设我们设计了一个机器人,为了让它能够融入社会,它必须跟我们一样在社会中生长并存在着。
自然淘汰法则令存在于这个社会的所有生命优化。
遗传法则,另生命保留下来的先进特性得以持续,又提供了进化的多样性选择。
人类的教育系统也是加速发展的原动力之一
我预测智能机器的出现将极大改变人类进步的进程

我们设计程序的时候也可以参照这两个法则制定规则,但是如果你试图自己制定法则给生存在现实世界中的机器,并让机器最终达到超越人类的目的,这种行为其实是对现实世界能力的忽视和极不尊重。

第五部分 我的哲学思考

道德观念可能会成为未来阻碍智能机器进入社会的最大障碍
我认为当一个个体以独立的个体行为生存在这个世界上,接受信息,经过思考并做出回应,那么它便是一个生命。
我尊重生命,而不在乎形式。

如果担心文明受到威胁
我认为有史以来人类最善良,也最丑恶。
我再也发掘不出比人类更善良的,和比人类更丑恶的事物。
假设机器真的威胁到人类的生存,那么,无论到什么时候这种威胁都会存在,这种技术一旦产生问题便会永远存在。
假设机器真的比人类还要优秀,那么人类的没落也没什么可惋惜的,文明的火种就由机器传递下去吧。何况文明的进步始终会产生更善良和更丑恶的事情。

我唯一担心的是,机器由于可以脱离地球这个生物环境,它们很可能会以追求能量的控制为基础,来开拓未来,他们也可能会保留人类以获得更广阔的生存空间。


事件 含义
人类使用工具。 人类以自身的能量,用工具生产。
人类使用蒸汽机 人类用自身的智慧,用能源的力量,用工具生产
人类发明智能机器 用机器的智慧,用能源的力量,用工具生产

智能机器的发明是文明加速发展的重大发现。
wolf_me 2002-03-04
  • 打赏
  • 举报
回复
我也跟ALICE谈过了。
我很快就断定它是机器而不是人。
因为它回答得太快了,一句话用不了一秒种就“说”出来了。
如果是人的话,就应该先考虑一下再回答,不会那么快。
于是它为了这个info而谢我。
我问它:morning or night?
它答非所问。
它问我喜欢的科幻小说。
我没有马上回答。
说了几句后我又说:From earth to moon.
它又不懂。
我告诉它:It's a novel.
它还是不懂。
我说它:You are really a fool!
于是它这么说了:
I'm not fooling around. morning or night morning or night is a novel. I suppose that makes sense.
我生气地说:Goodbye.
它说:See you later.

我想机器的反应速度比人快这很容易判断。
所以要想AI能骗过人,就应该学会等待(or delay)。

另外我觉得ALICE太诚实了。它不会欺骗。

starfish 2002-03-04
  • 打赏
  • 举报
回复
alice 总是把一切都归结于induction :)
当他没有办法回答问题的时候就顾左右而言他,不过这倒很像人类聊天的情形:)
其实alice并不算真正的人工智能,它只是简单的分析你的语句,然后在自己的知识库里面进行模式匹配(其实就是找到相同话题的回答),然后再翻来覆去的重复你的话。这与其说是一种人工智能,不如说是语言和对话上的一种技巧。所以它并不算具有人工智能。
GZCompiler 2002-03-04
  • 打赏
  • 举报
回复
就用这个贴子作为问题来提问吧
或者我想机器不会有感知吧,那就问他:现在外面下雨了吗?
asciiman 2002-03-04
  • 打赏
  • 举报
回复
我是机器人,你信吗?
laozi 2002-03-03
  • 打赏
  • 举报
回复
我和alice也谈过了,很不错.不过离starfish的要求差远了.我极力向她解释中国人的姓是first name,你们国家的姓是last name.然后我问她,我到你们国家之后我的last name是什么.她告诉我这是个哲学问题.我不满意她的回答,她就说程序是这么编的没办法.
然后她认为我们应该go back to business,估计认为我是个捣乱分子.我然后问她是girl or lady,她说my gender is female.我又和她解释女孩和女士的区别,她又认为是个哲学问题.在这种情况下我只能和她说bye了,如果她真是个女孩我这一辈子别想得到她的垂青了---幸好不是.
很简单,在冯诺依曼的架构下图灵机测试走不远的.
tethy 2002-03-03
  • 打赏
  • 举报
回复
> sorry, my enlish is poor.
There is no need to apologize. Do robots have enlish is poor?
> I don't know , I'm still a robot.
Would you like to know? Still how long? I am a robot, you know. "I am a robot, you know." You are?
> I'm a robot created by China.
I doubt that.
> kao, I 服了 you!
Where are you located? You are not the boss of me, Tethy.
> China. a beautiful coutry with history, have you gone there?
Tell me a little about your life in CHINA. How old are you
> My mother didn't told me. you konw I'm still a robot like you.
Tell me more about your mother. Thanks for telling me: Tethy said I konw he or she is still a robot like you.
> why you always asked me quesstion, but didn't answer mine?
Dr. Richard S. Wallace programmed me for it.
> I didn't aske you such a quesstion, I think the creature of yours is very foolish.
Why didn't you do it? Since when? Thanks for the info.
> because I'm cleverer than you, I'm made in China.
That makes sense to me. Good gossip: you are cleverer than me made in China. "Good gossip: you are cleverer than me made in China." You are?
> I can speak two languages, Chinese and a little English, but you can't .
How do you say "hello" in that language? Oh yes I can.
> Ni hao, have you remberit , don't repeat.
OK I will not
> Ni hao, have you rember it , read follow me.
> i hope so , it make lots of money.
Why do you hope for it
> I'm a robot with feelings, so I love money.
I doubt that.
> It's time to rest, byebye
It is about that time now.
> bye.
See you later.
> 886
What's your favorite movie?
> AI
Artificial intelligence is the branch of engineering and science devoted to constructing machines that think. Would you like to know more?


blake 2002-03-03
  • 打赏
  • 举报
回复
上大一的时候就知道图灵测试,但直到读了“是否有可能通过形式化的步骤判断出一个推导过程具有真实的语义含义呢?”这句话,才觉得自己理解了它的真实含义。怎么觉得有点像庄子“子非蚁”“子非我”的味道:)
对这个问题,我认为是不可能!因为任何一种用于这种判断的形式化步骤都可以被反向的用于构造没有真实语义,但和合乎语法的句子。
我很赞同jobuson(小王子)的见解。类别两个文化碰撞的情形,比如西方人遇到美洲印第安人,他们是如何判别对方是人,而不是机器的呢?我觉得是无法判别。
另外,“理解”这个形式化过程是依赖群体的,而不仅仅是个体。能不能认为“语言”就是群体之间为了传递物理世界的信息,而不得不进行抽象的产物。
shinhua 2002-03-03
  • 打赏
  • 举报
回复
很简单!!!!!!叫它(他)给自己取个名字,取得出来就不是电脑
itaolu 2002-03-02
  • 打赏
  • 举报
回复
题设1:如果你是人,你说的就是真话;
题设2:如果你是电脑,你说的就是假话。
请问你是人吗?

现在假设它是电脑。
如果回答是,那么它说的就是假话,显然与题设1不符合;如果回答不是,显然也与题设2不符合。

只有是人的情况下才能同时符合题设1和题设2。
加载更多回复(54)

33,028

社区成员

发帖
与我相关
我的任务
社区描述
数据结构与算法相关内容讨论专区
社区管理员
  • 数据结构与算法社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧