kinky是什么意思ky在线翻译读音例句-中文翻译英文在线翻译
2023年4月6日发(作者:kingtiger)
图灵:计算机器与智能(ComputingMachineryand
Intelligence翻译)
【写在前面】本文是在1950年创作,详细定义并解释了人工智能
及其研究目的,发展方向,并驳斥了此前科学界及社会上普遍存在的反对观点,讲
解通俗易懂,细致入微,有理有据,被称为人工智能科学的开山之作,直到现在仍
有极重要的意义,几乎所有的人工智能教材都向读者强力推荐此文,读罢真的会让
人切实感到,图灵不愧为计算机天才。
计算机器与智能
A.M.图灵
1.模仿游戏
我建议考虑这样一个问题:\"机器能够思考么?\"要回答这个问题,我们需要先
给出\"机器\"和\"思考\"的定义。我们可以用尽可能接近它们普通用法的方式定义这些
词语。但是这种方式是危险的。如果使用这种方式,我们很可能会用盖勒普调查那
样的统计方式来得出\"机器能够思考么\"这个问题的结论及其意义。显然,这是荒谬
的。因此,我没有尝试给出一个定义,而是提出了另外一个问题。这个问题和原问题
紧密相关,而且通过并不含糊的词语给出。
这个新的问题可以通过一个游戏来描述,不妨称之为\"模仿游戏\"。需要三个人
来玩这个游戏,一个男人(A),一个女人(B)和一个询问人(C)男女皆可。询问人呆在
一个与另外两人隔离的屋子里.游戏的目标是询问人判断出外面的人哪个是男人,哪
个是女人。询问人用标签X,Y代表外面的两个人,游戏结束时,他要说出\"X是A,Y
是B\"或者\"X是B,Y是A\"。询问人C允许向A和B提出下面这样的问题:
C:X,请告诉我你头发的长度.
现在假如X实际是A,那么A必须回答。A在游戏中的目标是努力使C做出错误
的判断。他的回答可以是:
我的头发乌黑发亮,最长的一缕大概九英寸长。
为了排除声音帮助询问者得出结论,问题的答案可以写出来,打出来更好。理想
的安排是使得两个屋子又远程打印通讯。也可以通过中间人传递答案。而B在这个
游戏中的任务是努力帮助询问者获得正确的答案。她的最优策略可能就是给出正确
答案。她可以在她的答案中加入\"我是女的,别听他的。\"这样的八千里路云和月爱情意义 词语。但是男人A
同样也能做出相似的评论。所以这并不能提供更多的帮助。
现在我们提出这样一个问题,\"如果用一个机器担当A的角色\",将会发生什么情
况?
同与两个人玩这个游戏相比,询问者判断错误的频率是否发生变化?
这个问题取代了原先的\"机器能够思考么?\"这个问题.
2(对新问题的评论
你可能会问:\"新问题的答案是什么,\"。同样也可能问:\"这个新问题真的有研究
价值么,\"我们先解决第二个问题,因此不会进入一个无限的循环。
这个新问题的优势在于它把一个人的体力和智力完全区分开来。没有任何工程
师或化学家宣称能够生产出和人的皮肤完全相同的物质。在未来的某天,这可能成
为现实。但是尽管这样的发明是可能的,赋予一个\"思维机器\"人的皮肤对于让它更
像人并不能提供更大的帮助。我们设置问题的方式考虑到了这个问题。因为我们让
询问者无法看到,接触到或听到其它的游戏者。新的评判标准的其它优势在下面的
样例问题和回答中显示了出来。
问:请写一首以ForthBrige(译注:1890建成于英国,开现代桥梁建造的先河)
为主题的诗。
A:我无能为力,我从来都不能写诗。
问:34957加70764等于多少,
A:(停了三十秒钟后给出答案)105621。
问:你玩象棋么,
A:玩。
问:我的王在K1,没有别的棋子了,你只有王在K6,车在R1。该你走,你走
哪步,
答:(十五秒钟的停顿后)车移动到R8,将军。
这种问答形式几乎适用于我们想要包括的人类行为的一切形式。我们不希望因
为一个机器不能在选美比赛中胜出就认为它无能;正如我们不能因为一个人不能在
和飞机赛跑的比赛中胜出就认为他无能一样。我们的游戏设定让这些无能变得无关
紧要。只要参与者认为合适,他们可以吹牛。可以把自己描述成魅力无限,强壮无
比,英勇无畏。而询问人无法要求他们做实际的展示。
对这个游戏的批评可能是:机器在游戏的成败中占有了过多的比重。如果一个
人试图假装成一个机器的话,他肯定是一个蹩脚的演员。他会由于算术方面的缓慢
和不准确立即暴露。机器会不会解决了一些应该是思考的问题,其解决方式却和人
的方式相差甚远,这个反对意见确实很棘手。但是,至少我们可以说,尽管如此,
机器可以被设计得可以很好的玩这个模仿者游戏。我们不需要对这个问题过分担
心。
有一种情况是机器在玩模仿者游戏时的最佳策略是做别的事而不是模仿人的行
为。这种情况是可能的。但是我认为这样的情况并没有付出多大的努力。不管怎
样,本文并不试图研究这个游戏的理论。我们假定机器的最优策略是努力提供和人
一样的答案。
3(游戏中的机器
在1中提出的问题只有当我们确定“机器”这个词的意义的时候才是确定
的。自然,我们希望一切工程科技都允许使用在我们的机器上。我们同样希望有这
样一个可能:一个或一组工程师制造出一个可以工作,但是其工作方式却不能被它
的建造者很好的描述,因为他们使用了一个基于试验的方法来设计它。最后,我们
希望把通过生育诞生的人从\"机器\"的概念中排除出去。要让定义同时满足这三个要
求是困难的。例如,你可能会要求这些工程师都是同一个性别,但是这实际上也是
无法满足要求。因为通过单个人的一个皮肤细胞产生一个完整的个体不是完全不可
能的。这将是生物科技具有划时代意义的突破。但是我们并不希望把它成为\"建造
了一个思维机器\"。这就要求我们放弃允许一切的科技的打算。我们更愿意这样,
因为目前“思维机器”的研究热点集中在一种特殊的,通常被称为“电子计算机”
或“数字计算机”的机器上。因此,我们仅仅允许“数字计算机”参加我们的游
戏。
第一眼看上去,这个限制过于严格。事实上并非如此。首先我们需要简单的了
解一下这些计算中秋节作文400字 机以及它们的一些性质。
你可能会说:万一数字计算机不能如我所愿,即不能在游戏中有所表现,把机
器完全用数字计算机代替就只能令人失望,会像我们为\"思考\"定的评判标准一样。
目前已经有许多数字计算机在工作,人们可能要问:\"为什么不拿一台直接作实
验,很容易就能满足游戏的要求。同时用许多的询问者参加游戏,然后统计出判断
正确的概率。\"对这个问题的简要回答就是:我们并不是要问是不是所有的数字计算
机都能在游戏中表现良好,也不是要问现在的计算机中有没有机
器能够通过实验。而是要问:是否存在一台想象中的机器能够通过游戏。这仅
仅是一个简要回答,后面将从另一个角度考虑这个问题。
4(数字计算机
数字计算机可以被解释成可以执行一切计算人员能够进行的操作。一个计算人
员应该严格遵守规则;在一切细节上,都没有一丝偏离的权力。我们可以假设这些
规则写在一本书上。每次被分配新的任务的时候,将会改变执行步骤。他有无限的
纸进行计算,他可以用\"算盘\"进行乘法和加法运算,这并不重要。
如果使用上述解释定义数字计算机,我们可能陷入循环定义。为防止这种情况
发生,我们列出期望结果得出的方式。一个数字计算机通常由以下三个部分组成:
(i)存贮器(ii)执行单元(iii)控制器
存储器用来储存信息,对应于计算人员的纸。纸上既记录了他的计算过程,也
记录了他所遵循的计算步骤。同样,如果计算员进行心算的话,一部分存储器将对
应于他的记忆。
执行单元是一次计算中单个操作进行的场所。操作对象随着机器的不同而不
同。通常一个相当长的操作可能是:“3540675445乘以7076345687”,但是一些
机器可能仅能够执行“写下0”之类的简单操作。
上面曾经提到计算员的“记录操作步骤的书”由机器中的一部分存储器代替。
不妨把它们称为“指令列表”。控制器的职能就是保证这些指令按照正确的顺序得
到正确的执行。控制器的设计使得这成为可能。
存储器上的信息通常被分为许多的小包存放。例如,在一个机器中,一个包由
十个十进制数组成。每个存储信息的包都以某种系统的方式分配了数字。一个典型
的指令可以是:
“把存放在6890的数加上存放在4302的数相加并把结果存入后一个存储位
置。”
显然,机器中的指令不会用英语标示。这个指令更有可能用6809430217这样
的形式来表示。这里,17指定在可以对这两个数进行的所有操作中的哪个被执
行。这里的操作如上所示是\"进行加法操作。。。\"请注意,这里的指令共占用了
10个数字因此正好可以放在一个存储空间中,非常方便。控制器保证指令按照它
们的存储顺序被执行,但是偶尔可能碰到下面的指令:
“现在执行存储在5606的指令,并从那里继续执行。”
或者是
“如果4505位置是0,那么执行存储在6707的指令,否则继续。”
后面这种指令非常重要,因为它使得我们能够反复执行一段指令直到满足一些
条件。要达到这个目的,在每次执行时不要改变指令,而是一遍一遍的执行相同的
指令。可以用家庭生活情况做一个类比:如果妈妈想让汤姆每天上学时都到修鞋匠
那里看看她的鞋是不是修好了。妈妈可以每天都告诉他一遍。另
一种方式是,在一个汤姆每天上学都能看到的地方贴各个便条告诉他到鞋匠那
里去看一下,当汤姆拿回他的鞋的时候,撕掉那个便条。
读者必须接受计算机可以而且事实上正是按照我们所提出的原则建造的。这些
计算机几乎能够完全模仿一个计算员。
上面我们提到的计算员要遵守的写在书上的步骤实际上仅仅是一个设想。一个
实际的计算员总是能够记得他们需要做什么。如果一个人想让机器模仿计算员执行
复杂的操作,他必须告诉计算机要做什么,并把结果翻译成某种形式的指令表。这
种构造指令表的行为通常被称为\"编程\"。\"给一个机器编程使之执行操作A\"意味着
把合适的指令表放入机器以使它能够执行A。
一个数字计算机的一个有趣变化是让其成为\"带有随机元素的数字计算机\"它们
有特定的指令进行掷色子或者别的等价电子过程。例如其中一个是\"掷色子并把结
果存入1000。\"有些时候这样的机器被描述为具有自由意志。(尽管我自己并不使
用这个描述)通常并不能通过观察判断出一个机器有没有随机元素。因为一个相似
的效果可以通过依据Pi的小数部分进行选择来产生。
绝大多数的数字计算机具有有限的存储空间。让一个计算机获得无限的存储空
间并不存在理论困难。当然,在任何时候都只有有限的部分被使用。同样,只有有
限的存储空间被建造。不过我们可以想象越来越多的存储空间可以根据要求添加。
这样的计算机具有特殊的理论价值,将被称为无限容量计算机。
有关计算机的设想很早就产生了。1828至1839年担任剑桥大学的Lucasian数
学教授的CharlesBabbage设想了这样的机器,并称之为分析机。但是并没有完
成它。尽管Babbage有了所有的关键思想,他的机器在那个时代却没有吸引人的
前景。它能够达到的运算速度肯定比一个计算员要快但是仅相当于曼彻斯特机的百
分之一,而曼彻斯特机也是现代计算机中相当慢的一个。分析机的存储全部由用轮
子和卡片组成的机锐的拼音 械实现。
事实上,全部由机械实现的Babbage的分析机帮助我们破除了一个迷信。通常
我们对现代计算机是电子的这个事实给予相当的重视。同样,神经系统也是基于电
的。因为Babbage的机器没有使用电,而所以的数字计算机在某种意义上都是等
价的。我们就会明白“是否使用电”理论上并不重要。当然,当需要高的运算速度
的时候,需要使用电气结构。因此,我们就会发现在这些地方使用电是理所当然
的。在神经系统中,化学过程至少和电过程同样重要。某些计算机的存储器主要基
于声学原理。计算机和神经系统都使用电仅仅是表面的相似。如果我们希望寻找这
样的相似,倒不如对函数进行数学分析。
5(数字计算机的通用性
上一部分给出的数字计算机可以被归类为“离散状态机”。这类机器可以从一
个确定状态向另一个状态突然跳变。为了不会有混淆这些状态的可能,它们之间要
有足够的差别。严格的说,这样的机器是不存在的。一切事件实际上都是连续的。
但是有许多种机器能够被看作离散状态机器。例如在照明系统中的开关,我们可以
把开关看成只有开和关两个状态。它们之间肯定有转换过程,但是在绝大多数情况
下
可以忽略它们。作为离散状态机器的例子,我们可以考虑一个每秒嘀嗒120度
的轮子,这个轮子可能因一个杠杆的阻挡而停下来,在轮子上有一个发光的灯。这
个机器可以被抽象的描述为下面的形式。机器的内部状态(通过轮子的位置来描述)
可以是q1,q2和q3。输入信号是i0或i1(杠杆的位置)。任何时候的内部状态可
以根据上一次状态和输入信号由下表描述:
输出信号可以用下表描述,它是唯一能够被外部观测的内部状态指示器。
这个例子是一个理想的离散状态机。只要它们的状态是有限的,它们就可以用
这样的表格描述。
可以看出,只要给出初始状态和输入信号,所有的未来状态都是可以预测的。
这让我们想起了拉格朗日的观点。那就是,只要给出宇宙中任意时刻所有粒子的位
置和速度,就能够预知未来的所有状态。我们考虑的预测和拉格朗日相比较更接近
于实用性。因为\"宇宙是一个整体\"的系统,所以只要初始条件的一个很小的误差,
就会引起系统在一段时间以后变得完全不同。某个时刻一个电子位置的亿万分之一
厘米的偏移,将决定一个人会在雪崩中死去还是逃生。我们称为\"离散状态机\"的机
械系统的一个核心性质就是,这样的现象并会发生。即使是考虑一个实际的物理系
统,而不是理想机器,只要知道了某个时刻足够精确的状态信息,就可以足够精确
的预测未来的一切状态。
正如我们所提到的,数字计算机属于离散状态机。但是这样的机器所能够达到
的状态通常是相当大的。例如,现在在曼彻斯特工作的机器可以有2^165000个状
态,也就是大约10^50000。而在上面的嘀嗒轮的例子中,仅有三个状态。找到有
如此多状态的原因并不困难。计算机具有一个存储器,对应于计算员的纸。这些存
储器中应该能够写入任何能够写入计算员所用纸上的符号。为了简单起见,假设仅
仅实用从0到9的数字作为符号。忽略手写体的差别。假如计算机具有100张每张
50行,每行30个数字的存储空间。那么状态的数目就会是10^(100*50*30)即
10^150000。这大约是三个曼彻斯特机状态的总和。状态数的基为2的对数通常被
称为机器的\"存储大小\"。因此曼彻斯特机的存储大小是165000而上面例子中轮子
的存储大小是1.6。如果两个机器加在一起,他们的存储大小应该是原来存储大小
的和。因此我们
可以说\"曼彻斯特机具有64个磁带存储器每个存储器的大小是2560,还有8个
电子管,每个容量为1280。各种各样存储器加在一起大约是300个,总共
174380。
只要给出对应于离散状态机器的表格,就能够预测出机器将会做什么。这样的
计算当然能够通过电子计算机进行。只要执行的足够快,电子计算机就能够模拟任
何离散状态机的行为。这样,模范者游戏就变成机器作被问者(B),善于模拟的计
算机作A,那么询问者就不能区分它们。当然,数字计算机必须有足够的存储空
间,运行的足够快。而且它在模范不同的机器之前必须被重新编程。
数字计算机可以模拟任意离散状态机器的性质被表述为\"他们是通用机器\"。具
有这样性质机器的存在带来的一个重要结果就是,不考虑速度,我们并不需要设计
出不同的新机器来执行不同的问题。它们都可以用一个数字计算机来实现,只要根
据没种情况进行适当的编程。可以看出,这表明所有的数字计算机在某种意义上是
相互等价的。
现在重新考虑在第三部分末尾提出的问题。暂时把问题“机器能够思考么,”
用“是否存在假想中的机器能够在模范游戏中表现良好。”代替。如果我们愿
意,我们还可以问\"是否存在能够表现良好的离散状态机\"但是由于通用性,我们可
以看出这两个问题都等价于\"让我们把注意力集中在一个数字计算机C上。如果我
们可以让它具有足够大的存储空间,足够快的计算速度,而且对它进行适当的编
程。C扮演模仿游戏中A的角色,人扮演B的角色,C能不能在这个游戏中表现良
好,\"
6.主要问题的对立观点
现在,我们认为基础已经打好,并准备就“机器能否思维,”这个问题继续进
行辩论„„我们不能全盘摒弃最初的那个问题形式,因为在考虑代换是否恰当这个问
题时,会有不同的意见,因此,我们至少要考虑这方面必须说些什么。
我想要是我先就这个问题阐述一个自己的看法,那么,读者就会觉得问题会更
简单一些。首先让我们来看看这个问题更确切的形式。我认为在50年的时间里,
计算机的信息存储量可达到大约10^9,这样的话,计算机在模拟游戏中就会很顺
利,一般的提问者在,分钟提问后,能准确鉴别的概率不会高于,,,。原来那个“机
器能够思维吗,”的问题我认为没有什么意义,不值得讨论。然而,我认为本世纪
末,由于词汇无题古诗李商隐全诗 用法会有较大的变化,普遍的学术见解也会改变,那时候人们又能重
新谈思维机器而不会自相矛盾。我还认为,如果掩盖这些看法,决不会带来任何益
处。人们普遍认为,科学家进行科学研究工作,总是从可靠的事实到可靠的事实,
从来不受任何未经验证的假设的影响。这种看法实际上是错的。假如能清楚地划分
哪些是经过证实的事实,而哪些又是未经验证的假设,那也没有什么害处。假设往
往是非常重要的,因为它们为研究暗示了有益的研究方向。
我现在谈谈与我的看法相对立的观点。
(,)来自神学的反对意见。思维是人的不朽灵魂的一种功能。上帝赋予每一个
男人和女人以一颗不朽的灵魂,但从未将它赋予任何其他的动物或机器。因此,动
物或者机器不能思维。
尽管我不能接受这种看法,但我试图用神学的语言来回答这个问题。如果将动
物和人划为一个类别,我认为这个观点更有说服力;因为,在我看来,生物与非生
物之间的差别远远要比人和其他动物之间的差别大得多。如果这种正统的观点出现
在其他宗教社会里,它的主观武断性就更加明显了。伊斯兰教认为妇女没有灵魂,
基督教对此有何感想,但是,现在暂不管这一点,让我们回到问题的焦点上来。在
我看来,上面所引的论点对上帝威力的万能性有很大的限制。有些事情上帝也是无
能为力,比如,他不能让,等于,;但是,我们难道不应该相信,要是上帝觉得合
适,他完全可以赋予一头大象以灵魂吗,我们可以希望,上帝可以通过自己的威力
造成变种,由于变种,大象有了一个较发达的大脑,可以用来满足灵魂的需求。同
一形式的论点也可以用来解释机器。只是看上去也许有点不一样,因为“轻信”就
不那么容易了。但这其实只能说明,我们认为上帝不太可能觉得这些环境适合授予
灵魂。关于环境问题我们将在本文的其余部分进行讨论。在试图制造这样的机器
时,我们不应该无礼地篡夺上帝创造灵魂的权力,就像不应该剥夺我们生儿育女的
权力那样;在两种情况下,我们其实都是上帝意志的工具,为他所创造的灵魂提供
住所。
然而,这仅仅是猜想而已。不管能用神学的论据来证明什么,我仍不以为然。
过去已经证明这样的论据是漏洞百出的。在伽利略的时代,有人提出,“太阳一动
不动地悬着„„整天都不慌不忙,不想落下”(《约书亚书》,10.13)以及“他为大
地奠定基础,叫它永远不动摇”(《诗篇》,105.5)这些经文正好用来驳斥哥白尼
的理论。从我们今天的知识来看,就觉得提出这种论据是徒劳的。过去没有这样的
知识,情况便大不一样了。
(,)所谓“鸵鸟政策”式的异议。“机器思维后果太令人恐惧了。但愿机器永
远不会有思维。”
这种观点不如上面的说法那样直言不讳。但它对我们许多人都有影响。我们都
倾向于认为人类的某个微妙的方面比其他生物要优越。要是能证明人一定是高一等
的,那再好不过了,因为那样的话,他高居一切之上的地位就不会有危险了。神学
的论点那样流行,很明显是与这种情绪密切相关。这种看法在知识分子中会更普
遍,因为他们比其他人更尊重思维能力,因此也就对人类思维能力的优越性更加深
信不疑。
我认为这个论点不怎么重要,不值得一驳。安慰一下也许更合乎情理;这种安
慰也许能在灵魂轮回说中找到。
(,)来自数学的异议。在数学逻辑里有一些结论,可以用来证明离散状态的机
器的能力有一定限度。这些结论中最著名的是哥德尔定理,此定理声称,在任何一
个足够有力的逻辑系统里,都能形成陈述,而所作陈述在本系统范围之内既不能被
证明是对的,也不能被证明是错的,除非这个系统本身就不一致。丘奇、克利恩、
罗瑟和图林等人也有别的在某些方面同哥德尔定理很相似的结论。图灵的结论更容
易考虑,因为它直接涉及机器,而其他人的结论相对来说是间接的:比方说,要使
用哥德尔定理,我们还需要某些附加手段,通过机器来描述逻辑系统,而要描述机
器还需要再通过逻辑系统。这个结论涉
及一种机器,它实质上是一台万能的数字计算机。即使是这样一台机器,它对
有些事情也是无能为力的。如果计算机被设计成能在模似游戏中回答问题的话,那
么对有些问题它是无法给予正确答覆的,而对另一些问题,不管你给它多长时间,
它也答不上来。当然,尽管这台机器回答不了许多问题,但另一台机器却能给予满
意的解答。我们现在只假定,对这些问题只要回答“是”或者“不是”就行了,不
会出现像“你认为毕加索怎么样,”这类的问题。我们知道机器必定无法回答的问
题是下述这类问题:“这台机器有以下特点„„这台机器会不会对任何问题作出
‘是’的回答,”这里省略的是对某台标准形式机器的描述„„如果所描述的机器与
那台被提问的机器具有某些相对简单的联系,那么,我们就能知道,答案不是错
了,就是压根儿没有答案。这就是数学的结论,此结论认定机器能力有限,而人类
智能则没有这种局限性。
如果想对这个论点作简要的答覆,我们就能指出,尽管它已经证明任何一台特
定的机器都是能力有限的,但它并没有任何证据说,人类智能就没有这种局限性。
但我认为这个论点不能就这么轻易了结。每当其中一台机器遇到一个合适的问题,
并作出我们明知是错的回答时,我们无疑会产生一种优越感。这种优越感难道不会
是错觉吗,这种感觉无疑是真实的,但我觉得这并没有多大意义。我们自己平时也
经常对问题作出错误的回答,因此,就没有权利因机器犯了错误而沾沾自喜;当
然,我们对付一台机器当然易如反掌,但我们无法同时对付所有的机器而且不出差
错。一句话,有可能人比一台特定的机器聪明,但也有可能别的机器更聪明,如此
等等。
我认为,那些持数学异议的人大多数愿意接受模似游戏作为讨论的基点。而持
前两种反对意见的人不大会对什么标准问题感兴趣。
(,)来自意识的论点。这个论点在斐逊教授1949年的李斯德演说中阐述得很明
确,我摘引了其中的一段话:“若要我们承认机器与大脑是一样的,除非机器能够
因为感受了思想与感情而不是符号的偶然涂抹写出十四行诗或协奏曲来。也就是
说,它不仅写了,而且也应知道自己确实这样做了。任何机器都感觉不到(不只是
属于简易发明之类的人工信号)成功的喜悦,也不会因困难而沮丧,因受奉承而沾
沾自喜,因犯错误而闷闷不乐,因见异性而神魂颠倒,也不会因欲望得不到满足而
暴跳如雷或一蹶不振。”
这个论点看上去否定了我们测试的有效性。按照这种观点的最极端形式,你若
要肯定一台机器是否能思维,唯一的途径就是成为那台机器并且去感受自己的思维
活动。这样的话,他就能够向众人描述他自己的感觉,当然,没有人会知道这些话
是不是实话。同样,依照这个观点,要想知道某人是否在思维,唯一的途径就是成
为那个特定的人。这实际是唯我论的观点。这也许是符合逻辑的,但若真是这样,
那思想交流就太困难了。,会说,“,在想,而,不在想”。而,会说,“,在想,而,
不在想。”我们犯不着为这个观点争执不休,我们不如客客气气地认为大家都在
想。
我肯定斐逊教授不愿意采纳这样一个极端的唯我论的观点。他倒有可能愿意把
这个模似游戏当作一个测试。模拟游戏(省略了游戏者,)在实际中经常采用“口
试”形式,来鉴定某人的真的理解了,还仅仅是“鹦鹉学舌”,让我们看一看这种
“口试”的情形:
提问者:你的十四行诗的第一行是这样的,“我欲比君为夏日,如何,”要是将
“夏日”改成“春日”,是不是也可以,或许会更好,
证人:这样一改便不合韵了。
提问者:改为“冬日”怎么样,这样也会合韵。[1]
证人:是没问题。但是有谁愿意将自己比作冬日呢,
提问者:你认为匹克威克先生会使你联想起圣诞节吗,
证人:在一定程度上,会的。
提问者:但是圣诞节是在冬天,我认为匹克威克先生对这个比喻不会在意。
证人:我在想你也许在开玩笑。冬日的意思是指某一个典型的冬日,而不像圣
诞节那样特殊的一天。
这里不再赘引。如果那台写十四行诗的机器在这场“口试”中能够这样对答,
杰斐教授会作何感想呢,我不知道他是不是会认为,机器只是在“机械地通过发信
号”而作出这些答复;但是,如果这些答复如上面所引那样令人满意,前后一致,
我认为他不会再把机器当作“一个属于简易发明之类的人工信号”。所谓“属于简
易发明的人工信号”指的是一架机器的一些设计功能,可以用来播放一个人念十四
行诗的录音,只要拨动键钮,你随时都可以听到这段录音。
综上所述,我认为大部分支持来自意识的异议的人都可以经过劝说而放弃原来
的主张,不致于陷入曾参烹彘怎么读 唯我论的困境。这些人因此也就有可能愿意接受我们的测试。
我并不想给大家留下这样一个印象,即我认为意识并没有什么神秘之处。比方
说,要想确定意识在人体中的位置,就是一个谜。但是,如果我们没有解决这些
谜,还是能够回答这个与本文有关的问题的。
(,)来自种种能力限制的论证。这些论证一般是这样一种说法:“我担保,你可
以使机器干任何你刚才提到的事情,可你永远也不能使一台机器有,类的行为。”
这类行为包括许多特征。我在这里援引一例:
要和蔼、机灵、美丽、友好„„富于首创精神、富于幽默感、善于明辨是非、会
犯错误„„会坠入情网,喜欢草莓和奶油„„能使别人钟情于它,通达世故„„措词得
当,长于反思„„像人一样行为多姿多彩,富于创新„„
说这些话一般都用不着证明。我认为这些话都是以科学归纳的原则为基础的。
一个人在他一生中看到过成百上千台机器。他由所见所闻得出一些普遍的结论。它
们形态丑陋,应用范围狭窄,只要范围略有变动,它们就束手无策。此外,它们的
行为方式也非常单一,等等,等等。他很自然地认为,这就是机器大体上的必备特
征。大部分机器的能力限制与机器储存量大小有关(我在设想,储存量这个概念可
以通
过某种方式进行扩充,它不仅仅包括离散状态的机器,也包括其他机器。因为
目前讨论还不需要讲究数学的准确性,所以定义准确问题并不要紧)。数年前,由
于数字计算机在社会上还鲜为人知,要是你光说其特征而不提其构造,那么,你们
就会以为你在信口开河。我想这也是因为人们使用了科学归纳原则的结果。当然,
人们在使用这个原则时,大都是无意识的。一个小孩一朝被火烫,十年怕烛台,我
认为他这就是在使用科学归纳(当然,我也可以用许多别的方式来解释这一现象)。
人类的行为和习惯看上去不适合运用科学归纳。如果你想获得可信赖的结果,你就
要对时空的大部分进行研究。要不然的话,我们会(就像许多说英语的儿童那样)以
为世界上所有的人都讲英语,再去学法语真是傻透了。
然而,关于我们刚才提到的许多能力限制,还要特别说几句,说机器没有能力
享受草莓和奶油,这种说法会使读者觉得有点轻率。我们有可能使机器喜欢这些美
味,但任何强迫这样做的企图都是愚蠢的。值得重视的是,这种能力限制对解释其
他能力限制也有影响。比如,难以使人与机器之间形成那种像白人与白人之间,或
是黑人与黑人之间的友好情感。
认为“机器不会出差错”这种想法有点令人费解。我们不禁要反问:“它们出
了错就更糟了吗,”让我们站在同情的立场上,看看这究竟是什么意思。我想我们
可以用模拟游戏来解释这种说法,有人声称,在游戏中提问者可以向被试问几道算
术题来分辨是哪个机器,哪个是人,因为机器在回答算术题时总是丝毫不差。这种
说法未免太轻率了。(带模拟游戏程序的)机器并没有准备给算术题以正确的答案。
它会故意算错,以蒙骗提问者。机器在做算术题时,由于对要出现什么样的错误作
出了不妥当的决定,因而显示了机械的故障。我们对这种观点作这样的理解,其实
也不太富有同情心。但是,我们对这个问题限于篇幅不可能进一步讨论。在我看
来,这个观点的根源在于混淆了两个不同性质的错误。这两个错误我们称之为“功
能错误”和“结论错误”。功能错误是由某些机械或电器故障引起的,这些故障导
致机器不能够按照指令工作。在进行哲学讨论时,我们很容易忽视发生这种错误的
可能性;这样的话,我们实际上是在谈论“抽象的机器”。而这些抽象的机器与其
说是实在的物体倒不如说是数学的虚构。从定义上讲,我们完全可以这么说:“机
器从不出差错。”当某一意思与来自机器的输出信号联在一起时,就会产生结论的
错误。比方说,机器能够自动打出数学方程或英语句子。当机器打出一个错误的命
题时,我们就认为这台机器犯了结论错误。很明显,找不到丝毫理由说,机器从不
犯这类错误。一台机器有可能别的什么也不能做,只会连续打出“,,,”。举这样
一个例子也许太过分了,我们可以换一个例子:机器会想办法通过科学归纳来得出
结论。这种办法有时无疑会导致错误的结果。
有人说,机器不能成为它自己思维的主体。如果我们能证明机器的某些思维是
有某些主题的话,我们就能驳回这种说法。尽管如此,“机器活动的主题”确实有
点意义,至少对于研究它的人来说是这样的。比如,如果一台机器试图解X2-40X-
11,0这个方程式,我们不禁会认为,这时,这个方式本身就是机器主题的一部
分。从这种意义上说,机器无疑能够成为它自己的主题。这对编排它自己的程序,
对预
测因本身结构变化带来的后果都会有所帮助。机器能够通过观察自己行为的结
果,修改自己的程序,以便更有效地达到某种目的。这并不是乌托邦式的空想,而
是不久后的将来可能办到的事。
有人批评说,机器的行为比较单一。这也就是说,机器不能够有很大的存储能
力。直到最近,达到1000字节的存储量都很罕见。
我们现在这里考虑一些反对意见实际上是都是来自意识的那个异议的改头换
面。通常,如果我们坚持认为,一台机器有能力做完其中的一件事,并对机器所能
采用的方法进行描述。那么,不会给别人多深印象。人们会认为机器所使用的方法
(不管是什么方法,总是机械性的)实在太低级了。请参见前面所引斐逊演讲中括号
内的话。
(,)洛夫莱斯夫人的异议。洛夫莱斯夫人的回忆录中曾对巴比奇的分析引擎作
过详尽的记述。她这样写道:“分析引擎没有任何意图要想创作什么东西。它能做
我们知道该怎样去指挥它做的任何事。”(重点为她所知)哈特里引用了这段话,并
补充道:“这并不是说,就不可能制造能‘独立思考’的电子设备,(用生物学的话
说)在这种设备里,我们能够引起可以用来作为‘学习’基础的条件反射。从最近
的一些发展情况看,这种设想从原则上说是不是有可能,已经引起人们的极大兴趣
和关注。但是,当时制造的那些机器并不具备这些特点。”
在这点上我完全同意哈特里的看法,我们会注意到,他并没有断言当时的机器
还不具备这个特点,他倒是指出了,洛夫莱斯夫人所能获得的证明还不足以使她相
信这些机器已具备了这个特点。从某种意义上讲,这些机器已具备了这个特点,这
是极有可能的,因为,我们可以设想某些离散机器有这个特点。分析引擎实际上是
一台万能数字计算机。因而,如果它的存储能力和速度达到一定水准,我们就能通
过适当的程序使它模仿我们讨论的机器。也许伯爵夫人或巴比奇都没有想到这一
点。无论怎么说,他们不必能提什么要求,便提什么要求。
洛夫莱斯夫人的异议还有另外一种说法,即机器“永远也不能创新”。这种说
法可以用一句谚语“世上无新事”抵挡一阵。谁能保证,他的“独创性成就”就不
是接受教育的结果,就不是因循著名的普遍原则的结果,这种异议还有另一个稍稍
好一点的说法,即机器永远也不能“使我们惊奇”。这种说法有点直截了当,我能
够针锋相对地加以反驳。机器经常令我吃惊。这主要是由于我对机器能做什么估算
甚少,更确切地说是由于即使我做了估算,也匆匆忙忙,马马虎虎。我也许这样对
自己说:“我认为此处的电压应与彼处相同;不管怎么样,就当是一样吧。”我自然
经常出错,结果我大吃一惊,因为一次实验完成,这些假设早被忘得一干二净了。
我对自己的这些错误开诚布公,但在我证实了所惊讶的事时,人们也不会认为我在
信口开河。
我的回答并不会使批评者就此缄口沉默,他也许会这样做,所谓大吃一惊都是
因为我自己富于想象力的心理活动,与机器本身毫不相干。这样,我们重又回到来
自意识的那个论证上去,而背离了吃惊不吃惊的话题。我们不得不认为这种论证方
式是封闭式的,但是,也许值得一提的是,要将某物认作会使人
惊奇的,则需要许多“富于想象力的心理活动”,不管这件令人吃惊的事件是
由一个人、一本书、一台机器还是任何别的东西引起的。
我认为,那种认为机器不会令人吃惊的观点是由这样一个为哲学家和数学家特
别容易犯的错误引起的。它是这样一个假设,即心灵已接受了某个事实,由此事实
所引起的一切后果都会同时涌入心灵。在许多情况下,这种假设十分有用,但是,
人们会情不自禁地忘了这是个错误的假设。如果照这样做的话,其必然结果就是认
为,仅仅从数据和普遍原则得出结论会毫无效力可言。
(,)来自神经系统连续性的论证。众所周知,神经系统不像离散状态的机器。
若是关于撞击神经原的神经脉冲规模的信息有误,那么关于外冲脉冲的规模的信息
就会有很大误差。既然这样,就可以论证:我们不可能用一个离散状态系统去模仿
神经系统的行为。
离散状态机器同连续机器肯定不大一样,这一点没什么问题。但是,如果我们
严格遵循模拟游戏的条件,提问者就不可能从这个差别得到任何有利之处。如果我
们考察一下其他一些更简单的连续机器,有些话就能够说得更明白。一台微分分析
机就足以胜任了(微分分析机是一种用作非离散状态计算的机器)。有些这样的机器
能打出答案来,所以可以参加模拟游戏。一台数字计算机不可能猜准微分分析机对
一个问题究竟作何答覆,但是,它倒是有能力给出正确回答的。比如,如果你要它
回答的值是多少(实际上约等于3.1416),它就会在3.12,3.13,3.14,3.15,
3.16之间作随机选择,其选择概率依次分别为(比方说)0.05,0.15,0.55,
0.19,0.06。这样的话,提问者就很难分辨哪个是微分分析机,哪个是数字计算
机。
(,)来自行为变通性的论证。我们不可能总结出一套规则来囊括一个人在所有
可想象的环境中的行为。比方说,我们可以有这样一条规则:行人见到红灯止步,
见到绿灯行走,但是,由于某种错误,红绿灯同时亮了,那该怎么办,我们也许会
这样决定,为安全起见最好止步。但是,这个决定还会有其他问题。要想总结出一
套可行囊括一切人类行为的规则,哪怕是有关红绿灯的规则,看来都是不大可能
的。对这些看法我全赞同。
从这一点可以得出,我们不能成为机器。我试图重新进行论证,但又恐怕做不
好。似乎可以这么说:“如果每一个人都有一套行动规则来制约他的生活,那么,
人同机器就会相差无几了。但实际上不存在这种规则,因此,人不能成为机器。”
这里,不周延的中项十分刺眼。我想谁也没有这样去论证过,但我相信实际上用的
就是这样的论证。有人将“行为规则”和“行为规律”混为一谈,因此使这个问题
有点模糊不清。所谓“行为规则”我指的是像“见到红灯止步”这样的规则。对这
类规则你能服从,并能意识到。所谓“行为规律”我指的是自然律世界无烟日 ,若用在人体上
的话,就像“如果你拧他,他就会叫喊”这样的规律。如果我们将上面所引证中的
“制约他的生活的行为规律”改为“他用以制约自己生活的行为规律”,那么,这
个论证中的不周延的中项就不再是不可克服的了,因为,我们相信,不仅是,用行
为规律来制约生活意味着人就是某种机器(尽管这种机器并不一定就是一台离散状
态的机器),而且反过来
说,如果是这样一台机器的话,那么,它就是由这种规律来制约的。然而,我
们很难像否认完整的行为规则那样轻易地否认完整的行为规律。只有通过科学的观
察,才能发现这种规律;无论在何种情况下,都不能说:“我们找得够久了,这种规
律实际上不存在。”
我们可以找到有力的证据,证明这种说法是不正确清平乐村居的意思 的。因为,假定存在这种规
律,我们肯定能够找到。对一台离散状态的机器来说,我们极有可能通过观察找到
规律,预测其未来的行为,这要有一个合理的极限,比方说,在1000年之内。但
事情并非如此,我曾在曼彻斯特计算机内输入了一个程序,这个程序用
1000存储单元,这样,这个16位数的计算机就可以在两秒钟内作出回答。我
绝对不相信任何人能仅从这些回答中充分了解这个程序,并预测对未试值的回答。
(,)来自超感官知觉的论证。我想读者都很熟悉超感官知觉的说法,熟悉它的
四种方式即心灵感应、千里眼、先知和精神运动的意义。这些令人不安的现象似乎
在与一般的科学观念作对。我们多么想怀疑它们~不幸的是统计的证据使人至少对
心灵感应不得不信。人们很难重新调整自己已有的观念以接受这些新事物,我们一
旦接受了这些事物,就离相信鬼怪精灵为期不远了。朝这个方向前进的第一步是相
信我们的身体除了按照已知的物理学规律运动外,还按照未知的、但相近的规律运
动。
这个论点在我看来十分有力。我们可以这样回答,许多科学理论尽管同超感知
觉有冲突,但实际上还是可行的;事实上,我们要是对这些现象置之不理,依然能
活得很好。这是一种甚为冷漠的安慰,恐怕思维这个现象与超感知觉有着特殊的联
系。
基于超感知觉的更具体的论证大致如下:“让我做一个模拟游戏,让一个善于
接受心灵感应的人和一台数字计算机作为证人。提问者可以想象‘我右手中的那张
牌是哪个花色,’这样的问题。具有心灵感或千里眼的被问者在400张牌中可以答
对130张。而机器只能随机猜对约104张,因此提问者就能作出正确的鉴定了。”
这里有一个有趣的可能性。假使这台数字计算机有一个随机数字生成程序,那么,
我们很自然就能用这个程序来决定给予什么回答。但是,这个随机数字生成程序又
处在提问者的精神运动的能力作用范围之内。有了精神运动,计算机猜对的次数比
概率计算还要高,因此,提问者就无法作出正确的鉴别了。而另一方面,提问者也
能通过千里眼,不用提问就猜对。有了超感知觉,什么样的事都会发生。
如果允许心灵感应介入模拟游戏,我们就有必要严格规定测试方式。现在这情
景就好比在模拟游戏中,提问者在自言自语,一个被问者正贴墙侧耳倾听。要是将
被问者置入一间“防心灵感应室”,就能满足所有要求。
7.学习机器
读者可能会错误的认为我并没有令人信服的正面论证。否则,我就不花费那么
多精力来反驳对方的观点。其实并非如此,下面我将给出这样的证据。
先回到Lavelace夫人的反对意见。她认为机器只能按我们的指示做事。你可
以说,人给机器\"注入\"一个想法,机器以某种方式反应,最后又重新静止。就像一
个被锤子敲击的钢琴弦一样。另一个比喻就是一个低于临界体积的原子堆:输入的
想法就像从原子堆外部轰击的中子。这些中子会引起一些反应但是最后将逐渐消
失。但是,如果原子堆的大小变的足够大的时候,中子产生的反应很可能会持续的
增加,直到原子堆解体。思维中是否存在这样的现象呢,机器中呢,这样的现象在人
脑中应该是存在的。绝大多数思想都处于\"亚临界\"状态,对应于处于亚临界体积的
反应堆。一个想法进入这样的思想中,平均下来只会产生少于一个的想法。有一小
部分思想处于超临界状态,进入其中的想法将会产生越来越多的想法,最终成为一
个完整的\"理论\"。动物的头脑显然是处于亚临界状态的。由于这种相似性,我们不
得不问:\"一个机器能不能成为超临界的,\"
\"洋葱皮\"的比喻很有用。研究思维的或脑的功能的时候,我们发现一些操作完
全可以用纯机械的方式解释。它们并不对应于一个真正的思维,所以把它们像洋葱
皮一样剥除。但是这时,我们发现仍然有新的机械思维需要剥除,一直这样下去。
用这样的方式,我们是否能够达到真正的思维,或者最终发现皮里面什么也没有了,
如果是后一种情况,那么整个思维都是机械的。(但它不是一个离散状态机,我们
已经做了说明)
与其说上面两段是有力的证明,倒不如称之为\"为了产生信仰的背诵\"。第六部
分开始时提出观点的真正令人满意的证明,只能等到本世纪末出现能够通过漂亮女局长最新篇 实验的
机器出现。但是我们此时此刻能够拿出什么呢,如果实验将来会成功,现在应该采
取哪些步骤呢,正如我所解释的那样,程序的编写是关键。工程设计上的进步也是
需要的,但是看上去让它们满足要求是完全能够实现的。估计大脑的存储能力在
10^10到10^15之间。我倾向于比较小的数字,因为我认为只有一个很小的部分被
用来进行高级的思考。其余的大部分可能用来保存视觉影像。如果进行模仿者游戏
需要的存储容量超过10^9,是令人惊讶的。(请注意--英国大百科全书的容量为
2*10^9。)即使立足于目前的技术,10^7的存储容量也是非常实际的。也许根本就
不需要增加机器的执行速度。一部分模拟神经细胞的现代机器的速度比神经细胞快
1000倍。这提供了一个\"安全余量\",用来补偿各个方面产生的速度损失。剩下的
主要问题就是找到给这些机器编程的方法,以使它们能够完成游戏。现在我一天大
概能编1000字节的程序,所以如果大约60个工人在未来50年稳定的工作,并且
没有东西扔进回收站,就能完成这个工作。看上去需要更快速的方法。
在模仿一个成人思维的时候,我们必须考虑它是怎样达到当前状态的。
可以发现以下三点:
(a)思维的初始状态,也就是出生时的状态
(b)它所接受的教育
(c)它所经历的,不能被称为教育的事情
除了尝试设计一个成人思维的,为什么不试试设计儿童一样的思维。如果它接
受正确的教育,它就可能成长为一个成人的大脑。一个儿童的大脑大概就像一个刚
从文具店买来的笔记本。只有简单的机制,和许多空白的纸张。(机制和字在我们
看来几乎是同义的)我们希望儿童脑中的机制足够少以使它很容易的被编程。我们
可以假设对机器进行教育的工作量和教育一个人类儿童基本相当。这样,问题被分
为两个部分。设计一个儿童程序和对它进行教育。这两者联系紧密。我们不可能一
步就找到一个好的模拟儿童的机器。必须通过对它进行实验教学来研究它的学习效
果。然后试验另一个程序并判断是否更好。
显然这个过程和进化是有联系的。因为:
儿童模拟机的结构=遗传物质
儿童模拟机的变化=变异
实验者的决定=自然选择
这个过程应该比进化快的多。只留下最适应者是一个较慢的度量优势过程。通
过结合智能的实验将会加快这一过程。另一个重要的事实是并不需要局限于随机的
变异。如果能够发现一些缺陷产生的原因,就可能发现通过何种变异可以改进它。
教育机器和教育儿童的过程不大可能完全相同。例如,它没有腿,因此就不会被要
求去给煤球炉加煤。它也可能没有眼睛。不管聪明的工程师采取何种方法克服这些
缺陷,只要这样的机器被送进人类的学校,其他的学生肯定会嘲笑它。它必须得到
专门地指导。我们不需要太注意腿眼等等器官。海伦.勒女士的例子表明只要老师
和学生能够以某种方式进行双向的交流,教育就能进行。
惩罚和奖励通常是教学的一部分。在这些原则下,就可以建造或编写简单的儿
童机器。如果某个行动后很立刻遭到惩罚,机器要能做到不再重复这样的行动;而
接受奖励的时候,产生这个奖励的行动以后更有可能发生。我对一个这样的儿童机
器进行了一些实验,而且成功的教会了它一些东西。但是教育方法有一些不正规,
因此这样的实验还不能称为成功。惩罚和奖励最好能作为机器教育过程的一部分。
概略的说,如果老师没有其他的方式和学生交流,教给学生的信息不会超过奖励和
惩罚所给信息的总和。一个儿童学要学会说“Casabianca”,一定会经历一个痛苦
的过程。如果只能通过\"二十个问题\"的方法才能发现一个词,每一个\"No\"都将是一
个打击。因此应该寻找其他的\"非感情\"的交流渠道。如果能够找到,通过惩罚和奖
励就能让机器学会以某种语言给出的命令。这些命令通过\"非感情\"的渠道传输。这
种语言的使用将会大大降低需要进行惩罚和奖励的次数。
对于什么样的复杂程度更适合儿童机器可能有不同的看法。可能会有人主张尽
可能的简单以保持通用性。另一种方式是嵌入一个完整的逻辑接口系统。在后一种
情况下,大多数存储空间将被用来存储定义和命题。这些命题可能具有各种各样的
形式。例如,确定的事实,推测,数学上证明的定理,权威给出的判断,具有逻辑
形式却没有确定值的表达式等等。一些命题可以被称为\"命令\"。机器应该能够在命
令是确定的时候立即自动执行合适的动作。例如,如果老师对机器说\"现在做你的
家庭作业\"。这将使\"老师
说\'现在做你的家庭作业\'\"成为确定的事实。另一个事实可能是\"老师说的一切
都是对的。\"这两个结合到一起将使\"现在做家庭作业\"成为确定的事实。而根据机
器的建造规则,这意味着立即开始写家庭作业。效果还是令人满意的。机器的推理
过程并不需要像这样遵守严格的逻辑。例如可能并没有类型体系。但这并不意味着
出现类型谬误的几率会比我们从悬崖摔下的几率高。合理的命令(在系统内部表
达,并不是系统规则的一部分),比如\'不要使用一个种类除非它是老师提到种类的
一个子类\'就和\'不要他接近边缘\'具有相似的效果。
一个没有四肢的机器人需要遵守的指令集中在智力层面,就像上面做家庭作业
的例子那样。在这些指令中,最重要的是规定逻辑系统的规则以什么样的顺序执
行。因为在使用这个系统的每个步骤中,都会有许多不同的步骤供选择,在遵守逻
辑系统的规则的情况下,选择任意一个都是允许的。如何进行选择将区分聪明的推
理者和一个傻瓜,而不是区分出一个推理是正确还是谬误。产生这样的命令的陈述
可能是“当提到苏格拉底的时候,使用芭芭拉的三段论”者\'如果有一个方法被
证明比另外的方法快,不要使用慢的方法。\'这些陈述可能来自权威,以可能来自
机器本身,例如通过科学推理得到的。一些读者可能会感到学习机器的想法有些矛
盾。怎样能够改变机器遵守的规则呢,这些规则应该完全决定机器应该做出何种反
应,不管他的经历是什么,不管发生了什么变化,因此应该是时不变的。确实是这
样。而对这个矛盾的解释是,在学习过程中改变的规则并不是永远不变的,这样的
规则仅仅在一个短时间内起作用。读者可以用美国的宪法进行类比。
学习机器的一个重要特点是它的老师通常不关心其内部发生了什么变化,尽管
老师能够在一定程度上预测他学生的行为。当被教育的机器是经过试验证实的好设
计或编程的时候,更应该如此。这一点和使用机器进行计算形成鲜明的对比。在后
一种情况下,我们需要清楚的明白在任意时刻机器的计算状态。
的观点就会显得很奇怪。我要达到这个目标需要付出艰苦的努力。这样,\'机
器只能按我们的要求做事\'
们输入机器的大部分程序将引起机器执行一些我们无法完全了解的事,或者一
些我们认为完全是随机的事。智能行为应该和完全服从命令的行为方式有区别,而
这种区别也不能太大,不应该产生随机的行为或无限循环。通过教学的方式使我们
的机器能够进行模仿着游戏的一个重要结果是:\'人类的不可靠\'的特点很可能被相
当自然的忽略,也就是不需要专门的辅导。通过学习得到的行为并不应该是百分之
百的,确定的结果;否则,这些过程就不会被忘记。
在一个学习机器中加入随机元素应该是明智的。一个随机的元素在我们寻找一
些问题的答案时是相当有用的。例如我们想找到一个介于50和100的数,它等于
各个数字的和的二次方。我们可以从51,52开始一直试下去直到找到满足条件的
数。另一个方法是随机的选数直到找到满足条件的数。这个方法的缺点是一个数可
能重复试两次,但是当有多解的时候,这一点变得并不重要了。系统化的方法的一
个缺点是可能存在很大一段数中并不存在解,但我们需要先验证它。现在的学习过
程可以看成寻找一个行为规则满足老师的要求(或一些其他的标准)。因为可能存在
大量的可能解,随机的方法可能比系统的方法更
好。请注意,这和进化过程是相似的。但是系统化的方法并不是不可能的。如
何能够跟踪不同的基因组合而不产生重复呢,
我们可能希望机器能和人在所有的纯智力领域竞争。但是首先从哪里开始呢,
这也是一个困难的决定。许多人可能会说一个抽象的行为,例如下国际象棋可能是
最好的选择。也可能需要给机器最好的传感器。然后教它听懂英语。这将和教一个
正常的小孩一样。它应该被指出并命名等等。我并不知道正确的答案,但是我想这
些方法都应该试试。
我们的目光所及,只是不远的前方,但是可以看到,那里有许多工作要做。
Wecanonlyseeashortdistanceahead,
butwecanseeplentytherethatneedstobedone。
更多推荐
computing是什么意思puting在线翻译读音
发布评论