成都市中心体育场改造:机器人发展或令人感到恐怖

来源:百度文库 编辑:偶看新闻 时间:2024/03/29 09:02:27
自从机器人第一次出现在科幻小说中,人类就开始担心机器人会举行“起义”。但是今天,专家提醒人们的是一个更不易察觉的的威胁:我们可能会过于喜欢(或依赖)与他们生活在一起。

  要感受到机器人带来的惊骇并不需要很多的硬件设备。我们不需要戴着虚拟现实的护目镜或镶嵌着许多电极的无边便帽,也不需要大量的电缆或可植入人的大脑象头发那样细的纳米线。仅凭机器人那双警惕的不断闪烁的眼睛就足以做到。

  媒体实验室(Media Lab)

  该实验室座落在马萨诸塞州剑桥园麻省理工学院校园内,其中属于个人机器人小组的实验室看起来更像一个十几岁男孩的卧室,到处是缠在一起的电缆,已放了一段时间的比萨饼盒子和不知是被拆开的玩具还是被肢解的机器人。在一堆杂物中,一个5英尺高、有三个轮子的仿人机器人启动并开始环顾房间四周。它确实是在看,它的大大的深蓝色的眼睛转到那边,它的白色的、玩具娃娃似的大头就跟着转向那边,而且不时停下来,好象在打量着每个研究人员。它的名字叫奈克西 (Nexi),它的一双眼睛闪烁着。对视着它就象对视着新生儿的眼睛,激发起人们本能的爱,让人们心里忍不住想问:“你想要什么?你需要什么?”很少有人能以一种无动于衷的态度与它接触。

  “现在它做的动作是环顾四周,这是一个非常基本的动作。”实验室的研究人员马特·柏林说,“我认为它很高兴,因为它有一张脸,可以观察外面。”在另外一个实验室里,另一种类型的仿人形机器人动作的目标比较具体:从房间的一边走到另一边,保证不会摔倒,找到指定的彩球,并轻而快地踢它一下。而奈克西的功能更具有深远的意义,它是社交机器人。它的唯一目的是与人类互动,它的使命是被人类接受。

  这是一个任何具有真正自我意识的机器人可能会拒绝的使命。为了得到广泛的接受,可能意味着与人类几十年形成的对机器人的恐惧和厌恶作斗争。机器人的这种坏名声范围很广,从机器人最终不可避免地对人类宣战的末日预言到那种认为人形机器人将永远是绝对令人不安的和不宜相处的同伴的信念。

  至于奈克西,可以说是人机交互技术研究(the human–robot interaction ,HRI)领域中的一颗最耀眼的明星,但在出名的同时,也引起了恐惧。在YouTube上有一段奈克西的视频,已有数千人点击观看。在这段视频中,奈克西靠轮子移动进入视野,缓慢地转向镜头,用令人愉快的完美的女性声音介绍自己。如果这段视频的目的是让奈克西得到大家的喜欢,那就适得其反了。它的眼睛大而富有表现力,脸庞长得幼稚可爱,但这一切都有点不正常,就象是一个玩具娃娃伪装成一个巨型的小孩。或者,对于存在主义者来说,更令人深感不安的是:一个具有真正情感的机器人,它能够爱你,也同样能够轻视你。结果,观众称它的表现为“毛骨悚然”。

  但是机器人的辩护者反对这样的评价。认为人机交互技术的未来是光明的。老年人没有办法拒绝那些轻言细语、眼睛眨动的并与他们朝夕相处的护士机器人递来的药物。毫无疑问儿童会爱上日托机器人,即使机器人有时没有安慰他们,也有时会因软件错误或电池组的故障而没法作出反应。把今天面无表情的 Roombas机器人变成明天的积极主动的机器人伙伴,社交机器人只需要以奈克西为榜样,开发利用强大的、甚至无法控制的人类本能。

  这就是为什么奈克西的金属手臂和双手以小幅的、逼真的动作左右移动。这就是为什么奈克西在寻找面孔,似乎用眼睛在看你。当它的眼睛随着小型发动机嗡嗡的叫声再次闪烁,你会不由自主地对它微笑。你会把它当作与你一样的一个具有社会性的生物。即使 奈克西没有说一句话,你已经想成为它的朋友。

  事实证明,即使你知道使你感到惊骇的是机器人,并不能使你更容易对它产生抵制。也许这才是社交机器人真正的危险。虽然人类已经对恶意计算机和橡胶肌肉体作出种种猜测,机器人专家可能已经制造了一个更真实的威胁。当面对实际机器人,人们可能变得过于依恋。就像人与人间的关系,这种依恋可能充满着陷阱:一个老奶奶会如何想,例如,当她的机器人同伴被送去的升级,然后回来时是一个完全陌生的机器人?

  机器人曾令人感到害怕:担心它会消灭人类

  当一台机器人可以轻易地按下我们进化的按钮,适时地眨动其人工眼睑就能解除我们内心深处的保留意见,也许这种担心根本不是愚蠢的反应。也许我们只是害怕这种本不该出现的东西。

  机器人在它们存在之前就开始让我们感到害怕。1921年,捷克的科幻剧作《罗素姆万能机器人》(Rossum's Universal Robots)中同时首次引进“机器人”一词和机器人大灾难的威胁。在剧中第一幕发表的宣言中,作为廉价的、可支配劳动者而制造的机器人使他们的意图很清楚:“全世界的机器人,我们责成你要消灭人类。不要留下一个男人。不要留下一个妇女。”邪恶机器人的起源可以追溯到更远,但《罗素姆万能机器人》创造的那种恶魔般的机器人类型在上世纪四、五十年代的科幻小说中风行一时,而这时对机器人的实际研究还没有开始。事实上,《我,机器人》(I,Robot)的作者艾萨克·阿西莫夫在创造了 “机器人学(robotics)”一词的同时,他开始在他的短篇小说中建立机器人的规范和道德准则。

  在1984年的电影《终结者》中,阿诺德·施瓦辛格扮演的人型机械人T – 800对警察局进行了大屠杀,终结者,这个机器人叛乱者,已经成为流行文化中最根深蒂固的陈词滥调之一。这部电影已经成为一种特定恐惧的符号:即人工智能(AI)将成为太聪明、太沉迷于自我保护。终结者影响了我们对机器人、人工智能甚至正在发展的机器人战争的认识。其中,美国海军研究所正研究将来是否需要对军事机器人制定道德规范,并在2008年一份初步研究报告中提出最凄惨的结局:“象《终结者》中的情景,机器人反过来对付我们处于劣势的人类。”

  但据加州州立理工大学哲学助理教授兼美国海军学院伦理学研究员帕特里克·林的观点,对机器人道德规范的需要不仅限于战场。“与军事机器人相比,社会机器人对一般人可能构成的更大威胁。”她说。“虽然它们没有武器,但我们会很快地与它们面对面。”

  这当然也正是记者努力报道的言论。媒体向来是大肆渲染具有自我组织能力的人工智的可能的危险,以及武装机器人射杀平民的前景。但是,机器人可能构成的真正威胁与《终结者》的情景无关,因为即使与最笨的武装叛乱分子相比,机器人的大脑实际上也是死的。

  以奈克西为例,奈克西被认为是世界上最先进的社交机器人之一,但它仅仅能理解最基本的声音指令。现在它正处于半退休状态,它的电机已摇摇欲坠。麻省理工学院为它的另一个机器人里奥纳多(Leonardo)开发了新的行为软件。里奥纳多是一个毛茸茸的、长着大耳朵的机器人,它可以向人类学习,如判断那些方块可以拼成一幅指定的拼图,或那些填充玩具是“好的”,哪些它应该感到害怕。这是一种让我们感到震动的机器人类型:这种机器人能听懂我们说话的内容,并知道我们告诉它应该喜欢的或害怕的东西。奈克西已装上与莱昂纳一样的软件,麻省理工学院的柏林(Berlin)说:“也许不用一年,奈克西将能和你交谈,虽然交谈可能很乏味。”

  社交机器人带来机器人的技术飞跃

  如果汉森机器人(Hanson Robotics)公司的创始人大卫·汉森一切进展顺利,在今年年底,这家总部设在德克萨斯州的公司的最新社会机器人芝诺(Zeno)可能在说话能力上超过奈克西。这种23英寸高的机器人售价为2500美元,可以说是物超所值,不仅因为它的硬件,而是因为装在其卡通造型的头部里的软件。“这种智能软件可以使芝诺认识到在一个房间里有多人。”汉森说,“它建立了一种有关“你是谁,你喜欢什么,你说了什么”的思维模式。现在我们已经达到这种程度,它可以进行一次自由回答的、不限主题的交谈。”汉森计划在2011年或2012年推出一种售价为250美元的大众市场版的机器人,它具有与芝诺相同的脸部和声音识别能力。他的目标是为研究人员提供一个功能强大的试验平台,同时还利用人工智能算法,生产一种机器人玩具,可以与人实实在在的玩耍15分钟以上。

  但是就奈克西和芝诺的社交技能和艰苦仿真的情感生活来说,机器人是本能的,而不会反省。跟踪软件发现,人说出一个关键词,然后引发了机器人预设的反应,而当你离开房间,他们不会想你去那里,刚才的谈话是帮助还是伤害你,或者如何摆脱你的控制。“要人工智能作出自然界意义上的预测是非常困难,”英国雷丁大学控制论教授凯文·沃里克(Kevin Warwick)说,“机器人能够考虑各种可能性事件,但它甚至不能领先一步考虑到它作的决定会产生的后果。”

  还有,当然,研究人员预见计算神经科学上的快速进展将不可避免的导致“强大的人工智能(strong AI)”,这种人工智能不是在谷歌搜索框里完成你的句子,而是模仿人类思维。IBM公司的蓝色大脑计划(Blue Brain Project)就是其中之一,它的目标是可能最快在2019年制造出虚拟大脑,这使灾难预言家们更喋喋不休。不过,没有一个能描绘我们自己的预感或道德感的神经网络图,要能够创造出一个真正有权力欲或邪恶的机器人仍是遥遥无期。考虑它们就有点象辩论缺乏管制的超距传输(teleportation)上的伦理隐患。没有人建造企业(Enterprise)号太空飞船,为什么要担心斯科蒂(Scotty,《星际旅行:企业号》中的角色)会喝醉拨号到你的家中?

  机器人不会很快大批起义。奈克西不会发送电子邮件给芝诺,传播来自于《罗素姆万能机器人》中的 “消灭所有人类”的信息。这则信息也不会在全世界的Roombas 机器人、铁血战士和和“装配线焊接机”中传播的。这是一个幻想,或者充其量是下一个世纪讨论的话题。就象很多机器人担心,这有可能淹没一个更理性产生于现实的辩论,这个现实就是几乎每个机器人都是在法律和道德的缝隙中降临的。“如果一个孤独症患者控诉一个机器人,并试图毁灭它,机器人应如何应对?”帕特里克·林问,她正计划制定社交医疗机器人道德规范。

  “难道把它关闭?这是一个昂贵的设备——它应该挡回去?”当机器人大规模地出现,我们是否已准备好它们同时可能造成的对人身体和心理上的损害?

  当我们的眼睛盯着一个我们认为具有自主性的机器人——它能根据自身的意志移动、行动和工作——我们的镜像神经元(mirror neuron)会被激发。当我们看到其他动物在走动时,同样是这些神经细胞在活动,神经学家怀疑它们与学习有关,这种学习通过模仿的方式。镜像神经元才不管是一个蜡像,还是一个遥控靶机。具有自主性的机器人激发这些神经元,欺骗人的大脑把一个机械设备当作活的东西。

  然而,就像人与机器人互动的许多方面,这种全面影响尚不清楚。科幻作家可能花了一个半世纪的从理论上说明人与机器人生活的长期影响,但科学研究只是刚刚开始。虽然人机交互技术的领域正在做有关的数据收集工作和探究其原则,要得出坚实的结论还是不可能的,或者至少是不负责任的。就以这些镜像神经元为例,神经科学家可以看到它们的运动,但是这些神经元的确切目仍然在争论中。

  有关大脑对机器人的神秘反应的另一个更经常被引用的的例子是通常被称为“诡异谷(the uncanny valley)”的假说,换一种说法。就是“机器人令人毛骨悚然”。“诡异谷”理论是在1970由日本著名机器人专家森政弘(Masahiro Mori)在一篇论文中提出的,“诡异谷”描绘了一个图表,显示人类对人形机器人感觉比较熟悉且可能比较舒适。直到这个机器人变得与人类太相像,引发与看到死亡或不健康的人时会产生的同样的心理警报;在这一点,图表直线下降,然后会再次上升,与看到一个真人的反应一样,或者从理论上讲,一个完美的机器人。这是否是我们“战斗或逃跑”本能的一种变形,或者是一种更复杂的东西,森政弘的用很重要——“诡异谷”不是赤裸裸的恐惧,而是一种混杂着熟悉和恐惧、吸引和排斥的情感。这是一个认知失调的时刻,原因是大脑不能一时反应不过来,就像人遇到了会说话的圣诞树或一具发笑的尸体。

  以学术标准,这是令人回味、令人兴奋的东西,它描述的似乎是一种普遍现象。奈克西令人不安的YouTube视频,看起来就是活生生的例子,并且奈克西还有大量令人感到不安的同伴。日本制造的社交机器人CB2(Child-robot with Biomimetic Body,儿童仿生机器人)具有真实感很强的眼睛,儿童的身材比例和灰色皮肤,几乎所有的博客和记者都认为对它感到恐惧。而另一个日本机器人科比安(KOBIAN),具有丰富的脸部表情、突出的眉毛,一对宝石红的完整的嘴唇。它也被立即被西方媒体打上“毛骨悚然”的标记。这些社交机器人的设计者原本是想避免“诡异谷”效应——亚洲实验室堆满了逼真的机器人,都深陷于森政弘永恒的“诡异谷”中。

  但正如经严格分析,《终结者》的情景并不可能出现,“诡异谷“理论也并非完美无暇。如果仅仅凭那些YouTube上的机器人的视频,你会以为当你真的见到奈克西时,会让你毛发竖起。但实际上大多数人见到奈克西,都会喜欢上它。柏林介绍说:“我们做了一些非常实际的事情,使我们的机器人不会那么可怕。”奈克西成功的秘诀,很明显对于其它机器人来说也不是很难做到。这个秘决在于一本书名为《迪斯尼动画原则》的略微有点破损的精装书,这是个人机器人小组人员的必读书目。柏林说:“我们是创造现实中的动画人物。”像许多动画人物,奈克西的外表和动作是对人类的进行了夸大。当它伸手去拿一个物体时,它的手臂不是非常精确地直直地伸向目标。它会浪费时间和资源,所先调整好其眼睛、头部和身体,然后手慢腾腾地以弧形运动的方式伸向目标。奈克西在物理上是低效的,但确深谙社会学。

  机器人小组是如何做到这一点的?在与数百名人群互动中,包括大波士顿区三个老人中心的居民,研究人员声称,没有人尖叫着逃离奈克西。恰恰相反:许多老年人试图与这个机器人握手,或拥抱它。至少有1人还吻了它。“它以这种非常社交化的方式与人们互动,所以人们以人际交往的方式与其交往,把它视为一个社会个体,而不是把它当作一个机械。个人机器小组的主管辛西娅·布雷西亚(Cynthia Breazeal)说。“在奈克西的研究中,我们已经显示,如果你让机器人以已知的加强信任和了解的方式表现和移动,人们就会以同样的方式进行反应。你在按下同样的按钮。”

  这一原则也被证明同样适用于CB2和科比安。这两个项目的研究负责人称,网络和媒体上对他们机器人的担忧在现实中从来没有出现,根据大阪大學教授溙镲∕inoru Asada)教授的说法,实际中每个人见到CB2都喜欢它,除了一位泰国公主。一家日本报社组织一群老年人访问科比安。他们“非常高兴和感动。” 早稻田大学机械工程教授高西(Atsuo Takanishi)说,“好像机器人真的有感情。”

  即使“诡异谷”的曲线最终变得更为平滑,这很容易通过与机器人的接触来实现,奈克西和其它机器人的成功提出了一个更深刻的问题:为什么我们会在本能上如此讨厌机器人?

  “事实证明,人类在精神上很容易产生依赖性。我们特别渴望交往。”麻省理工学院技术与人格研究项目主管谢里·特克尔说,“难道我们真的想对此加以利用?”特克尔对人与机器人之间能够形成的强有力的关系进行了研究,例如帕罗(Paro),是日本研制的安抚型机器人,这是一只非常可爱的机器小海豹,它会在你的怀里耍娇,被抚摸时会发出咕咕的叫声,通过吮吸一个带电线的安抚奶嘴对它充电。她还记录了帕罗的智力甚至是情感,这些来自于与帕罗一起玩的小朋友的报告。这个安抚型机器人,充其量不过是一只电子填充动物玩具,但它对老年人的影响进一步引起了特克尔的关注。“请告诉我一下,为什么我需要一个机器人婴儿保姆?”特克尔问道:“我们怎样回答孩子这个问题?我们怎样回答老年人这个问题?我们正在忙于发电子邮件而没时间去照顾那些需要照顾的人?”

  在特克尔这样的研究人员看来,社交机器人的广泛使用不可避免地存在风险。当一些分析家估计到2015年将出现一个150亿美元的个人机器人市场,对情感机器人(expressive machines)的需求预计将更惊人。特克尔辩论的核心——本质上是呼吁谨慎行事——是害怕将人类交往完全托付于机器人。更令人值得警惕的是机器人可能陪伴的对象,从人手不足的学校的儿童,到患有老年痴呆症的老人。用大量的机器人来监督青少年和看护老人,与雇用数千名教师和同住护工相比,可能在费用上要节省许多。但是第一代在机器人作为权威人物和朋友之下长大的青少年会怎样处理不可预知的人际间的关系?没有更多的数据,一个本意良好的应对人力短缺的方法就会变成用发放新的和未经考验的抗抑郁药来解决伦理和法律范围内的问题。

  一个可行的办法是让人重新处于主动地位,而把社交机器人作为木偶来使用。麻省理工学院个人机器人小组的另一个机器人 Huggable是一个泰迪玩具熊机器人,它的动作可以通过网络浏览器来控制。研究人员计划用它来安慰住院儿童,家庭成员或医生将对它进行遥控操作。它实际上有一个泰迪玩具熊的骨架,而原来泰迪玩具熊毛茸茸的皮毛,被一个布满压力和触摸感应器的表皮取代。用一操作的电脑上有一个简单的命令菜单,可以命令其抬起或放一手臂,或者转动其头部。Huggable上面的摄影机可以将周围的情形传送到电脑上,让操作者进行观察。

  目前Huggable并没有自己的个性。它是一个高科技的传声器,传送操纵者的声音,而不是一个完全的社交机器人。在最近发表的一份研究报告,描述了日本机器人玩具的“父母”模式的危险和用机器人作保姆的诱惑。英国谢菲尔德大学机器人技术和人工智能教授诺埃尔·夏基把Huggable的缺乏自主性作为其卖点。“这样的机器人,没有引起对具有自主性的机器人提供的专有的或接近专有的护理那样的道德上的关注。”他与合著者写道。半自主性的机器人可能不会减少支出,但它比起社交机器人可能更为安全。

  人类是否要为机器人制定道德规范

  人类对机器人一直存在的恐惧感尚未消除,现在又增加了夏基和特克尔的悲观论调。然而,几乎每个研究员都同意这样一个观点:我们需要为机器人制定道德规范,我们现在就需要它们。并不是因为机器人缺乏道德指南,而是因为它们的创造者现在是在道德和法律真空中操作。“当一个桥梁倒下,我们有一套早已准备好的大致分摊责任的指导方针。”布鲁金斯学会的高级研究员和《网络战争》的作者P.W. 辛格说,“现在我们有一个等同于桥梁的东西,它可以在全世界站立、移动和运行,但当它倒下来时,我们没有办法搞清楚谁应该对此负责任。”

  比起充满了猜测和缺少试验数据的辩论,一套高明的道德准则可能更能起保险作用。“我关心的并不是机器人明显令人讨厌的因素,而是如果这个机器人出错呢?”克里斯·埃利奥特(Chris Elliott)说,他是一个系统工程师和审判律师,最近促成了英国皇家科学院起草一份关于自治系统的报告,“这是人们将会犯错的地方。”甚至即使社交机器人大规模的心理影响机器人结果是零,埃利奥特担心一步出错以及相应的反弹,可能会使数年的进步反转。想象一下近年有关的媒体报道,首次出现病人被一个机器人外科医生杀死,一辆自动驾驶的汽车迎头撞上一辆校车,及机器人有板有眼地与老年痴呆症患者扭打的视频。埃利奥特说:“法律是远远落后的。因为法律的不确定性,我们将达到这样的地步,我们会害怕部署新的有益的机器人。”

  这些准则的确切性质仍然是一个猜测。有一个观点是每个机器人类或模型只限定于一个特定的任务——机器人护士可以访问与一定年龄范围的病人,或者老年人看护机器人可以提防危险的摔跤,但是不能私下里谈话和让人依偎。从长远来看,大卫·汉森认为应明确规定智能机器人与人合作的程序,所以当机器人能自我发展,具有他所谓的“智慧”后,能保证它们不伤害我们。辛西娅·布雷齐尔的立场更强硬:“现在绝对是作出决定的时候。”她说,“在这些机器人与脆弱人群接触前,人类应该进行一次认真的对话。”

  哲学家、伦理学家、律师和机器人专家也仅仅是开始了丰富阿西莫夫的早期机器人伦理规则的艰苦工作。同时,如果有一种方法化解我们对机器人长期的、不合理的恐惧和阻止任何勒德分子强烈反对的风险,就可能要依靠象奈克西这样的机器人。
来源: 大众科学