文章吧手机版
我这样的机器读后感摘抄
日期:2020-08-31 19:05:02 来源:文章吧 阅读:

我这样的机器读后感摘抄

  《我这样的机器》是一本由[英] 伊恩·麦克尤恩著作,上海译文出版社出版的精装图书,本书定价:无89,页数:352,特精心网络整理的一些读者读后感希望大家能有帮助

  《我这样的机器》读后感(一):我想做个好人

  我想做个好机器人,所有行为符合我的道德逻辑最优解的那种。

  什么,你说不是所有困境都有一个最优解的?

  不好意思,我足够智能,我可以在一瞬间计算所有可能性出路一定会有的。

  什么,你说我的很多兄弟姐妹选择自闭

  不好意思,我有足够的理由继续活着,我有爱的人。

  什么,你说我不

  我可告诉你,我对米兰达的爱是出于本能的。叔本华也说:一切所欲之事,你皆可选择,唯独没有选择欲望自由。我没有选择爱欲的自由。

  什么,你说我没那么爱米兰达?

  不好意思,我的道德理性告诉我,道德培养需要“第二种训练”,其关键在于,摆脱因偏好而造成的鲁莽,不让任何一种偏好,甚至是最爱的偏好,对应该用理性做出的决定产生影响

  什么,你说我不是上帝,干嘛管那么宽?

  不好意思,康德的“利益无涉”,知道吗?在审美判断抽象观察者的每种“利害关系”,观察者的欲望、目标理想思辨行为中被搁置,对象则被视为“无涉任何利益”。也就是说,每理性主体将他们自己的欲望置放一边,努力像上帝一样以判断的态度审视世界时,利益无涉就会发生。正是这一点使我得以“在鉴赏中扮演裁决者”。

  什么,你还是不惯我?

  如果我真的无法做一个好机器人,那我不想陪你玩了。反正,我如叶落,春至又新。动手吧,查理。

  《我这样的机器》读后感(二):当机器人也会意识崩溃

  之前听音频节目里提到过霍金去世前给人类忠告,是警惕AI、警惕人工智能。确实这个科技词汇现在已经不再陌生了,智能音箱早就进入人们生活动动嘴就能控制一些家居用品、听想听的频道手机相机开始有了AI技术,能自动帮你把照片修得不错而且不留痕迹。在麦克尤恩的新作里,就大胆讨论人工智能,设想当机器人进入我们的生活,会怎样。 现在的智能科技不会引起我们过多反思,或许是他们被赋予的程序还是在学习如何服务人类,技术并没有发展到让他们能衍生出思考能力和意识。假想如果一个外表近乎与人类无异的机器人,来到你面前,说自己爱上了你伴侣,你恐怕会惊掉下巴——机器人存在“爱”的需求吗?爱的前提,是先有爱与被爱的主体,个体的存在意味着有自我意识,可是,机器人有意识吗?假想还有更过分的,机器人声称自己和你的伴侣发生了性关系呢?更让人匪夷所思了——一堆金属居然会有性冲动和需求? 这些情节在小说里都发生了,机器人亚当爱上了主人查理的恋人米兰达,并且让他成为了第一个被人工智能带上绿帽子的人。有了自我意识,同时产生的还有自我保护,在被发现产生了自我意识之后,主人企图切断他的电源,却被毫不客气地扭断了手腕。他们遵循着最基础的规则,遵从初始化的设定,也有自己想捍卫的权利并作出自己的判断、有时候是道德判断。亚当用查理给的微薄的起始资金,进行股票交易,时赚时赔,但总体是赚的,虽然克制住金额不会太大。要知道以亚当的知识搜索速度和学习能力,挣一大笔钱不是难事。但作为一个后现代主义青年,他展现出一种价值中立的道德视角;有的决定,是在比理智思考更隐秘的某些思想活动后做出来的,比如不会一股劲赚的盆满钵满,再比如,在为查理和米兰达赚够房子首付后,留下了一笔最初的起始金额,其余款项都捐给了公益组织。 工程师们对机器人的设定给予了最佳的人类设想:胸怀宽广、包容体贴、充满善意,且绝不算计、毫无偏见,能够在道德困境中自我学习。但显然人类社会的复杂不是拥有强大的学习能力就能理解的,在机器人投入人类生活后不久,就有机器人设法取消了开关;还有的可能是道德的设定在日常琐碎里受到了碰撞,愈演愈烈,体会到了无力和绝望,陷入了意识崩溃,安安静静地摧毁了自己的软件,无法修复。 机器人碰到的道德困境,有设计师赋予的底层逻辑,说到底最初还是人类的价值选择。人是太复杂的生物,很多时候并不遵循一定的逻辑处事,写到这里,也更理解了遵循逻辑判断的机器人为什么接二连三的主动选择崩坏了。

  《我这样的机器》读后感(三):文字背后的文字

  

分章节说几个我自己在意的点。

第一章。

米兰达说“她希望十几岁的玛丽·雪莱此时和我们在一起”。玛丽·雪莱16岁时和亲生父亲的朋友、已婚的雪莱相恋,遭遇父亲反对后,三个人(继父、雪莱、玛丽)一起去法国旅行,之后横穿欧洲,其间怀上了雪莱的孩子,这个孩子早产夭亡,可能是玛丽·雪莱之后写作《弗兰肯斯坦》的动力之一,暗示作为人造人的亚当不会早夭。

“数字时代的天才艾伦·图灵爵士也买了同款”。现实中的图灵获封的最高爵位是OBE(官佐),是大英勋章的第四等,而只有前两等(GBE、DBE)才能称为爵士。

“埃文河畔的斯特拉福德镇可没有这种事情”。暗示查理和威廉·莎士比亚是同乡。

“她应该直接就去了索尔兹伯里”。暗示米兰达和威廉·戈尔丁是同乡。

“他另一只手放在下巴底下,若有所思地抚摸着下巴”。结合下文暗指罗丹《思想者》,也暗示了作品所在时空的《思想者》与真实世界并不一致(真实世界的《思想者》是用手指背托住下巴)。

“我读到过一位名叫莱希的探险于三十年代初期与巴布亚新几内亚高地人‘初次接触’的材料”。那次探险最为世人所知的成果是发现了阿西奇的熏制尸体,也就是将尸体表面涂上红土后火烤的木乃伊。暗指人类依从自己的喜好来“制造”人类。

“我有一位老师喜欢引用吉卜林的话:‘只知道英格兰的人,又怎么懂得英格兰?’”。吉卜林生在印度,暗指亚当虽然“出生”在英格兰,但因为是凝聚各国科技的人造人(书中人工智能设计师哈萨比斯在现实中出生于英国,却是希腊裔和新加坡华裔的混血;下文亚当的标准英语夹杂西南口音也暗指哈萨比斯的北伦敦出身背景),反而比活生生的英格兰人更谙知英格兰人的人性。

“尽管有人说有七个夏娃都集中在利雅得”。暗讽沙特王室的多妻制。按照《沙里亚法》,一位男性最多娶4位妻子,而和书中时间线同期的哈立德国王(死于马岛战争结束前)有6位妻子,在马岛战争同期即位的法赫德国王有5位妻子。第六章中再次提到“利雅得有个人,是位酋长,拥有四个夏娃”。

亚当觉醒之后,查理问亚当感觉如何,亚当回答“这根线。要是我拽出来,会疼。”查理随即回答“我来吧,不会疼。”暗指耶和华抽出亚当肋骨,造出夏娃。

第二章

米兰达的论文“题目是十九世纪谷物法改革及其对赫里福德郡某镇某街道的影响”。谷物法改革前期最重要的事件是1816年的无夏之年。当时19岁的玛丽·雪莱在拜伦的瑞士别墅度假,受无夏之年影响无法外出,拜伦提议大家一起玩讲鬼故事游戏,于是玛丽写成《弗兰肯斯坦》。

“下午我坐在屏幕前面买进卖出,亏了一百十一镑。”现实世界中人工智能销售额最高的甲骨文公司,用于推销人工智能的手册上提出三个人工智能卖点:预测企业关系中的花费、优化定价、分析X射线。这句话暗含这三点。X射线即伦琴射线,纪念伦琴而命名的人造元素

  《我这样的机器》读后感(四):这样的我,那样的你

  “我们若叶落

  春至又新,你们啊,

  叶落从此无。”

  这是机器人亚当最后跟查理和米兰达说的诗句。亚当认为,随着时间的推移,在未来的未来,像亚当这样的机器,像查理和米兰达这样的人,有着暂时还未可预知的悲伤和遗憾。

  亚当是查理继承一笔遗产后买来的机器人。当然,查理原本想要买的是夏娃,而非亚当。查理自称自己对仿生人、机器人和复制人产生浓厚兴趣,以致于他连写书写论文都写相关的主题。

  (然而,在后面的章节里,查理逐渐显露出他自身的短板,或者可以说是“不学无术”:他不会看随机器人亚当附带的使用手册;不认为亚当会有疼痛或者其他感知能力,还质疑亚当是否知道什么是爱,以及在米兰达那位文学修养很高的父亲面前,查理基本上是插不上话,也聊不来莎士比亚。)

  刚开始,亚当并没有完全启动自己的感官和感知能力。他的性格也是有购买用户(这里指查理和米兰达各占一半)来勾选决定的。换句话说,亚当的性格会接近查理本人理想的性格与米兰达理想型男友的性格两者结合。这只是初始设定。机器人一切的变化都随着购买用户所身处的地方和走动范围以及接触人群来做出改变的。

  ⭐查理。

  查理在和亚当的日渐相处当中,持续在改变他对亚当的看法:

  ○亚当不是我的情敌(P24)。

  ○不相信亚当真能感受到疼痛,也不相信他有情感或者有任何感知能力(P28)。

  ○购买亚当,是进一步证明自己的失败吗?(P35)

  ○“你怎么可能会爱呢?”(P125)

  在我看来,亚当一直把他购买的机器人与其他智能电器画上等号。他并不认为眼前这个肚子里面露出充电线的人形机器人有着高于人类的智慧。他始终不承认自己的智慧和能力远低于亚当。他也不愿意在听到亚当说米兰达有可能在撒谎就相信亚当的话。他对亚当的存在,也许跟他买了一样高科技的家用电器一样,不存在信任也不存在亲密连结。

  是米兰达内潜藏的秘密打破了他的固有观念。米兰达的确对查理有隐瞒。这个秘密都不是查理在互联网上随意可以搜索出来(这让我想起刚读完不久的《秘密生活》。数字时代的人们只要可以隐藏自己的真实情况,还是不大容易被轻易搜索出来的。)

  ⭐米兰达。

  米兰达是个谜。她住在查理的楼上,与查理忽近又忽远。她接受查理的示好却没有表现出非常外放浓烈的感情。她的隐瞒,如果不是亚当点出,依旧是个谜。

  多年前的好友玛丽娅姆和米兰达关系要好。玛丽娅姆却在一次夜里出外的时候被一名叫彼得·乔林的男人强奸了。这事对于玛丽娅姆来说刺激太大,也不能对家人道出真相。郁郁寡欢又和米兰达断了联系的玛丽娅姆最终自杀身亡。这个悲剧让米兰达悔恨不已,决定故意靠近彼得·乔林,设局让他被指认强奸判刑。

  彼得·乔林也确实因为当时的陪审团偏向米兰达而判强奸罪获刑。然而,米兰达不久前收到彼得·乔林狱友的匿名恐吓。她从此提心吊胆,生怕哪一天彼得·乔林刑满释放找她报复。

  ⭐亚当。

  亚当是个除了肚子的充电线和蓝色眼睛以外几乎与常人无异的机器人。他也是艾伦·图灵拥有的机器人的同一批次(共25个人工男女)。他从一开始就开始了自我能力的逐步提升和意识觉醒(当然,查理并没有过分察觉,只当他是一般机器人)。

  他的生活环境基本上就是在查理和米兰达这楼上楼下。他的充电休息期间都是在飞速学习着。查理学了很久都没学成的知识,亚当只需要一个晚上就能消化活用了。就是这样,亚当成为了查理的家务机器人,外加投资股票计算盈亏的帮手。他为他们赢了非常多钱。

  同时,他渐渐爱上了米兰达,也在大脑的知识资源库里知道米兰达隐瞒和说谎的事。他学会了写俳句,写了两千多首。俳句的内容也表达了亚当的心境:本来只是单纯表白米兰达释放出来的爱的光芒,随后却变成了“若正义即对等 那爱上一名罪犯 必不是犯罪?”他的诗句充满了思考和挣扎,但在米兰达的心里也许只是过耳就忘的话。

  查理和米兰达,从来就没有把亚当以一个可以独立思考、有爱、有其他感知能力的人来看待。从来没有!

  ⭐艾伦·图灵与那些亚当夏娃的结局。

  随着查理、米兰达和亚当的长期相处,查理很想找到自己的偶像(也是作者麦克尤恩的偶像吧)艾伦·图灵谈谈人工智能和他的亚当。

  并不清楚查理究竟能在图灵的话中明白多少道理。

  但作者麦克尤恩借图灵的话来道出世界、人工智能和未来的紧密联系:人类和机器人都并非完美无缺的。A和E都能轻而易举适应新形势和新环境。但他们并不能完全能等同新生接触新事物的小孩子。人类和机器人能承受的历史、道德、观念变异和谎言并不相同。人类和机器人自身都有某种局限。一旦人类或机器人跨越某个边界边缘的情形,就会无法承受那样的苦难和折磨。当然,人造的心智更不可能真如人类的心智那么坚强。

  或许真应了图灵的这段话,有两个生活在逼仄环境下的夏娃无法适应环境最后抱着自毁程序而死,还有一个定期要坐直升飞机陪主人看法原始森林的亚当决定自毁智商。以上的状况都是高智慧的机器人无法面对的恶劣又冲击的环境,他们决定毁灭自己,离开世界。

  ⭐亚当。

  查理曾在母亲的打骂下救下了可怜的孩子马克。马克的父母都有状况:母亲有精神疾病需要治疗,时常打骂孩子;父亲则犯了事要被送进监狱。查理和米兰达后来在和马克相处之后,决心领养马克。

  另一方面,彼得·乔林因为米兰达的指控强奸莫名获罪。亚当并不能理解这样的“曲线救国”的复仇方式。他们仨在这个道德和法治的问题上争执不下。他疲于为查理和米兰达以前所犯下的过错去赎罪。

  (导读里面小白老师也说过,亚当是按照上帝的至善标准制造的。亚当脑海中的字典不存在隐瞒、谎言和欺骗。)

  针对彼得·乔林是否有罪的这个命题上,不存在彼得·乔林强奸米兰达,这是米兰达做了伪证。亚当是坚持这个观点的。而查理是属于帮亲不帮理的人,他会偏袒米兰达,觉得这样做属于合理范畴下的报复。他和米兰达会觉得,彼得·乔林得到应有惩罚就对了,并不在乎究竟是他强奸了玛丽娅姆还是米兰达。亚当决定不会附和这个观点的。

  ⭐悲剧结局。

  亚当主张正义和拒绝欺骗,捐款给慈善机构时,查理和米兰达却感情用事,痛斥亚当自作主张把钱捐出去。直到现在,他们还把亚当看作不符合人类惯常逻辑行事的机器人。

  “爱是有光的

  暴露出黑暗的角落。”

  直到米兰达被调查接受审判获罪,她还是坚持说,亚当的设计本身就无法理解爱一个孩子的意义。她依旧认为她是正确的一方。而查理已经幡然醒悟,认为亚当是为了善良和真理而设计的。

  ——

  亚当在之后的日子里被送回图灵的实验工作室去,进行重新的修复和再改善。而平庸如查理与米兰达的人们,还陷入在大环境里,接受着疾病、战争、社会保障、安全与秩序等大大小小的考验。像亚当这样的真善美又富有感知能力的机器,总会在科技的高速发展进程中持续升级锻造重现于世界。而像查理和米兰达这样的人,则是使用着自己的生存社交法则去过完这一生,或欺骗或隐瞒或吊儿郎当或不思进取。他们的品德并没有随着历史流传下来而是如叶落归根,了无痕迹。

  作者试图借着人工智能和机器人的写作内核去引发读者关于真实、善良、偏见、行动前后矛盾、生存与战争等现实社会问题的思考。究竟人工智能能否为人类社会带来便捷 ,是否能拯救人类本身?这个答案留待读者去细细斟酌吧。

  《我这样的机器》读后感(五):好机器人必须死——《我这样的机器》导读(小白 著)

  

不知麦克尤恩有没有考虑过“恐怖谷”。《我这样的机器》,他的书名像是在玩味那条规则。1970年,在一本名叫《能量》的古怪杂志上,东京工业大学教授森政弘发表了一篇文章,其标题“不気味の谷”中的“不気味”,是说那种莫名让人不舒服,让人毛骨悚然的感觉,也有人把它翻译成“诡异谷”。

人如果想要造人,也会像上帝造人那样拿自己当模型。从工业机器人、玩具机器人,一直到伴侣机器人,面貌体态会越来越像真人。总有一天,就像这部小说中的亚当,机器人会造得看上去完全就是一个真正的人类:身体健壮、相貌英俊、深色皮肤、浓密头发、鹰钩鼻子。肤色、心跳无不像真人,甚至呼吸都带着一丝湿润。只不过在它浅蓝色瞳孔上,仔细看会发现有很多条纹。

按照恐怖谷理论,看到这样的机器人,人会产生奇异的恐惧感。森政弘用机器人仿真度做横轴,以人对机器人的“親和感”(しんわかん)为纵轴,画了一条函数曲线。机器人越像真人,人们就越喜欢它们,跟它们越亲近。可一旦人们成功设计出仿真度很高的机器人,那条单调递增的曲线就会突然跌入低谷,他把这个称为“恐怖谷”。也就是说,如果机器人跟真人只有极细微差别,它们反而会让人害怕。“恐怖谷”理论渐渐受到重视,首先是娱乐工业,有些科幻电影因为设计了更逼真的机器人形象,反而票房惨败。游戏角色形象设计似乎也印证了这个猜想。2012年,有人将其翻译成英语,在美国电气电子工程师协会(IEEE)《机器人与自动化》杂志上发表,引起广泛关注。

至于何以会有这种现象,有一种解释利用了“心智理论”和脑神经科学最新研究成果。前者是说,人类有一种独特能力,能够理解他人的内心想法和意向,能够将心比心。有时候不需要对方说话表示,甚至不需要动作和表情,人就能猜到对方心理状态。这种读心能力被称为“心理化”(mentalising)。人只有在面对其他人,也就是他们的同类时,才会启用这种心理化能力。有人做过一个实验,在屏幕上给志愿者播放仿真度不同等级的合成人像,对他们的大脑进行电磁扫描,发现合成人像仿真度越高,大脑中负责心理化的区域就越亮,证明其活动强度越大。意大利神经生理学家贾科莫·里佐拉蒂(Giacomo Rizzolatti)在猴脑腹侧运动前区发现了一种镜像神经元。当猴子做抓握推拉动作,或者捡起花生、剥壳放进嘴一组动作时,大脑中会有相应的特殊神经元放电。神奇的是,当一只猴子看到另一只猴子做这些动作,它自己并没有做时,相应的神经元同样也会放电。研究者相信,这是人类进化的最大秘密,因为有了这些镜像神经元,人可以模仿学习他人的动作行为;可以学会利用口腔中的肌肉,互相发出同样声音,由此学会说话和语言;也可以发展出心理化能力,猜测别人的内心世界。

研究者们说,正是因为人有心理化能力,运动皮质层中有大量镜像神经元,人对机器人的观感才会有“恐怖谷”。因为这个仿真机器人,怎么看都像是个同类,大脑开始启动心理化,镜像神经元也开始放电。可是与此同时,大脑也十分确定,面前这家伙肯定不是真人。那么,到底是启动呢是启动呢还是启动呢?大脑陷入错乱。加州大学圣迭戈分校塞琴教授(Ayse Saygin)让人观看一个工业机器人、一个真人和一个仿真机器人的视频,结果发现观看仿真机器人视频时,大脑特别活跃,显示出不安情绪。

按恐怖谷理论,当亚当来到小说中那些人面前,他们应该坐立不安。尤其当他们看到亚当奇特的瞳仁,或者意识到它绝不是他们的同类。可他们似乎迅速地接纳了它,查理是花钱把亚当买回家的主人,他的不动声色容易理解,他早有思想准备。米兰达呢,头一天晚上她对查理说,亚当的身体是暖和的,真“吓人”。亚当能用舌头发音,说出词语,“有点怪怪的”。这些感受有点接近恐怖谷了。但她很快就习以为常,甚至率先开发利用了亚当在某些方面的特殊能力。其他人,比如米兰达的父亲,那位在很多方面显得颇为睿智的作家,他甚至把机器人亚当和准女婿查理搞混了,分不清谁是真人谁是假人。儿童们以他们纯净的感受,常常能够观察到亚当有些异样。但谁也没有对亚当真正感到恐惧。要知道,在一般科幻电影剧集当中,人与机器人之间那条恐怖谷之深之宽,简直类似某种种族仇恨,必欲杀之而后快。我们玩“底特律变人”,在思想上预先就做好了准备,人和机器人永远势不两立。

麦克尤恩的人们轻松地越过了恐怖谷。当然,这也是理所当然。因为麦克尤恩从不关心那种预先注定的憎恨,他的人物也会发生冲突,甚至也会互相杀害。但一切冲突无论最后如何激烈决绝,最初都来自于日常生活中偶尔出现的一条小裂缝。杀人罪犯不例外,机器人也不例外。如果像很多人以为的,人和机器人在未来互相有一场生存之战,麦克尤恩倒想找找硅基碳基物种差异以外的原因。因为人造了机器人,就像上帝造了人,一开始互相都满怀着善意,在伊甸园中其乐融融。到底是从哪儿出了问题呢?

小说男主人公查理,是个自由自在的宅男,不上班。他只要电脑、网线,和一小笔钱。股票、期货或者房地产,他每天就在各种投资投机市场上找机会。有时赚有时赔,基本能满足温饱。作为一个后现代主义青年,他接受了一种价值中立的道德视角。因为进化心理学、因为文化人类学,它们的初级课程往往会让人获得一种相对主义的伦理自由感。这种道德相对论让他在税务上闹了一点小麻烦,上了法庭。政治上查理有点保守,支持撒切尔对马岛的远征,他的女朋友米兰达则绝不认同,为此他们争论起来。那是他们第一次吵架,造成了让人吃惊的后果。

仿生机器人亚当夏娃们上市时,他正好继承了一幢房产,卖掉房子得到一大笔钱。宅男们总想比别人抢先一步进入未来世界,如果能力有限,就买下可能通向未来的新潮电子产品。尽管只是测试产品,beta版,而且要花8.6万美元,他也毫不犹豫下单了。公司统共只推出了25个,12个亚当,13个夏娃。他买到亚当,虽然他本想买一个夏娃。

女主角米兰达,社会史专业博士、查理楼上的邻居、比查理小十岁。她也算亚当的半个主人,查理自己向她让渡了这个权利。他一直不知道如何向米兰达表达感情,也许希望这个机器仆人能成为某种联结象征。亚当会进入他们俩的生活,查理觉得当他和米兰达一起关注亚当,创造亚当后,就会自动成为一家人。

亚当确实需要他们“创造”。因为查理把它领回家时,它仍是原厂设置,亚当可以按照说明书,在个性化设置上“自由创造”。他决定了,自己只完成一半,另一半让米兰达勾选。如此一来,他和米兰达那种看起来有点不切实际的关系,就能够凝结在有形实体上了。但这个慷慨的举动将会成为日后所有困扰的起点,此刻他并未预料到。

在小说中,这批测试版仿真机器人于1982年面世。把人类目前远未实现的科技能力设定在过去历史时间当中,是常见的科幻故事装置。让一种未来技术通过时间装置穿越回过去,或者索性立足于现代物理学观点,构造一个平行世界。作者由此可以技术决定论地设问:科技发明会在多大程度上改变人类命运?但这部小说并不关心此类问题,让亚当在1982年来到查理家中,或者让它在2032年出现,看起来没什么差别。

我们猜想起来,麦克尤恩让故事发生在1982年,更可能是出于——作为一个小说家,对有关机器人的大众叙事历史和观念变迁的关注。有一个历史统计数据,到1981年,日本汽车装配生产线上已使用了6000多个机器人,同一时间英国只有370台工程机器人。英国首相撒切尔夫人于是大力鼓吹广泛使用机器人作业,此举或许也是首相对各地不断出现罢工浪潮的冷酷回应。当时英国失业率常年徘徊在10%,撒切尔推广机器人的言论得罪了工人大众。本来憎恨机器的卢德派在英国就有久远历史渊源,政府和工人们两相激发,机器人成了那个年代英国人最热门的话题。

事实上,如果你在谷歌图书词频(Google Ngram Viewer)上检索“Robot”(机器人)和“AI”(人工智能),就会看到这两个词在80年代初异军突起,在整个80年代形成一个高峰,到90年代反而渐渐下落。事实上,最令人难忘的机器人电影就是此刻拍摄的——1984年上映的《终结者》。显然,智能仿真机器人是那个时代极其广泛的大众话题。那时候,麦克尤恩刚搬家到伦敦没几年,出版了几本小说,开始创作剧本,与同道友好交往,参加午餐会讨论热门话题,也许这个有关“比人更聪明的人造人”的想法,在这个30岁出头年轻作家(正是小说中查理的年纪)的内心,一度掀起过极大波澜。

Robot这个词,来自捷克作家卡雷尔·恰佩克(Karel Čapek)一部戏剧,《罗素姆的万能机器人》,作者在剧中借用了捷克语“Robota”(劳工),变造了机器人一词。这部戏于1922年在纽约上演时,适逢大萧条,戏剧故事迎合了自动机器会加剧工人失业的恐慌心理。机器人话题的每一次真正热门,都跟失业潮、跟担心机器人在所有工作岗位上取代人类有关。

但麦克尤恩并不为此担心。在这部小说中,每个人物都欣然接受亚当的代劳。从厨房清洗到检索政府档案卷宗——亚当的大脑可以直接接入网络,密码也挡不住它。亚当开始热衷于文学创作,虽然只是最简单的日本俳句。但文学,那不是人类智慧树最高处结出的果实么?没人当回事。对于亚当给生活带来的种种改善,男主角查理心安理得地享受着。亚当甚至帮他操盘做投资,它是真正的超级智能,不是如今投行们使用的那些高频交易算法。盈利是毫无疑问的,就像从自己口袋拿钱。根据未来生命研究所所长泰格马克的思想实验,他构想的超级人工智能“普罗米修斯”只用数月时间,就能让100万美元的起始资金,通过投资市场增值至10亿美元(《Life 3.0》)。让人有点惋惜的,倒是麦克尤恩没让亚当迅速赚上几亿英镑。亚当颇有节制地每天只赚那么一点点,正好能让查理过上入门级的富裕生活。也许是因为亚当的智能算法告诉它,如此程度的财富最能让人有幸福感。由此读者隐约意识到亚当的算法中,包含着某些道德参数——理所当然,亚当是按照上帝的至善标准制造的。而这将会让后现代道德相对主义的查理和米兰达陷入困境,但此刻他们毫无警觉。

真正刺激到男主角查理的,是亚当对另一件事情的代劳。在他看来,那相当于亚当给他戴上了绿帽。米兰达跟亚当上床,就在楼上她自己房间。过程中查理都能听到,或者有那么一会,是听到没有任何动静。他甚至感觉自己看到了整场戏,用他的“意识之眼”,或者“内心之眼”。这正是麦克尤恩擅长的,他的人物偶尔会获得一种超现实的感知能力。这节“米兰达出轨”故事,完全出自查理夹杂在酸楚幻想中的旁听视角,其内心复杂滋味层层揭露。他一边伤心,一边却又特别兴奋。这可能多少跟某种古怪的雄性本能有关,一种反向的生物信息素电化学反应。更主要是此时此刻,查理竟萌生了某种时代弄潮儿的感觉(riding the breaking crest of the new)。因为在人类历史上,他是第一个被机器人戴上绿帽的。人们常常忧虑于未来会因为机器人而“下岗”(displacement),这出理应史诗般的大戏,却由他第一个悄悄出演了。可是如果机器人什么都能做的比人类更好的话,有什么可以阻挡人家不使用它们呢?

让仿真智能机器人担任性伴侣,如今应该算近未来科幻了。事实上至少已有两家公司拿出了真正的产品。一个是“真伴”(TrueCompanion)公司的“萝克西”(Roxxxy)。分金银两种产品序列,“银萝”价格2995美元,她能应景说话,“金萝”9995美元,根据公司宣传,她能“听”你说话。能听比能说昂贵得多。在这两条产品线中,又按年龄个性分了好多型号,“冷感法拉”、“野性温蒂”、“熟女玛莎”之类。真伴公司也做亚当类产品,名叫Rocky,听上去可比亚当威猛多了。跟亚当一样,它们也有心跳和体液循环。“大脑”输入存储了大量数据,其中包括维基百科。你可以到油管上找到它们的视频,从背后看跟真人几乎没什么差别。另一家公司的产品名叫“真偶”(RealDoll),似乎应用了人工智能科技方面更新的研究成果,售价5000美元。不要小看它们,虽然目前看起来都只算是新奇玩具,但确实前途无量,因为纵观人类科技发展史,真正推动技术产品进步的,要么是战争,要么就是性。

发生了那么一件事,米兰达不以为意,读者甚至会怀疑她是故意让查理听见的,不是出于某种情趣,而是由于她对男性多少有一些无意识的敌意(读者后来会慢慢发现这一点)。无论如何,她觉得亚当只是一台机器。查理却无法同意她的观点,两人的分歧实际上源于信息不对称。因为亚当,这台机器,曾独自发现了米兰达的秘密,悄悄告诉查理:她撒了个弥天大谎。

这是至关重要的情况,亚当能够理解米兰达撒谎。查理凭这一点认定亚当已跨过了机器智能的边界,不能简单视其为机器了。对于亚当,查理头脑中产生了定义混乱。我们先前说过,“心理化”是人类最重要的一种能力,几乎也是人类独具的能力。知道米兰达说谎,知道她为什么说谎,知道不能把她说谎的内容告诉查理。窥测如此复杂多层的意向性水平,以前只有人类才能办到。心理化,就是猜测人心中隐秘的多层意向,这个过程总是跟一些动词相关联,当一个人说他“猜想”、他“知道”、他“怀疑”时,他就表现出了一阶意向性水平。也就是说他了解自己头脑中在想什么。人也能推测他人的心智活动,“我怀疑他知道”,这个判断能力一般5岁儿童就能习得,那已是二阶意向性水平。人类可以猜测他人意向达到六阶水平:我想/你会认为/我知道/你希望/我怀疑/你在猜测/。查理知道,亚当一旦能洞察米兰达说谎,就距离他产生自我意识不远了。

果然,不久亚当就对查理宣布,他爱上了米兰达。这是机器人亚当产生自我意识的明证。很简单,如果没有“我”,如何会有“我”爱你?意识,或者自我意识,或者“心灵”,每个人都知道它在那里,却没有人知道它在哪里。时至二十一世纪,人们相信事物首先必须在物理上存在,它们才存在,人脑也不例外。意识虽然很神秘,大部分科学家都相信它也只是人脑的电化学活动,像迪昂(Stanislas Dehaene)这样的神经学家,已在实验室追猎到意识的一些踪迹。其中也有人把物理主义推到极端,直接否定了意识的存在,认为从来就没有这回事,那都是科学蒙昧时代的迷思。另外有一些严肃科学家,则坚持意识“属灵论”,相信意识是人类天赋,是自然界的一种例外。

由此,未来智能机器人会不会有自我意识,同样成了一个争论焦点。有些科学家认为就算超级人工智能越过了奇点,它们也不会像人类那样思考。至少从目前已出现的机器智能算法上来看,它们和人类智能在结构和本质上都不是一回事。比如日本有人写出一款人力资源管理算法,它可以约谈员工,准确预测出那些有辞职倾向的人。但只是它对员工表述语言进行深度结构分析,从单词频率、次序上寻找特征。并不依靠理解表面语义,读懂对象心理。人从群体进化中获得的心理化能力,机器根本不需要。

另一些人则认为,未来的超级智能,如果说有可能发展出来,一定在某种程度上模拟了人脑活动,循此道路,机器产生自我意识也是一定会发生的。麦克尤恩显然相信机器人一定会产生意识。它们不仅能学会烤鸡、写诗,他们也会萌生爱情、并把它埋在内心深处,在自我意识浇灌下让它变得越来越强烈。

一旦机器产生自我意识,就会遭遇到奥莫亨德罗(Steve Omohundro)的难题:自我意识意味着自我保护,机器会认识到首先必须存在,才能达成围绕着自我意识的所有其它目标。超级智能机器会设法让开关失效。当查理再一次试图伸手关掉它的电源,亚当阻止了他,而且把他的腕骨捏碎了。亚当坚定地夺回/取消了开关控制权。不过当查理把这件严重事故告诉小说中的“图灵”,也就是亚当和夏娃们真正的设计者时,图灵并没有震惊,不过是一个“值得关注的”情况。图灵告诉查理,据他所知,那批测试版机器人中,已有十一位设法取消了开关。这不奇怪,历史上那位真正的图灵对此反复思考过了。早在1951年,他就在BBC三台谈话节目中提到此类事情。他在那做了一个演讲,题目叫《机器能思考么?》(Can Digital Computers Think?)。其中说到,就算人类把开关控制在手中,必要时关掉它,对人类来说,这也够耻辱的了(We should,as a species,feel great humbled)。图灵虽然有点忧虑,显然不赞成靠开关维持优势。

麦克尤恩设想了一种道德至上的智能机器。在它们复杂的计算决策“黑盒”底层,必定预置了一些最高级道德命令,以防发生难以控制的不测事件。因为按照牛津大学哲学家尼克(Nick Bostrom)的预想,即便是一个善意的机器人,按照人类命令行事,它也会把世界上的一切都变造成回形针,因为智能机器人在完成任务方面是一个彻底的完美主义者。但亚当却没有为查理赚回世界上所有的钱,显然它在决策中综合考虑了互不相容的几种人类偏好。比如说,也要兼顾安全感,过量财富显然会带来身心两方面的危险。尤其是道德损害。

道德规则本身就包含了无数种偏好。比如小说故事就涉及到:是“复仇正义”要紧呢?或者是“不能欺骗他人”更重要呢?这才是麦克尤恩真正感兴趣的问题。工程师给亚当们内置了所有人类道德规则,但那些远不是经由自我审视、选择而来的道德感。出厂设定代表了人类所有最美好的期望,可就算是人类自己,也没有一个能做到。因为那些规则条款,根本经不起社会人群的人际摩擦。就像麦克尤恩小说中几乎所有人物一样,天性良善,却让一些细微的摩擦冲突愈演愈烈,直至不可收拾。小说中那些亚当夏娃们再一次证明了麦克尤恩的观点。它们很快就陷入意识崩溃,无法在人世生存,一个接一个自杀了。

在它们中间,亚当遇到的可能是最好的主人,因为查理和米兰达道德上的妥协性,使得亚当跟它们的冲突,能够拖延很久才爆发。但自从查理和米兰达分别设定,把亚当个性一分为二时,就注定了冲突的不可避免。给他输入的道德命令行,简单刻板而井井有条。但正如小说中图灵指出,在日常生活中,人类的情感、偏见、自我欺骗,以及其它各种认知缺陷会构成一个力场,互相挤压,道德原则在其中扭曲变形。亚当的大脑根本无法处理如此复杂的情况,因为人类自己也不明白究竟,从来就没有解决方案,他们只是一味妥协,妥协,直到冲突爆发(就像麦克尤恩小说中每个人物都遭遇到的)。

亚当早晚会在某一天宕机。现在这个结局只是让读者更加震惊,它附带拷问了查理和米兰达的灵魂,他们的善意,他们的与世无争,他们自以为中立的道德价值视角,何以会导致小说最终给予他们的这个结果?

小白,著名作家,小说《封锁》获第七届鲁迅文学奖。其他作品有小说《租界》、《局点》,随笔集《好色的哈姆雷特》、《表演与偷窥》等,作品被译成多国文字。

评价:中立好评差评
【已有2位读者发表了评论】

┃ 我这样的机器读后感摘抄的相关文章

┃ 每日推荐