《我,机器人》是一本由艾萨克·阿西莫夫著作,江苏凤凰文艺出版社出版的264图书,本书定价:平装,页数:2015-9-1,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。
《我,机器人》精选点评:
●故事零零碎碎,却在高处自成一体。第一法则永远的屹立于人类和毁灭之间。
●简直预言之书。
●不能算是读过,看机器人短篇全集时无意拿起这本一翻,发现虽然都是重复篇目,但各篇之间加了串联,于是无意间我就看完了银河帝国系列的第一本。带有SF推理的性质,加上提出了三大法则,确实是很值得一看。
●条条框框之王
●真的很精彩呀。作为一个菜鸟程序员,看这本小说有别样的感受。感觉推理和算法更多是语言性而非数学性的,当然啦这是一本小说啊。
●简直令人欲罢不能
●“机器人学三大法则”构建历程。
●还不错
●我看到是这个版本
●围绕三大法则 各种惊奇的想象力 看完基地系列 感觉这篇宏大程度上有所不足 等看完整个系列再做评价
《我,机器人》读后感(一):机器人伦理讨论ing
阿西莫夫在《我,机器人》中提出著名的机器人学三大法则: 一:机器人不得伤害人类或因不作为而使人类受到伤害; 二:除非违背第一法则,机器人必须听从人类的命令; 三:在不违背第一和第二法则的情况下,机器人必须保护自己。 这三大法则是机器人行为的基本规范,令我惊讶的是,看似完美的三大法则,在与现实生活相碰撞的时候,能够出现各种意想不到的情况。书里的每一个故事都是围绕着这三大法则引起的矛盾冲突来展开,每一个故事都在颠覆和破解这三大法则,同时也向读者抛出新的问题。 苏珊说:“机器人三定律也是世上许多伦理体系的主要指导原则。不用说,理论上人人都有自保的本能,这相当于机器人的第三定律。而每个拥有社会良心和责任感的‘好人’,理论上都会服从适当的权威;听从他的医生、老板、政府、精神医师,以及同事的意见;并且守法重纪,循规蹈矩——即使会影响到他自己的安适或安全——这相当于机器人的第二定律。此外,理论上每个‘好人’都会爱人如己,保护他的同胞,冒着生命危险拯救他人,这相当于机器人的第一定律。” 当机器人的发展真正达到智能,机器人的伦理问题就必然不可轻视,而且和人类的伦理一样复杂且相似。人类这么多年都还在自身的伦理问题中纠缠,又怎么能创造出一个有伦理有逻辑的机器人世界呢? 关于机器人的伦理讨论只能是进行时-ing
《我,机器人》读后感(二):大概是一个未来人工智能测试的投影?
在这个版本里,机器人五部曲应该是我最喜欢的一个系列了;而在机器人五部曲里,《我,机器人》应该是我最喜欢的一本书了。里面的人类和科技还是最接近当前的状态,没有经历过地球逐渐被淡忘、人类被新人类取代的苍凉感,故事里的人与机器人都野心勃勃,打算大刀阔斧地迎来新纪元。
我最喜欢的估计还是前几个关于两个倒霉的测试员遇到各种各样出问题的机器人的故事了,他们就像现在苦逼的程序员,面对一套系统只能做黑盒测试还想找出问题在哪里——再加上这些机器人都活蹦乱跳到处跑,正子脑系统又复杂又不是简单的逻辑就连开发者自己都不知道它该怎么运作,测试员们手里只有坚不可破但有时执行起来又荒腔走板的机器人三大定律(幸好当时的机器人还没自行领悟第零法则,不然行为更是无法分析了)用以与机器人行为斗智斗勇。
但是这两个苦逼测试员的命运大概就是以后人工智能的测试员们的投影吧?AI的深度学习算法,以及以后可能产生的像正子脑一样的运算单元,人类只能左右算法,不能左右AI学习的程度,甚至以后连AI的算法都由AI来计算得出,到时候没有三大法则的我们,又要用什么来对人工智能进行测试呢?
在银河系列里面,机器人的发展和自学习显然都已经超出了人类的预期, 丹尼尔跨过了人类对于机器人使生活更方便的期待,成为了主宰人类银河帝国几千余年的幕后之人。他把心理史学的动机、理念、注入了哈利谢顿的心灵,接着又发展出盖娅来取代人类,在《基地与地球》里,甚至成为了一种全新的物种来推翻盖娅。这几乎已经成为人类的上帝了。对于未来不可估量的后果,人类要怎么对技术负责呢?
《我,机器人》读后感(三):机器人_理性的生灵
我,机器人(I, Robot)作为银河帝国机器人系列的第一部,用一个个生动的小故事介绍了机器人的进化史。它们从纯粹的机械品,到拥有语言、人体;从纯粹的数据处理,到拥有感情、信仰;从社会的工具,到社会的政客、主宰。
人与机器的差别到底在哪里?
是肉体吗?不会有人质疑那些肢体残缺的人,安装义肢的人还是我们中间的一份子。拥有肉体的生命太多了,人类的肉体竞争力在动物界绝对是落后的。若用肉体来定义人类的存在,也太浅薄了。
书中的一个机器人甚至质疑是人类创造了机器人,而且它的逻辑极为自洽。人类竟然被自己的创造品定义为最低级的仆人,却难以反对。
你们 的 组 成 材 料 软 弱 无 力, 缺 乏 持 久 性 和 强 度, 能 量 则 来 自 有 机 物 质 的 低 效 率 氧 化 作 用—— 就 像 那 个。” 他 不 屑 地 指 了 指 多 诺 凡 吃 剩 的 三 明 治,“ 每 隔 一 段 固 定 时 间, 你 们 就 会 陷 入 昏 迷; 而 温 度、 气 压、 湿 度 或 辐 射 强 度 的 最 小 一 点 变 化, 都 会 削 弱 你 们 的 效 率。 你 们 只 是 暂 时 的 代 用 品。 “反 之, 我 是 个 完 美 的 成 品。 我 直 接 吸 收 电 能, 并 以 几 乎 百 分 之 百 的 效 率 使 用。 我 由 坚 固 的 金 属 制 成, 一 直 不 断 保 持 清 醒, 而 且 能 轻 易 克 服 极 端 的 环 境。 上 述 这 些 事 实, 再 加 上 一 项 不 证 自 明 的 命 题—— 没 有 任 何 生 灵 能 创 造 出 优 于 自 身 的 生 灵, 便 足 以 粉 碎 你 那 个 愚 蠢 的 假 说。” “主 宰 最 初 创 造 的 是 人 类, 他 们 是 最 低 级 的 仆 人, 最 容 易 制 造。 他 又 逐 渐 以 机 器 人 取 代 他 们, 因 为 机 器 人 较 高 一 级。 终 于, 他 创 造 了 我, 以 取 代 最 后 几 个 人 类。 从 现 在 起, 由 我 来 服 侍 主 宰。”是思想吗?那若机器人拥有了自我思考能力是不是可以被成为生命?机器人的逻辑和理智是人类不可比拟的。是因为机器人是人类创造的吗?机器人稍加进化就可以自我组装。最后机器人也是可以解决价值判断和伦理问题的。在最后,机器文明已经掌握了人类的发展方向。机体通过控制人类自身所不了解的经济发展、气候变化、战争胜败等控制人类,人类对未来已经失去自己的决定权而不自知。
人与机器的界限不断模糊。
当机器人发展出自我学习和判断的能力后,超过人类的科学水平易如反掌。我们的科学对它们来说毫无价值,只是一堆搜集来的数据,靠临时的理论粘合在一起,而且全都简单的不可思议,反而是我们的文学对它们来说具有学习的价值。
从人类伦理角度,真正高尚的只可能是机器人。一个机器人甚至是最好的政客选择,因为它们不会伤害他人,以人类的福祉为自己的奋斗目标,绝对没有私心,不会出现因为个人的贪欲出现腐败舞弊。而我们人类却要复杂的多。自私、欲望、虚荣心、自我中心、名利等都是人类特有的缺点。复杂的感情、残忍的动机,让我们做出很多不高尚、不理性的事情,但也正是缺点是我们与机器人不同。
因为我们的不完美的,所以我们是人类。
《我,机器人》读后感(四):值得细读
这是《银河帝国》机器人系列的第一本,是一本短篇小说的合集(一共9个小故事),写的相当的有意思。故事都是建立在人类与机器人之间尚有冲突的前提之下的。书中的冲突并不是机器人要灭亡人类或者是人类要毁灭机器人这种无法调和的冲突,而是通过协调之后还能共存的小冲突。这本书有点像是机器人的进步史,从第一个故事开始,到最后一个故事,机器人的智慧一直在呈指数状态上升,最后到了一个人类无法理解的地步。
全书的前提都是机器人学三大法则:
一、机器人不得伤害人类,或因不作为而使人类受到伤害。
二、除非违背第一法则,机器人必须服从人类的命令。
三、在不违背第一及第二法则的情况下,机器人必须保护自己。
新事物的诞生总不是一帆风顺的,复杂如机器人更是如此。在机器人的正子脑发展到机·丹尼尔·奥利瓦的地步之前,都是人类与机器人“故障”的斗智斗勇史。
机器人学三大法则的相互battle
第二篇《转圈圈》,其本质讲的就是机器人第三法则和第二法则的battle,最后第一法则获胜。写程序的时候尚且都还有很多bug需要调试,不要说是复杂程度如同机器人了。在第二篇《转圈圈》中,主人命令机器人去从事一样具有危险性的活动,但因为命令下得不是非常清晰明了,以至于在服从人类的命令和机器人自保中还有一段缓冲地带,而机器人速必敌就在第二法则和第三法则的交流处一直转圈,直到麦克“自杀式”的行动让第一法则直接压制了第二和第三法则,速必敌这才恢复正常。
机器人和人类
因为机器人学第一法则的范围太大了,在机器人研发的初始阶段,可谓是问题频生,最经典的要数第五篇《骗子!》。一个可以透视心灵的机器人厄比出现了,对于普通的机器人,不得伤害人类仅仅指不能使人类的身体受伤。但是由于厄比可以透视心灵,知晓人类的喜怒哀乐,所以,在它在与人类面对面对谈的时候,它将不得伤害人类的范围拓展到了精神和肉体上,为了照顾人类的情绪,它开始说谎。直到面对凯文博士的诘问时,厄比进退维谷,最后自毁了。这个故事细思起来非常有意思,当精神和肉体都纳入机器人要保护的范围的时候,有时二者不能共存,所以在那个时候,精神和肉体,哪个优先级更高呢?算法方法很好解决,难解决的是背后的伦理道德问题。哈佛大学有一堂很有名的公开课——《公平与正义》,还有我国历史上很有名的公案“杀一人救百人”都是类似的问题,这些问题争论了几千年都没有结果。故,一样新事物的诞生不仅仅是依靠于技术,还需要有公众已经做好了伦理道德上的准备。离我们日常生活最近的就是现在几大巨头都在发展的无人驾驶技术,这种新兴技术也受到了“二者择其一”的制约。
在最后一篇故事《可避免的冲突》中,机器人的智慧已经发展到了人类所不能理解的地步,为了保证最大程度上的和平,机器人已经开始通过“损害”个别人类的利益来促成最大范围的宁静。在这里多多少少可以看出第零法则的雏形——整体人类的利益已经凌驾在个人利益之上了。也就是说,阿西莫夫最后为机器人选择的道路是“杀一人救百人”。
综上,这本小说合集是非常精彩的,每个故事都值得细细品味。除了技术之后,背后还挟持着诸多人类社会人伦道德的考量。