《AI联结的社会》是一本由[日]福田雅树 / 林秀弥 / 成原慧著作,社会科学文献出版社出版的精装图书,本书定价:79.00,页数:400,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。
《AI联结的社会》读后感(一):TA或许比想象中更深的影响每一个人
看书中第五、六部分时,感觉就是“恐惧”,那种将自身代入其中而感到的“恐惧”(对安全感要求比较高的我)。
随笔者描述而绘制这些画面:衍生型电车难题和自动驾驶汽车的情景设定中,真的存在最“优”方案吗?作为研究者、企业、受害人、加害“人”……会分别得出什么样的答案?当如透明人一般,被收集个人相关信息后,可能形成的新的“歧视”(或许怎么被歧视的都不知道),作为个人,能怎么办?
书中没有给出明确的答案。如果有,同样的情景设定,美国、欧盟、日本……会有相同的答案吗?2020年的今天和2030年的今天,会是一样的答案吗?
这本书并没有关于AI技术性“难懂”的知识讨论,更多的,是给每个人以思考:在AI已经成为趋势的今天,即使作为普通的我们,都应该了解并参与其中。无论我们是否愿意,只要不彻底切断与社会的联系,它都将影响我们的生活。
《AI联结的社会》读后感(二):永远的Beta版
AI,即人工智能,自从出现到现在已经超过半个多世纪的时间了,也经历了两次高速发展和“冬歇期”的轮回。如今,正处在第三轮发展的高潮期。随着人类的进步和近些年科技的高速发展,人工智能作为一个前沿领域,给我们带来了前所未有的冲击和震撼,特别是2016年,谷歌旗下子公司DeepMind开发的AlphaGo软件,毫无悬念的碾压了人类的顶级棋手李世石,彻底颠覆了我这个“资深棋迷”的世界观。我们不得不接受被如此强大的一个对手超越,并将长期相伴的事实。
2017年,邻邦日本的20多位各领域的学者,以“AI网络化”为主线,分若干主题进行深入研究,研讨,汇成了今天展现在我们面前的这本《AI联结的社会》。
如今的人工智能产品,已经具有了自我学习的本领。如此强大的AI,借助从网络上获得的数据和信息,其自身的能力和所能达到的成就,将超乎人类的想象。而今天互联网的虚拟世界已经超越了人类所熟知的疆域和国界的壁垒,形成了所谓的“地球村”。如何在这个虚拟的世界里,建立和形成一套超越主权国家概念,全人类共同遵守的伦理和法律体系,是摆在全人类面前的共同课题,也是本书的主题。
就在学者们研究讨论的同时,AI已经迅速的深入了与我们日常生活息息相关的多个领域,如医疗,教育,生产,交通管理,养老等领域。而反观人类,就在面临突如其来,百年一遇的重大灾难的时候,尚不能团结一心,共同对抗,而是各自为政,私利至上,如何能想象在发展的问题上能够达成一致。
人类开发和研究AI的初始目的一定是提高我们的生活水平,创造更美好的生存环境和条件。AI终究是我们创造出来的一种辅助工具而已,不论它有多高级。在这个发展的过程中,自然会遇到各种困难和问题。接下来,摆在人类面前的任务就是如何规范其发展之路,如何规范我们接触时间并不长,历史并没有那么悠久的虚拟的网络世界,使其更好地为我们所用。世界各国各民族,都有其独特的文化和传统,如何传承,又如何融合,是人类前进道路上的大问题。而包括AI在内的各种新技术,新事物,在不同文化土壤上也毕竟结出各异的花果。我们应该抱着欣赏和包容的态度去接受,借他人之长,补自己之不足。
至于伦理和法律的框架,我以为,这将是书中所提的“永远的Beta版”,随着人类文明的前进而不断完善,推陈出新的。
《AI联结的社会》读后感(三):天使还是恶魔,使用AI带来的便利是在和魔鬼做交易吗?
AI,会给人们带来什么?我们通常看到的是有关无人汽车的报道,是各种智能设备给人类带来的便利,但是同时,类似《终结者》这样的电影,又常常描绘一幅人类被机器统治的图景。在本书中,讨论了AI时代出现的法律和伦理问题。 本书的写法很特别,在几个主题中,使用座谈会的形式,记录与会者的发言,文字很顺口,很易读。但是,由于该主题并没有一个单一明确的答案,所以给出的更多是思考,而不是结论。 很早以前,读到过有关斯蒂芬霍金的关于人工智能的报道,霍金认为,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。其实结合现实中深蓝打败卡斯帕罗夫,alpha go打败李世石和柯洁,似乎就已经证明了,这并不是危言耸听。 书中举出的无人驾驶的例子,充分说明了AI可能引发的问题。无人驾驶遇到电车难题,会怎么处理呢,或者从实质上来讲,应不应该让AI来决定牺牲谁,保全谁?但是如果不让AI自行判断,而在算法层面确定了牺牲谁,那在伦理和法律层面,是不是意味着疯子,弱势群体就不应该上街。同时,由于AI技术不可避免的黑箱化,是否会出现“不可被追究的责任”。书中还有一个关于AI应用在医疗领域的例子同样引人深思,在人工智能学习了各种医疗场景以后,如果医生不按照AI的建议,结果医疗效果不如预期,那么对医生来讲,算不算故意引起医疗事故。但是如果医生完全按照AI的建议来治疗,那医生出现了事故,可以完全把责任推给设备的供应商或者技术的提供者么? 在现实生活中,远不是上述单一场景的存在,而是我们已经生活在了一个AI通过网络联接嵌套在一起的场景中。我们在使用支付宝非现金支付的过程中,被收集的信息远大于支付本身所需,个人隐私的保护也是一个严峻的问题,很多时候,我们觉得便利的同时,其实在法律环境缺失的情况下已经被侵犯了隐私。所有所谓推送,都是基于对我们日常行为的收集,分析,并通过人物侧写,来实现精准推送,所有人都被记录,被分析,虽然理论上我们通过用户协议授权相关信息使用,但是在现代社会中,我们能拒绝使用这些“便利”么,或许以前可以,但是随着健康码的推出,实质上,微信,支付宝已经深度入侵我们的生活并迫使我们同意分享我们的信息。 那么接下来,如果规范这些信息的使用,这就是立法者所需要考虑的问题,指望一个商业机构自律是不现实的,本书中一再提到的也是需要立法所关注的问题,并通过美国和欧洲的例子,希望日本的立法者关注相关的问题。 本书不是答案,也许我们读完以后,做不了任何有意义的事情,思考完了也改变不了任何事情,但是,有思考,总是一个好的开始。
《AI联结的社会》读后感(四):天使还是恶魔,使用AI带来的便利是在魔鬼做交易吗?
AI,会给人们带来什么?我们通常看到的是有关无人汽车的报道,是各种智能设备给人类带来的便利,但是同时,类似《终结者》这样的电影,又常常描绘一幅人类被机器统治的图景。在本书中,讨论了AI时代出现的法律和伦理问题。
本书的写法很特别,在几个主题中,使用座谈会的形式,记录与会者的发言,文字很顺口,很易读。但是,由于该主题并没有一个单一明确的答案,所以给出的更多是思考,而不是结论。
很早以前,读到过有关斯蒂芬霍金的关于人工智能的报道,霍金认为,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。其实结合现实中深蓝打败卡斯帕罗夫,alpha go打败李世石和柯洁,似乎就已经证明了,这并不是危言耸听。
书中举出的无人驾驶的例子,充分说明了AI可能引发的问题。无人驾驶遇到电车难题,会怎么处理呢,或者从实质上来讲,应不应该让AI来决定牺牲谁,保全谁?但是如果不让AI自行判断,而在算法层面确定了牺牲谁,那在伦理和法律层面,是不是意味着疯子,弱势群体就不应该上街。同时,由于AI技术不可避免的黑箱化,是否会出现“不可被追究的责任”。书中还有一个关于AI应用在医疗领域的例子同样引人深思,在人工智能学习了各种医疗场景以后,如果医生不按照AI的建议,结果医疗效果不如预期,那么对医生来讲,算不算故意引起医疗事故。但是如果医生完全按照AI的建议来治疗,那医生出现了事故,可以完全把责任推给设备的供应商或者技术的提供者么?
在现实生活中,远不是上述单一场景的存在,而是我们已经生活在了一个AI通过网络联接嵌套在一起的场景中。我们在使用支付宝非现金支付的过程中,被收集的信息远大于支付本身所需,个人隐私的保护也是一个严峻的问题,很多时候,我们觉得便利的同时,其实在法律环境缺失的情况下已经被侵犯了隐私。所有所谓推送,都是基于对我们日常行为的收集,分析,并通过人物侧写,来实现精准推送,所有人都被记录,被分析,虽然理论上我们通过用户协议授权相关信息使用,但是在现代社会中,我们能拒绝使用这些“便利”么,或许以前可以,但是随着健康码的推出,实质上,微信,支付宝已经深度入侵我们的生活并迫使我们同意分享我们的信息。
那么接下来,如果规范这些信息的使用,这就是立法者所需要考虑的问题,指望一个商业机构自律是不现实的,本书中一再提到的也是需要立法所关注的问题,并通过美国和欧洲的例子,希望日本的立法者关注相关的问题。
本书不是答案,也许我们读完以后,做不了任何有意义的事情,思考完了也改变不了任何事情,但是,有思考,总是一个好的开始。
《AI联结的社会》读后感(五):爱或不爱 — AI就在你身边
《AI联结的社会 — 人工智能网络化时代的伦理与法律》是2017年出版的书。内容汇集了日本各界的精英人士对近来流行的AI进行了阐述,包括了多位来自信息学,法学,社会学等方面专家学者的座谈会内容,以及他们各自相关的论文专著。
本书不同于其他AI方面书籍,如我在读的《生命3.0》之类思想深刻的专著,它更浅显些,看的未来发展也就3—5年后的远景。讲述了AI引入生活后对于现行法律,隐私,法律责任判断,以及对工作乃至生育率方面可能对日本社会的冲击和改变,相应的法律可能需要进行修改。本书大部分都是阐述问题和可能性,没有结论性的收尾。说明AI这个新兴事物已经深刻影响到日常的生活,需要对将来3—5年的社会进行考量和法律方面的扩展。已经不像电影《终结者》系列,《2001太空漫游》,《少数者报告》等只能出现在大屏幕,而已经实实在在出现在生活中。如多篇文章讨论了AI自动驾驶场景下,万一出现生命损失,法律方面的责任判断。
本书有很多概念性的原则说明,不单单是来自日本,更多是欧美,如美国IEEE协会对AI/AS定义的三个原则(P86)。也有AI开发原则(P91),美国判例:斯泰特•V•卢米斯事件中,黑人被告对量刑使用算法是违宪这样的实际案例(P316)。看来日本在AI方面还是习惯性的向欧美看齐。
在我看来,本书可以内容可以拓展一下视野,但说不上是惊世骇俗或是思想隽永的书。这和日本的少子化和老龄化有很大关系。毕竟日本当前考虑的社会问题都是汇集在如何应对老年人的生活料理,AI自动驾驶改善人工司机短缺等方面,这样就局限了AI发展的前瞻性。毕竟像AI这样的产业在年轻的社会会有更大的需要紧迫性和多样性。日本能否在将来中日韩自贸区建立之后改变日本社会固化的问题,我在《洞察陆地文明一》中有所阐述。在《洞察二 — 中日之间是否还有一战?》中我细致分析了二战中日本的精神状态,当前日本社会遇到的问题以及是否能在将来东亚的秩序中和邻居搞好关系,并共同发展。
对于2020年才翻译出版这本2017年日本汇编好的书籍也需要吐槽一下,毕竟在AI这个尖端学科而且影响深远的领域,每一年都有新的进步和新的问题需要思考。3年,很多事情都已经发生改变。当然能翻译出版就算是一个好事。AI这个方面我也在自己写的文章《洞察陆地文明三 — 数据分析师眼中的朝鲜战争》中有所阐述。本书也能给我一些好的思路参考。
勘误:P137 《极乐空间》(Elgsium) - 应为Elysium。
《AI联结的社会》读后感(六):从社会性角度探讨人工智能
《AI联结的社会》读后感(七):对于AI社会,预则立,不预则废
这部《AI联结的社会》在序言中说是一部论文集,其实我觉得前半部更像是会议记录,后半部才像论文,会议是围绕AI方面与其他方面,例如法律,例如养老安置等等各方面的专业人士之间的对话展开,这也体现出AI技术其实和我们人类的方方面面都是息息相关的,有趣的一点是,因为与会人员并不是同一专业领域的人士,所以各位表达自己观点的时候都更加深入浅出,更直白更具体,意在明白,甚至也用了一些贴近生活的佐证,是全无论文的严肃笔风,也更无佶屈聱牙之感。 顺带一提,内封很是可爱了。 其实Artificial Intelligence人工智能,是个让我这个文科生望而生畏的话题,倒也不是杞人忧天地畏惧,比如畏惧人工智能会反客为主抹S人类,再比如机器人被输入攻击指令化身恶魔,这都太天马行空了,并不是说完全没有可能,只是现阶段仍然完全没可能,毕竟连机器人双腿直立行走这项技术都才刚刚起步,而且还没有多大进展。 真正让我生畏的是,AI太难了,单就技术层面而言,我连它的算法公式我都看不懂。前些时间有在帮同学整理考试复习资料,很不巧地,他要考AI这门课,对于一个连高数都没学过的我来说,面对AI技术我只能尴尬收场。但这次尴尬之后,我更加确信AI技术并不是所谓可怕的末日决裁者,他只是在运算,在一堆数据里,算出最后结果那一串数字。 AI技术尚处于发展起步的前期阶段,现在就担心他会颠覆整个人类,是根本没有必要,就像一个婴儿刚出就说人家小孩子是个不肖子,是多么的可笑,要是以后培养成善良勤劳的栋梁了呢,利与弊,归根结底还是在发展在维护在使用的人类本身上才对。就比如,我另一位同学刚刚参与体验了无人驾驶汽车的实验,我就觉得这项人工智能就是大大的有利的,因为我就还不会开车,这项技术很可能会对我有大用处,那就希望研究能继续下去,直至我真的能够用上。 不过尽管AI对我们有利,也不是说全然没有弊端,正所谓有人的地方就有矛盾,AI技术已经,并且持续深入到人们生活之中,就比如来电防火墙,就是一种简单的AI,我们虽然享受着AI带来的便利,但也不得不重新切实地考虑AI带来的风险: 假如我们乘坐着无人驾驶汽车,与别人发生碰撞,那么这个责任要如何评判;假如AI自动编程系统,就比如是人工智能歌姬初音未来,她创作的歌曲跟其他作曲人的重合了相似了,这个知识产权问题怎么解决;假如我们都作为数据被录入到AI系统,那么我们在发生纠纷冲突的时候,AI会不会优先保护数据更好的一方,会不会因为创造者本人的歧视观念而导致AI系统对个别人等的延续歧视;会不会刑满改造成功的人员,在AI人物侧写中始终保留特别提醒的红色标志,致使改造过后的人不被接纳而重新选择一不做二不休;假如AI在跨越国际的领域,会不会由于不对等或不对接而导致AI差异化和漏洞;假如我们都成为了数据,那我们还拥有个人的隐私吗,我们的隐私又还算私人的秘密吗? 凡事预则立,不预则废。这部书就启发式地回答了这些问题,有提议从编码源头就透明创造目的,建立硬性约束法律,建立软性约束法律,确立以人为中心的AI核心要求,加快涉及AI的相关刑法民法的制定等等一系列设想,提出的,绝对不是全部的,因为AI技术在发展,我们人类社会也在发展,只有我们人类妥善地使用AI,才可能利用这第四次科技革命完善我们人类自己,而AI也需要贴合我们人类社会,才能健康稳定地进步,AI与人类,愈发密不可分。
《AI联结的社会》读后感(八):比想象中枯燥,也比想象中有趣
想过这本书比较专业,但是对我来说或许过于专业,形式上,本书有部分是座谈会的对话记录、有部分是论文,内容上本书主要在“AI网络化”背景上展望了其发展方向及意义,论述了其中隐藏的风险,并讨论了治理AI网络化的必要性,同时提出在进行治理时,务必要立足于相关的法律与政策。
作为一个行业门外汉,我本人对于AI的认识可能更多地来自于文学及影视作品,所以落到实质问题上时,一开始是有些摸不着头脑的,但是本书很有趣的部分在于后述内容在论述之前总会有一个情景设定,举了很多非常具体的事例,很有趣,勾起了人的好奇心,也让阅读显得不枯燥。最令我感兴趣的一个情景设定要数汤浅垦道教授提出的《AI网络与政治参与、政策制定》话题里的事例,他这样描述:
20X年X月X日,A市市长选举的投票日,前不久刚刚退休的大学教投Y,乘坐自动驾驶汽车,前往投票所。20X年修订了《公职选举法》,公民可以使用互联网进行投票,但是这次Y刚好要出门买东西,因此顺路去了投票所但是,即便走到了投票所的投票台上,也并没有什么候选人让Y想要投票。在20世纪,这个国家对政治的不信任和对政治家的不信任变得极为显著这种不信任到现在也没有得到解决。反倒是AI经常能够做出妥当的判断,有很多人已经不再信任人类的言行和判断。Y也是其中之一,最近在做什么决定的时候,他都会依赖智能手机中的自我决定辅助软件,由软件进行判断。这个软件很好用,可以让A服务器通过一个人日常的言行举止、履历等,对这个人的嗜好进行分析,并且做出符合这个人偏好的决定。通过Y平常闻读的新闻网站、网页、在SNS上的官行、在各处写的专栏,以及过去写的论文等,获取Y的政治信仰,并且帮他做出政治上的判断。 Y从上衣的里兜中掏出了A笔,这支A笔连入了自我决定辅助软件,将它放在了选票上。A笔将自我决定辅助软件所选出的候选人的名字写了下来。写出来的名字让Y感到意外,那是一个完全没有名气的新候选人的名字。但是,Y觉得AI判断的结果应该是妥当的,所以就直接把选票塞进了投票箱。 新候选人在市长选举中获得了压倒性的胜利,但后来发现,是自我决定辅助软件所连入的服务器受到了网络攻击,程序被改写,对思想信条、思考方法、嗜好等都做出了有偏差的判新。因此,包合那些没有使用AI笔,但是事先使用了自我决定辅助软件来决定给哪位候选人投票的选民在内,有相当多的选民的判断出现了偏差,本来应该写下其他候选人,最后却写下了这位新候选人的名字。也有传言说,是想让这位新候选人当选的利益集团,偷偷地开发了这个恶意软件。一部分选民向法院提出了上诉,要求判选举无效。 第二年,《公职选举法》再次修订,禁止将AI笔带入投果所内,如果使用投票所配备的纸笔以外的工具写下的选票将会被认为无效。Y听到这个新闻之后,认为这是现代版的“澳大利亚式选举”( Australian ballot)。这是一个非常有意思的话题,汤浅教授从AI与政治领域的匹配度、议会制民主主义的发展、 AI与“公民”再生的催动关系、AI提供辅助的可能性及对“数据驱动”的期待,同时讨论了国际化与技术性问题的担忧——如果AI是由外国技术开发的,或者由外国企业提供该服务的话,那么在本国的政治相关领域使用该AI是否妥当?当然,最后教授也对在政治领域与AI共生进行了展望,同时教授提醒我们注意:如果AI进入了政治领域,那么只能是通过自然人理性判断后达成的。也就是说,这有可能是政治意义上单纯来源于自然人理性的最后一个决定。
最后想说,本书的内容就像本书的封面一样,外表看起来一本正经,其实内里藏着非常有趣有意思的事情,在AI从虚构类作品逐渐渗透进我们现实生活的今天,如何作为理性自然人来与AI共生,恐怕是每个不想丧失自我的人都需要仔细考虑的问题吧。
放一张可爱的内封来收尾《AI联结的社会》读后感(九):AI时代的新歧视
本书提出了一个很值得深思的概念:数字污名。
比起人工智能统治人类这种科幻设想,大数据下公民隐私与尊重个人原则面临极大风险是摆在眼前的现实问题。书中使用了所谓“情景设定”,假设了一个故事来具体说明(P309-310)。这个主人公在自身不知情的情况下被打上无数负面tag,最终逐渐被社会排斥的故事,大约是因为作者同出一国,很容易让人想起几年前的《心理测量者》。动画里因为“色相浑浊”被击毙的犯人,和这里因为“数字污名”最终导致“社会性死亡”的主人公,其悲剧的根源都指向同一个问题:个人隐私的边界在何处?
心理测量者 (2012)9.02012 / 日本 / 动作 犯罪 动画 / 本广克行 盐谷直义 川崎逸朗 滨名孝行 石黑恭平 吉泽俊一 河野利幸 铃木薰 西本由纪夫 平田丰 酒井和男 左藤洋二 野亦则行 江岛泰男 永居慎平 远藤广隆 / 关智一 花泽香菜在各种算法、推送已经颇为成熟的现今,个人的喜好和倾向已经完全不能说是隐秘了。从前线上线下两张脸的时代,大家都在担心网络的不透明,AI在网络上的大规模应用很可能让这种担心来个180度的大转弯——人人无所遁形,网络对面不仅知道你是人是狗,通过外卖软件和智能喂食机,连你和你家狗今早各吃了什么都一清二楚。当下这种“无孔不入”还仅仅停留在商业服务领域,可是正如书中所设想的(《AI与“尊重个人”》,作者山本龙彦),倘若有一天用这种系统来决定一个人的人生,将个体标签化、数据化,那么我们将面临的就不再是“个性化推送”,而是某种“个性化歧视”了。
霍桑(Nathaniel Hawthorne)的小说《红字》(The Scarlet Letter)中,罪人的衣服上被缝上红字,一生都要受他人的白眼。现代的“红字”铭刻于数字文件中,虽然他人是看不见的,但它将操控着当事人的整个人生。每个人都是个性丰富的个体,这种内在的复杂性是不能简单地被一些“数字标签”所代表的,因为那意味着从某种程度上讲拥有无限发展变化可能的人类被强制化为了冰冷的、不存在意外和偶然的数据。比起“自动驾驶汽车撞了人谁负责”“看病能不能由人工智能诊断”这类目前看来还略带科幻意味的问题,“被贴标签”“被强制分类”更直接也更现实,更应及早警醒。何况,汽车撞人和AI看病还能找到在原本社会规则中对位的责任者——司机和医生,可大数据下滥用人物侧写导致歧视,原本又该找谁问责呢?
在本书的前几章里,讨论AI网络化存在何种风险时,就提出了“黑箱化”问题。AI一旦进入深度学习,连程序员也不能了解其详细的学习过程,AI为何会得出某个结论变成了不可逆推的单向操作。这种单向过程和侧写系统结合之后,将出现一种荒诞到可怕的情况——“系统说不行就是不行,没有为什么”。
感受到了吗?熟悉的主观恶意感扑面而来。人的“自我意志”或者说“主观能动性”被剥夺,相反AI却从结果上获得了这种能力。这不应该是人类社会乐于接受的未来。
换一个角度,无孔不入的侧写系统同样是对人“主观性”的剥夺。掩饰自我,以较为圆融的姿态融入社会与其他人相处,这种“社会性”本就是人的重要组成部分。AI操控下的人物测写系统很可能会剥夺这种“掩饰”的余地,就如同书中所说:
以企业招聘为例,只要应聘者会在面试里有意识地做出表演性的言行,那么企业就有可能以 AI 录音机记录下其声音的变化,AI 摄像机记录下其视线的动向或者无意识的表情变化等,并以此为基础进行评价。那么社会中表演型的——“人格”型的——行为将无效化(蓄意性空间的失效),并且会妨碍到自主的、有主体性的人生(基于自我决定的人生)。在“情景设定”的那种环境下,人的隐私已彻底消失无踪,AI is watching you。如果继续探讨下去,很可能我们会从隐私边界的崩溃中预判到社会秩序的崩溃。
隐私始终应当存在,哪怕在AI时代被大规模压缩边界,其作为人类重要自我意识与个体权利的存在意义不能被抹消。
以提高预测精度为名义的 AI 会永远对个人的“过去”进行记忆、并将其用作对该个人进行评价的基础,那将会损害“不被妨碍改过自新的权利”,换句话说,将会损害“对人生进行再构建的自由(从头再来的自由)”。即便努力想要“重启”人生,但镌刻在数据中的污名却会影响“重启”。本书标题指向“伦理与法律”,因此除了“数字污名”,不出意外地也讨论了“电车难题”等经典思想实验,更是不出意外地没有得出什么立场鲜明的结论。不过,书中指出了一个很有意思的点:在AI时代,因为深度学习的存在,人工智能自身就有了扳道岔的决定权,但人工智能在目前的法律框架下是无法为此负责的——所谓“责任的空白”(《AI 网络时代的制造物责任法》,作者平野晋)。
书中的观点是,如果不能避免由人工智能做决定的情况出现,那么至少要在这种情形到来之前确定好谁才是责任者,是允许AI人格化,还是将责任推给程序设计者,抑或设计某种紧急时刻的人工接管系统,在关键时分依旧由反应显然不如AI快速的人类来做决定?
“全新的、前所未有的责任主体AI”,这就是本书想讨论的根本内容。日本的学者们敏锐地注意到了明确这一主体的必要性,不仅在现有的伦理与法律框架内迈出思考的步伐,甚至还在部分领域直接指出:如想与AI深度共存共生,必须要尽快修改法律。
书中提出的风险问题很多,大部分都是近三五年就可能实际面临的,读下来确实觉得眼下人类对AI的态度是不是过于没有戒心了。书中没有给出什么解决方案,老实说这种问题也不是靠一国学者开个讨论会就能解决,这是全世界面临的共同未来,终究要在现实中共同实践。能够提前警醒到这一问题,指出可能存在的风险,已经十分宝贵了。
虽然这本书讨论、引用的法律与各类标准都是日本或欧美的,不过“AI在社会中的实用”本质上是个不分国籍的全球性问题,全世界在这方面制定法律的时候思路也应该趋向一致,他山之石仍颇有可取之处。
《AI联结的社会》读后感(十):AI对这个社会带来了法律难题
这篇书评有关键情节透露
感谢社会科学文献出版社提供的超前试读机会
大家经常讨论的话题往往是会不会失去控制,会不会变成“终结者”,这些“吸引眼球的风险”更容易被大家讨论,但实际上更加可怕的,是在我们没有意识到的情况下,信息技术已经进入我们的生活之中。本书是日本多位学者的座谈会记录、论文合集。在诸多我们看到的中美的AI相关讨论中,更多是火星与愿景(譬如马云 vs 马斯克的对话),类似本书一样,基本都从一个虚拟事件来衍生讨论的,确实不多。这类“思想实验”方法的普及使用,也许正反映出日本学者与民族文化中的务实精神。
本书的前半部分,主要是讨论AI研发过程的问题,其中,最核心的部分又是AI所需要的数据,引发的数据垄断与数据收集时隐私权的问题。
数据是AI的血液。在当前优质深度学习框架普遍开源的情况下,相关数据的质量与数量往往直接决定了AI在场景中应用的效果。在国内,诸多AI厂商,特别是平台级的科技公司,往往也会将自身具备海量数据作为竞争优势点。
但在本书中,作者提出在当前数据资产定义不清晰,不存在一般的数据交易市场的情况下,利用数据构建竞争优势,有破坏市场竞争的嫌疑。作者提出,可参考公益事业中“核心设施”的原则,定义部分数据为核心设施,要求可以无差异获取,从而避免市场垄断的可能。在07年的欧洲微软判例中,已有类似案例。在国内顶尖科技公司产品普遍全民化使用的今天,部分数据(例如某些关系链、某些交易数据)被政府定义为核心设施,并非不可能。
隐私权方面,AI对个人隐私的掌握,可能是C端AI产品的一个重大潜在软肋。国内普遍不注重隐私权,但对于家庭内信息的获取仍可构成公众普遍接受的敏感问题。国内诸多AI大厂都开拓了很多C端智能家居产品,不少还是以产业链方式布局。一旦此类具备声音感知(如音箱)、具备视频感知(如摄像头)的可联网智能化产品,出现大规模的数据泄露或恶意操纵,则可能导致巨大的社会负面效应。
本书对此的主要观点,是强调预防性的隐私设计(PbD),即“一个人不必为保护自己的隐私做任何事——因为在初始设定里已经包含了隐私保护”。个人虽然没有实际做过C端的智能产品,但我估计按照国内的情况,在AI产品的各设计环节,恐怕都没有太考虑隐私问题。为了行业的健康发展,也许确实应当学习欧美在这方面的一些做法,例如植入强制控制的预防性底层开关、上云数据中抹去可定位到个人的信息,甚至在技术方面继续探索“代理人”的数据管理方案,在流程方面将产品经过独立隐私委员会的评估等等。
数据与隐私只是AI开发中两类最直接的问题。本书中介绍,日本政府在参考了欧美讨论的基础上,制作了一份《面向国际讨论的AI开发指南》,其中提出了多项开发原则,包括透明性、可控性等。作为AI技术开发与应用大国,我们也应当积极参与到此类国际讨论中,以符合产业地位的身份去定义未来的AI行业规则。
本书的后半段,主要是讨论AI对人类社会影响的问题。现在的AI可以创作,可以开车,可以辅助政治决策,那Ta本身有扮演了什么角色呢?
艺术上,当前AI的创作已经覆盖了我们的生活——估计很多人都知道甚至看过小冰的诗集,听过小冰的单曲。目前,AI公司在AI创作方面商业化的方案,主要还是采用销售辅助创作工具给媒体等机构的模式。作者认为,在这种商业模式下,预计还可以不用讨论这一问题。此外,在联合国教科文组织在1993年的著作权审议会上,也认定完全自动生成的内容,不能成为创作,也不受著作权保护。
其实,本人觉得,也许因为需要保留人类最后的骄傲,政府会在很长时间内会拒绝承认AI的著作权,从而直接否定掉这一问题。
书中列举了已经非常现实的例子来讨论刑法问题:L4以上级别的自动驾驶汽车,因为自身的紧急避险行为导致人员伤亡时,应当由谁来负担刑责?在首先排除如果让AI负担刑责,从而陷入AI人格定义这种伦理问题之后,问题集中到讨论设计者的刑责问题。在此,作者提出了“可以允许的危险”这一概念。在AI产品的设计中,考虑将事故发生的可能性降低到最低、将损害减少到最小的逻辑,可能将会是避免设计者负担侵权刑责的方式。从AI产品的设计的角度来看,考虑鲁棒性与兜底策略,应当作为设计的基本原则存在。
AI与政治的关系是一个非常有意思的话题。书中假想了一个场景,由于可以自主收集数据提供推荐建议的AI笔被攻破,从而导致选举争议。政治参与被视为是人理性的至高表现。在智能化越来越普及的今天与明天,作者估计,政治可能是自然人理性的最后阵地。
不过,AI已经在通过社交媒介的广告等各类信息触达方式,在影响欧美诸国的政治活动了(比如16年美国大选的“俄国门”)。在这个问题上,考虑到广告普遍的效果付费商业模式,AI影响下的政治选举,也许会往更为极化的方向发展(你不喜欢的候选人,还会去点击他的广告?)……这会不会是压垮选票可靠性的又一根稻草?
书中《人格与责任:来自不属于人者的诘问》一文,是书中最为从理论层面讨论AI法律问题的文章。从文中可以领会到,AI深入人类生活,之所以会对法律体系带来巨大的冲击,正因为AI冲击了“意识——行为——责任”这一近代法中过失责任主义这一基础。因为AI具备了作出决策,指挥行动的能力,因此就有必要讨论AI是否应当负担责任。
但是,从当前的法律体系出发,如果将AI作为生产商创立的法人而承担责任,则会面临无法执行的问题;如果让AI生产商承担无过错责任,则可能没有厂商愿意进行投资。但无论如何决策,本人非常认可作者的观点,应先将AI看作法律上构成的人,将其纳入社会运转实践,可能才能最终分析清晰责任问题。当前美国的实践中,也已经有将机器人纳入法人保险的案例。
法律的目标是明示、矫正与预防人的行为,而AI作为在当前伦理定义下的,具备一定行为能力的特殊的“法人”,也应当受到法律的约束。法律是社会行为的抽象,AI时代法律体系构建的过程,离不开每一位AI产业的决策者与参与者的实践与总结。AI开发者在开发过程中,有意识的约束自身的行为,并预防式地设定AI的行为,应当成为我们的义务。
如果你是一名对AI的法律问题有关注的朋友,欢迎购书阅读,本书可以提供一些参考。本文的介绍仅仅只是一鳞半爪而已。
最后,以《人格与责任》一文的结尾来结束本文:
我们都是作为异质的存在彼此共存,因此对于哪些责任,应当怎样分担,我们必须构建起一个制度。