文章吧手机版
《算法霸权》读后感精选
日期:2021-03-06 01:18:01 来源:文章吧 阅读:

《算法霸权》读后感精选

  《算法霸权》是一本由[美] 凯西·奥尼尔著作,中信出版集团出版的精装图书,本书定价:68.00元,页数:320,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。

  《算法霸权》精选点评:

  ●数据科学正逐渐构建出一个“美丽新世界”,我们正逐渐被算法归类,永无出头之日。

  ●把算法的缺点放大到极致,影响到教育、理财、就业、社会管理,几乎是生活的各个领域,书中揭示的本质上是效率和公平的问题,个体、阶层、地域的差异很可能会被算法一刀切带过。算法可以解放人类劳动,但并不意味着可以一劳永逸地把决定权交给机器,所以需要及时反馈和改进模型。具有偏见的和陷阱性的替代变量,加上信息使用和算法的不透明则使得算法具有欺骗性,因此适当的自律和监管是有益的。

  ●Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy,讲述大数据时代的数据模型缺陷造成的负面影响

  ●圣母婊女数学家,让我坚信ai将改变人类。

  ●作者反反复复(好多重复内容)谈了算法的偏见。作为从业者,我们都知道公司技术有多渣,算法有多烂,更新有多慢,可能人跑了就没人维护了(前公司 CTR 预估算法还是两年前的)这种拿来投投广告还好,真要拿来决定人的命运,太不靠谱了。关键在于企业搞算法的时候不要把效率和利润放在第一位,而是怀着善意,也许就是腾讯说的向善吧,这个领域已经有创业公司在做了,算法把偏见变得更显性,从另一个角度看,也是有益的

  ●主题很好,但说的不够透彻。大数据应用的目的是什么?模型的假设合理吗?结果是:不平等的自我强化,歧视的恶性循环,每个人都被大数据拖入陷阱。

  ●这是一本很牵强,有偏见的书. 作者作为数据科学家给我的感觉就是害怕数据.数据本身是没有好坏的,到了人的手里有不同的用法. 书中举的由于模型偏见带来的问题,我感觉作者是在讨好中下阶层的人.或许这些人才是这本书的受众,可以把自己的不行归结到社会上. 整本书也没有给我更多的启发, 我也没有看到作者会为此做出切合实际的行动或者建议. 书名能吓人, 给偏见找一个帮凶(这本书是数据),提出一个可以泛泛而谈的问题,却没有实际建议. 这本书十分糟糕 说实话,模型不是万能的,需要透明化不断调整。这个观点我赞同,但让算法跟公平牵扯在一起讨论就很牵强了。算法是真实的,但公平是不存在的,

  ●有点啰嗦,但还是有干货。数字化时代,人力会日益退化成资本效率系统中的资源,无论是从客户端,还是成本端,消费或被消费。 观点新颖: 大数据程序只能将过去编入代码,而不会创造未来。创造未来需要道德想象力。我们必须将更好的价值观嵌入我们的算法代码中。

  ●还可以

  ●读完原版再来看中文版,还是3星。还是效率与公平的问题。美帝开放的环境总是能引申出许多让许多社畜觉得,在一轮革新、创造后又反回来矫枉过正、吃饱撑的社科研究。不过这不正是多元化、熵变的乐趣。

  《算法霸权》读后感(一):中性的科技

  虽然是很多事实的罗列,但如果不去看,可能永远也不会知道。前半部分比较无趣,后半部分有种战斗的感觉。

  人类发明出来的许多工具都是中性的,关键是如何利用。这可能不仅仅是一个科技上的问题,更是一个道德问题。风险共担的意识在大数据时代更为重要和宝贵。因为一旦违背道德的逻辑被写入算法,其影响将远胜于前数据时代。

  算法的问题可能是,算法实在过于复杂了,当加入了大量的计算逻辑数据点和平衡项,最后可能连设计它的人都难以把控计算结果。更不要说毫无知觉地被这些算法影响的人了。而有了迅猛发展的硬件和软件辅助,算法的发展又过快了,每一个算法都可以各行其是,缺乏监管。而即便想要监管,人力恐怕也难以企及了。

  《算法霸权》读后感(二):Ⅵ.践行G(定量之化)

  【春上春树随喜文化】 算法是层级和并行思维的融合 可视化,标准化,规模化,全球化 去中心化,分布式计算,智能虚拟助手 乃至宗教般毋庸置疑的 民主和科学的感召 最后所有人被既得利益者 网罗为囊中之物 辛普森悖论 是《国富论》所谓的 看不见的手 阶层难以穿透 跃迁机会渺茫 穷者愈穷 富者愈富的马太效应 《21世纪资本论》所述的 承袭制资本主义 堂而皇之登上大雅之堂 美其名曰贵族文化传承 区别于过往的家族观念 现在固化的是社会进步的原动力 人力资本的选育留用 你要我的山头 我要你的后方 当你把数据的主动权 与虚拟世界的游戏制定者交换 让他来掌控信用,生活,工作 人只是流量经济中 增加的随机变量 庶民的胜利 便是小趋势 不玩他们主导的游戏 对自己比较优势的识别 扩大生命硬件重塑的输入带宽 一以贯之投资自己 刷新文化软件源代码 明修栈道 暗度陈仓 演好他们认为的 沉默的待宰的羔羊 不可逆转的世界 剧情翻转终局

  《算法霸权》读后感(三):技术悲观主义敲响的警钟

  对于技术的看法基本可以总结为乐观、悲观和中立三种,但这三者在一个具体的学者身上往往是存在交叉的,例如麦克卢汉即认为技术通过延展人的身体将带来地球村,但也严肃地提醒我们“延伸意味着截除”。因此,对于作者这样一个有技术悲观主义倾向的学者来说,其提醒人们算法危害的原因,并不是单纯地希望人们抛弃算法,而是从长期上进一步优化它,在短期内保护自己免于算法的侵蚀。 总结一下作者对算法的观点: 1.不透明 首先,算法自身的逻辑是效率导向,但人是多元导向的。其次,算法的更新不是实时的,这意味着算法是在按照“你昨天做什么,今天也一定会做什么”的逻辑来运行。最后,被试往往对算法的内核一无所知,例子是书中提及的教育评估。 2.大规模 首先,算法的效率导向致使其必然会不自觉地收集更多的数据,纳入更多人被试,但目标的单一性会造成破坏。其次,以”人以类聚,物以群分“的逻辑进行结果判断 3.破坏性 首先,对于底层人民来说算法会从教育、金融、住房和工作等多方面进一步压榨他们的剩余。其次,对于中产和金字塔尖的人来说,他们将不得不花钱购买“防护盾”,并由算法主导他们的消费。最后,算法是一种“自我实现”,即算法如果判定你是穷人,那么即使你不穷,它也会想方设法让你穷。

  《算法霸权》读后感(四):观点并不新颖,消遣可以看看

  先写结论:作者对数据模型做了很好的总结,但是观点并不新颖。举例过于冗余,后半部分有点像在冲字数。一些观点过于偏激,比如全盘否定数据模型的在社科领域的作用。

  作者对数据模型有几个不错的总结,罗列如下:1. 数据模型擅长以低成本处理海量数据,2. 由于人们无法对模型进行修改,所以为了得到模型的高评价,人们的行为会偏向迎合算法的拟合结果,而非使用革命性的方式创造新的方法(data manipulate), 3. 由于人们无法直接测量他们想要获取的数据信息,因此会使用其他数据来替换这些直接的数据,并利用数据模型,通过分析其他数据来测算想要获取的直接数据,4. 由于经验,认知,文化等差异,模型制定者制定的模型会存在信息盲点,盲点也能够反映建模者的判断和优先级序列,5. 混淆相关性和因果性。

  作者批判的几个点,例如data manipulate确实是有害的,因为这使得一个评价模型变成了具有指导意义的发展模型。本身是为了衡量教学质量而设计的模型,但是因为教师知道了其评价方式,而刻意去提高一下分值,是得模型结果对教师更有利。我认为如果教师如果真实去提升自己的教学质量,那么这些指标很可能也会有极大的提升。但是为了指标而提升指标,就出现了本末倒置,这确实是模型在做评价时候的一个问题,只是这个问题并非由模型本身引起,而应该更多去思考制度如何设计。

  至于作者认为的,类似模型评价标准过于死板,千篇一律。我人为模型本身就是标准化和高效的产物,其评价必然是一个近乎冷漠的客观评价。如果要照顾到每个人的个性,那么模型是设置会更加复杂,最终演变为一个人一个模型,这显然不是模型设置的初衷。这个问题就好比:医学院是否应该对黑人学生降低毕业标准?如果按照毕业标准模型,那么很多黑人学生可能无法毕业,模型显然没有考虑黑人学生家庭条件困难,为了支付学费而疯狂找兼职,以至于无法专心学业的因素。从这点上看,模型显然是不公平的,是霸权的。但是如果模型设置的初衷是为了保障未来病人的权益,使所有医学院毕业生都可以高水平的救死扶伤,那么这个模型又是负责和公平的了。问题的关键在于,究竟是维护黑人学生公平重要,还是维护医学院毕业生的高水平声誉重要。其所谓的马太效应,很大程度上也源于此:究竟是要保护投资者的资金,还是要帮助更多贫民区的好人申请到贷款?

  最后,作者大量抨击了现有模型的缺点,但是并没有提出自己的改进意见,而是一刀切的认为模型损害了社会,损害了人的利益。综上,作者对数据模型的总结可圈可点,但是其结论有待讨论。

  《算法霸权》读后感(五):摘录点

  模型中的犹太效应: 作者担心数据模型会不断的自我预言自我实现,例如贫困的人因为贫困只能不断损害自己的信用,进而无法找到合适的工作导致更加贫困.

  作者的观点:

  - 错误总会出现,因为模型的本质就是简化。

  - 我们自己的价值观和欲望会影响我们的选择,包括我们选择去搜集的数据和我们要问的问题。而模型正是用数学工具包装出来的各种主观观点。

  - 一个模型的信息盲点能够反映建模者的判断和优先级序列。

  - 数学模型的本质是基于过去的数据推测未来,其基本假设是:模式会重复。

  点评: 当能意识到这个问题的时候,其实市场本身已经做出反应了. 例如现在的芝麻信用分, 高分的人可以得到更多人信任,也可以借到更多的钱. 低分的人难道就没有翻身的机会吗? 不会,支付宝并没有公布计算的具体细节,但他给用户做出了引导, 你更多的社交,购物,等等会让我们相信你是一个有价值的用户进而有机会提高信用分. 对支付宝来说,他们需要推广他们的产品,他们不希望只有一小部分用户使用, 所以每个人可以在里面尝试.

  模型与其说是一种简化,倒不如说是对现实生活的抽象. 问题不在于模型有优先级,我或许更害怕的是一个模型下来它就不会自我进化,也不会引导它的“实验对象”. 我更害怕的是这样的模型会在强制的条件下继续存在而没有被自然淘汰掉.

  所有的预测都是基于一个前提: 你相信过去发生的接下来可能继续发生. 我觉得这是人类能继续发展的一个重要前提,为啥呢? 我当然很愿意相信人类不会明天灭亡,太阳明天还会升起. 但哲学家 休谟 已经质疑这一点. 我不是说太阳永远都会升起,我只是相信在我渺小的几十年里面,它会继续存在着.

  不要去相信可以永恒的模式,但可以相信在你这辈子很有可能会有效的模式,这样的人生已经足够.

  作者在这本书只有一个地方说到点子上了: 存在的一家强大的公司能搜集到你大量的数据,并有可能引导你去实现政治目的.

  gt; 从未有研究人员从事过如此大规模的人类实验。Facebook能够在几小时之内收集数千万条甚至更多的数据,用以衡量每一个人对其投票行为的描述用语和互相分享过的链接带来的影响。这种权力是巨大的,而且拥有并行使这种权力的并不只有脸书一家公司。其他的上市公司,如谷歌、苹果、微软、亚马逊,以及威瑞森和美国电话电报公司等手机供应商也掌握着大量关于用户行为的数据以及引导我们做出特定选择的无数方式。我暂且不将Facebook 或者Google的算法视为政治领域的数学杀伤性武器,因为没有证据表明这些公司正在利用它们的算法伤害大众。但这些算法被滥用的可能性是巨大的.

评价:中立好评差评
【已有2位读者发表了评论】

┃ 《算法霸权》读后感精选的相关文章

┃ 每日推荐