《统计学习导论》是一本由Gareth James / Daniela Witten / 著作,机械工业出版社出版的平装图书,本书定价:CNY 79.00,页数:290,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。
《统计学习导论》精选点评:
●偏概念,没有数学推导
●至少是看得懂的。。
●匆匆过了一遍,习题没做。前半英文版后半中文版。看英语还是累。
●作为教材的翻译版 还是不错的 易懂
●ESL的导读版,以我的能力估计看不下ESL。中文版书中有些翻译的小问题,可以自己找出来。英文版的Errata可以在书的网站上找到。内容讲的很多,基本是机器学习那块的,传统统计学只介绍了一点点,但对于我所属专业目前状况而言,线性模型还是占领着研究分析方法的霸主地位。
●岭回归中的Lambda怎么选取?有点没看懂
●圣经的简化版
●简单易懂,直达要害
●原著堪称入门统计学习的首选,理论与实践相结合的思想体现的淋漓尽致,虽然部分R代码有些过时,但不妨碍实践能力的训练。除此之外,毕竟是统计学者进行的翻译,整体来讲在专业词汇翻译方面并没有非常突出的错误,这比市面上一些搞计算机的人翻译的机器学习教材好太多了。
●译者在翻译的时候还是应该读的更仔细些。一些在英文版中存在的连我这个外行都能看得出来的笔误,翻译版依然存在。还有一些翻译错误,如果不是对着原版看的,估计怎么都无法释怀。
《统计学习导论》读后感(一):自证脑残的典范:说说王星教授及其翻译的《统计学习导论》
王星的《统计学习导论:基于R应用》是一本翻译极差教科书,原本以为侯玉波翻译的《社会心理学》是本人阅读史上最烂的一本,没想到王星教授这本书更烂。
烂到什么程度?烂到爆炸,烂到完全能够自证脑残的程度。
==========
本人在其他小文中说过,在第2章中,王星将flexible统一翻译为“光滑的”,这导致第2章的很多内容不知所云,无法阅读。
原书在很多地方已提醒王星教授,不能将flexible翻译为光滑。例如,英文原书P32第一段第七行:
A more restricted and hence smoother curve has fewer degrees of freedom than a wiggly curve.王星(P23,第一段,第三行):
限定性强且曲线平坦的模型比锯齿形曲线具有更小的自由度。点评:从这个句子以及上下文,可以看出:flexible和wiggly意思基本相同,是“弯的”;另外,flexible和restricted反义,从而与smooth反义。这些都说明不能将flexible翻译成光滑!
(在这个句子中,王星的翻译还有其他错误,比如将表示因果的hence翻译成了表示并列关系的“而且”。)
=============
更多脑残例子:
王星,P22,图2-9说明文字,倒数第二行
所有方法都已使测试均方误差尽可能小。minimum possible test MSE over all methods (dashed line)
点评:王星没有看懂,只能胡编。
=============
更多脑残例子:
王星,P23,第二段,第四行
然而,在某个水平上测试均方误差开始增加。However, at some point the test MSE levels off and then starts to increase again.
点评:尽管本人目前第二章还没看完,但可以断言,王星团队的英文水平和机器学习水平,离驾驭这本书差得太远。
比如这一句,根据王星的英文水平,本人不怕以最大的恶意揣摩王星,这货不懂“level off"(变得平缓)的意思,所以翻译成”水平“。
============
代表初学者,谴责这些不学无术、胡编乱造的学术垃圾。
《统计学习导论》读后感(二):这是一本很好的机器学习的入门书(最后附上书和课后习题解答的英文版)
这本书读起来不费劲,弱化了数学推导过程,注重思维的直观理解和启发。读起来很畅快,个人感觉第三章线性回归写的很好,即使是很简单的线性模型,作者提出的几个问题和细细的解释这些问题对人很有启发性,逻辑梳理得很好,也易懂。(不过有点可惜的是翻译版本确实不是太好,有些明显的错误,建议如果英文不是很好的还是读中文版,读中文版看的快,中文版看不懂的地方再对照着英文版看看应该就能懂了。)
线性回归这一章印象深的写的很好的部分有:
在进行多元线性回归时,本书作者提出了4个问题——
Some important questions回答第一个问题时引出了F统计量,并解释了“当已经得到了各个变量的p值时,为什么还要看整体的F统计量呢?".F统计量和n和p都有关系,它会根据预测变量的个数进行调整,这样即使预测变量个数很多,使得部分变量的p值小于0.05(但很可能其实这些预测变量对响应变量并没有多大效果),看F统计量的p值就可以回答第一个问题。
接着,我们会想知道到底是哪些变量和响应变量有关系,第二个问题引出了变量选择(variable selection)的概念,常用的包括:best subset selection, forward selection, backward selection.(关于书中提到的mixed selection似乎不常见,其实就是综合了forward selection和backward selection这两种方法)。
到了第三个问题,衡量模型拟合优劣的指标有RSE和R²,不过由于RSE受到y的量纲的影响,所以去评判一个好的RSE的标准还没有建立起来,因此我们常用的还是看R²的大小来看模型拟合的优劣程度。书中提到,"当更多的变量进入模型时,即使新加入的变量与响应变量的关联很弱,R²也一定会增加,因为在最小二乘方程中添加变量必然会使我们能更加准确地拟合数据", 这一点也可以看出R²越大也不代表这个模型就越好,很可能某些预测变量其实和y的关联性很弱,反而在对测试集数据进行预测的时候使得我们的预测效果不好。所以,我们引入了adjusted R²,adjusted R²则对增加的冗余变量进行了惩罚。在本书第六章可以看到,当我们选择从多个模型中选择最优模型的时候,我们会用到两类方法,第一类是看Cp,AIC, BIC, adjusted R²这几个值的大小,第二类则是用CV的方式。
最后附上百度云链接,包括了三本书,一本An Introduction To Statistical Learning, 一本课后习题解答书,一本The Elements of Statistical Learning.(看完统计学习导论想对这些统计学习方法的原理和推导细节有更深入的了解可以接着看这本啦)
(链接分割线)-------------------------------------------------------------------------------------------------------------------
书和课后习题解答的英文版
《统计学习导论》读后感(三):王星教授的翻译真恶臭:《统计学习导论》错误举例
《统计学习导论》,P21
2.2.1拟合效果检验,第二段
式(2.5)中的MSE是用训练数据计算出来的,而这些训练数据本来就是用来拟合模型的,所以预测精准的程度一般会比较高,我们形象地称它为训练均方误差(training MSE).The MSE in (2.5) is computed using the training data that was used to fit the model, and so should more accurately be referred to as the training MSE.
点评:原文的意思简单明了:(2.5)式中的MSE(即均方误差)是用训练集计算的,所以更准确的称呼应该是训练MSE。
回头看看王星教授的翻译,简直是胡编乱造,痴人说梦。
==========
P22,第一段,第三行
于是需要一个方法选择模型,使该模型的测试均方误差最小,而不一定是训练均方误差最小。We want to choose the method that gives the lowest test MSE, as opposed to the lowest training MSE.
点评: as opposed to的意思为“(而)不是”,王星将其翻译为“不一定”。
===========
P22,第二段,第三行
但是,如果遇到了没有测试数据可用的情况怎么办?在这种情况下,为简便起见,一些观点认为通过降低训练均方误差(2.5)来选择统计学习模型也是可以的。But what if no test observations are available? In that case, one might imagine simply selecting a statistical learning method that minimizes the training MSE (2.5).
点评:王星翻译的“一些观点”纯属于瞎扯,除了机器学习小白之外,谁会持有王星翻译句子中的“那样观点”。作者的意思不过是说:初学者可能会认为....。
尤其是simply被恶搞般地翻译为“为简便起见”,简直让人笑死。
=============
P22,第二段,第六行
(但事实上,这个想法存在一个致命的缺陷:一个模型的训练均方误差最小时,不能保证模型的测试均方误同时会很小。)一般而言,许多统计方法在估计模型参数时都以最小化训练集的均方误差作为基准。对于这类方法,训练集的均方误差非常小时,测试均方误差经常会很大。Roughly speaking, the problem is that many statistical methods specifically estimate coefficients so as to minimize the training set MSE. For these methods, the training set MSE can be quite small, but the test MSE is often much larger.
点评:原文真正的意思,是想说明问题出在了哪。王星没有翻译出这层意思,特别地,王星将最后一句翻译成了条件句,也不知道他的脑袋是怎么想的。
================
这些随处可见的错误,说明王星团队的英文水平和数学水平堪忧啊。这种水平还翻译个鸟书。
《统计学习导论》读后感(四):王星垃圾团队制造:《统计学习导论》如SHI(T)般的翻译
学习《统计学习导论》到第二章,就基本了解了王星的翻译风格:很任性。套用《很任性》的歌词形容一下:
很任性相爱过,很任性的执着,很任性的以为自己,翻译时很洒脱....例如,在《统计学习导论》第二章,王星固执地将flexible翻译为“光滑”,很任性地把“弯的”掰“直”了。这直接导致本章很多地方很难理解。
那么王星为何这么翻译?个人认为,他受到了P17”薄板样条“法的干扰,此法找到的是光滑的(smooth)曲面。
类似的错误,在前两章已很多,这说明王星团队在翻译此书时,对机器学习糊里糊涂,而且英文水平也不行,这导致他们制造了一本垃圾教材。
=============
顺手举第二章出现的一些翻译错误或瑕疵:
(参数方法)P16,第三段,最后三行
......因为它把握了year of education和income之间的正相关关系,还成功地捕获了seniority和 income之间微弱且不易察觉的正相关关系。这样的结果可能是因为观察的数据量较小的缘故,但就模型而言,它已经竭尽所能了。the linear fit still appears to do a reasonable job of capturing the positive relationship between years of education and income, as well as the slightly less positive relationship between seniority and income. It may be that with such a small number of observations, this is the best we can do.
点评:
1)即使一个初中生,也能从图2.4看清seniority和income之间存在明显同向关系(或说正相关),哪里有什么“不易察觉”?
2)最后一句的意思更是瞎扯。作者的意思明明是说:如果观测点较少,线性拟合可能是最好的选择了。
==============
(非参数方法)P16,倒数第一段
(非参数方法)追求的是接近数据点的估计,估计函数在去粗和光滑处理后尽可能与更多的数据点接近。(Non-parametric methods) seek an estimate of f that gets as close to the data points as possible without being too rough or wiggly.
点评:without being too rough or wiggly的真正意思是说“不要过度拟合”。
===============
最脑残的翻译是P17第一段,也就是关于“薄板样条”这段,我们不妨欣赏欣赏王星的垃圾水平:
图2-5表示了用非参数方法对income数据应用薄板样条估计 f 的拟合结果。这种方法在 f 上不强加任何预设的模型形式,而是尽力输出一个估计f, 它与观测数据尽可能接近,这时称图2-5中的曲面是光滑曲面。An example of a non-parametric approach to fitting the Income data is shown in Figure 2.5. A thin-plate spline is used to estimate f. This approach does not impose any pre-specified model on f. It instead attempts to produce an estimate for f that is as close as possible to the observed data, subject to the fit—that is, the yellow surface in Figure 2.5—being smooth.
点评:
1)王星很任选地将原文前两句合并成了一句,这样做不好。对初学者更友好的翻译方法就是按原文直接翻译。
2)王星似乎没理解原文关于薄板样条法的意思,因此只好瞎扯。原文的意思很明确:你要尽可能准确地拟合数据,但又要使拟合的曲面光滑——“但...."这半句正是薄板样条法的要求。 ========
在这种情况下,非参数拟合输出了对真实f相当准确的一个估计,如图2-3所示。In this case, the non-parametric fit has produced a remarkably accurate estimate of the true f shown in Figure 2.3.
点评:意思明明是对图2-3中真实f 的估计,而不是对f的估计结果见图2-3.
==========
为拟合一个薄板样条,数据分析师必须指定一个光滑度水平中,也称柔性水平。图2-6显示了使用一个较低柔性水平用类似的方法所拟合的薄板样条,得到一个折皱不平的拟合。In order to fit a thin-plate spline, the data analyst must select a level of smoothness. Figure 2.6 shows the same thin-plate spline fit using a lower level of smoothness, allowing for a rougher fit.
点评:根据原文,光滑度和柔度(即弯度)应是相反的,这样,更低的光滑度(lower level of smootheness)=更粗糙(rougher),也就是更弯曲。
============
然而,图2-6所示的样条拟合函数与图2-3中的拟合相比,在对真实函数f进行估计时,具有更多的变数。However, the spline fit shown in Figure 2.6 is far more variable than the true function f, from Figure 2.3.
点评:根据原文可知,图2.3是真实的函数,而不是什么拟合。
=============
由此可见,这一段的翻译,王星团队简直是在胡编乱造。译文狗屁不通。
大量的低级错误,只能说明一个问题:
王星团队,是个垃圾翻译团队。