统计学习要素(第2版)

书名:统计学习要素(第2版)机器学习中的数据挖掘、推断和预测
作者:TrevorHastie/RobertTibshirani/JeromeFriedman
译者:张军平
ISBN:9787302557395
出版社:清华大学出版社
出版时间:2020-12
格式:epub/mobi/azw3/pdf
页数:576
豆瓣评分: 7.4

书籍简介:

三位统计学家高屋建瓴,面向非统计专业的读者介绍重要的统计学概念,而非纯数学理论 借助于一个通用概念框架,描述多个学科的重要思想,比如医学、生物学、金融学和营销 《统计学习要素》(第2版)包含人工智能中用到的许多代表性主题,比如图模型、随机森林、集成方法、Lasso最小角度回归和路径算法、非负矩阵分解和频谱聚类。此外,还用一章篇幅来介绍“宽”数据(p大于n)的方法,包括多次测试和误检率。 对统计领域、人工智能领域及相关科学或行业领域内的读者而言,本书是一个难得的宝库,涉及面很广,从监督学习(预测)到无监督学习,具体主题包括神经网络、支持向量机、分类树和Boosting(率先对该主题进行综合论述)。与此同时,书中还包含丰富的示例和大量彩色的图表。

作者简介:

作者简介

斯坦福大学统计学教授。三人是该领域的杰出研究人员。哈斯蒂在新泽西州的AT&T贝尔实验室以技术人员身份工作9年之后,于1994年8月加入斯坦福大学任教。哈斯蒂用S-PLUS写了许多统计建模软件,并发明了主要曲线和曲面。他和提布施拉尼共同开发了广义加性模型并写了这一主题的热门书。提布施拉尼提出了Lasso,参与创作了《Bootstrap概论》,这本书取得了相当大的成功。弗雷曼是许多数据挖掘工具的共同发明人,包括CART、MARS、投影追踪和梯度Boosting。

译者简介

张军平

复旦大学计算机科学技术学院教授,博导,主要研究方向是人工智能、机器学习、生物认证和智能交通。曾经主持多个国家级项目。他是人工智能著名期刊 IEEE Intelligent Systems 编委,担任《软件学报》和《自动化学报》等国内权威期刊责任编辑。他是中国自动化学会混合智能专业委员会副主任。他在人工智能及相关专业领域发表了100余篇论文,包括 IEEE TPAMI,TNNLS,ToC,TAC和TITS等期刊以及ICML, AAAI和 ECCV等国际会议上。他的人工智能科普畅销书《爱犯错的智能体》荣获了2019年中国自动化学会科普奖。2020年中国科普作家协会第六届优秀作品奖(中国科普创作领域最高奖)金奖以及2020年第十届吴文俊人工智能科技进步奖(科普项目)。

书友短评:

@ Holly 书本身当然是好书,一分只针对翻译,译者似乎缺乏基本的英语功底,也不了解数学和统计学专著的文法习惯,翻译错误比比皆是,且对大量名词望文生义,如将上下文中表示“组成部分”的component错译成数学上的“分量”,将表示“分组”的group错译成数学上的“群” @ 豆瓣瓣 听说第二版没有评论,特来支持 @ Bias~ 一分给排版和纸质,本书翻译完全就是字面翻译,完全辜负了原作者在思想上的连通性,读起来更加不知所云,更不用说达到翻译信达雅的境界。很多语言用中文去理解完全无法读通,读中文基本上可以猜出英文原话,故最终还是看回了原版。。但有一个好,对于接触英文学术较少的小白,各专业术语都能对应,对学习还是有所帮助。更类似于词典的感觉吧。 @ Holly 书本身当然是好书,一分只针对翻译,译者似乎缺乏基本的英语功底,也不了解数学和统计学专著的文法习惯,翻译错误比比皆是,且对大量名词望文生义,如将上下文中表示“组成部分”的component错译成数学上的“分量”,将表示“分组”的group错译成数学上的“群” @ Bias~ 一分给排版和纸质,本书翻译完全就是字面翻译,完全辜负了原作者在思想上的连通性,读起来更加不知所云,更不用说达到翻译信达雅的境界。很多语言用中文去理解完全无法读通,读中文基本上可以猜出英文原话,故最终还是看回了原版。。但有一个好,对于接触英文学术较少的小白,各专业术语都能对应,对学习还是有所帮助。更类似于词典的感觉吧。 @ 豆瓣瓣 听说第二版没有评论,特来支持

书籍目录

第1 章概述1
第2 章监督学习综述7
第3 章回归的线性方法7
第4 章分类的线性方法77
第5 章基展开与正则化方法105
第6 章核平滑方法143
第7 章模型的评估和选择165
第8 章模型的推断和平均197
第9 章加性模型、树和相关方法223
第10 章Boosting 和加性树255
第11 章神经网络293
第12 章支持向量机与柔性判别分析315
第13 章原型方法与最近邻347
第14 章非监督学习365
第15 章随机森林441
第16 章集成学习455
第17 章无向图模型471
第18 章高维问题:p≫N 489
· · · · · ·

  • LAR uses least squares directions in the active set of variables.Lasso uses least square directions; if a variable crosses zero, it is removed from the active set.Boosting uses non-negative least squares directions in the active set.
    —— 引自章节:第3章 – Least Angle Regression
  • the bias of the 1-nearest-neighbor estimate is often low, but the variance is high.
    —— 引自第417页
  • 添加微信公众号:好书天下获取

    添加微信公众号:“好书天下”获取书籍好书天下 » 统计学习要素(第2版)
    分享到: 更多 (0)

    评论 抢沙发

    评论前必须登录!

     

    添加微信公众号:“好书天下”获取书籍

    添加微信公众号:“好书天下”获取书籍添加微信公众号:“好书天下”获取书籍