图书介绍

应用回归及分类 基于RPDF|Epub|txt|kindle电子书版本网盘下载

应用回归及分类 基于R
  • 吴喜之编著 著
  • 出版社: 北京:中国人民大学出版社
  • ISBN:9787300222875
  • 出版时间:2016
  • 标注页数:236页
  • 文件大小:73MB
  • 文件页数:250页
  • 主题词:回归分析-高等学校-教材

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

应用回归及分类 基于RPDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

第一章 引言1

1.1 作为科学的统计1

1.1.1 统计是科学1

1.1.2 模型驱动的历史及数据驱动的未来1

1.1.3 数据中的信息是由观测值数目及相关变量的数目决定的2

1.2 传统参数模型和机器学习算法模型3

1.2.1 参数模型比算法模型容易解释是伪命题3

1.2.2 参数模型的竞争模型的对立性和机器学习不同模型的协和性4

1.2.3 评价和对比模型4

1.3 国内统计教学及课本的若干误区5

1.3.1 假设检验的误区:不能拒绝就接受?5

1.3.2 p值的误区6

1.3.3 置信区间的误区7

1.3.4 样本量是多少才算大样本?7

1.3.5 用31个省市自治区数据能做什么?8

1.3.6 汇总数据(比如部分均值)和原始观测值的区别8

1.4 R软件入门9

1.4.1 简介9

1.4.2 安装和运行小贴士10

1.4.3 动手11

1.5 习题12

第二章 经典线性回归13

2.1 模型形式14

2.1.1 自变量为一个数量变量的情况14

2.1.2 自变量为多个数量变量的情况14

2.1.3 “线性”是对系数而言的15

2.2 用最小二乘法估计线性模型15

2.2.1 一个数量自变量的情况15

2.2.2 指数变换19

2.2.3 多个数量自变量的情况20

2.2.4 自变量为定性变量的情况23

2.3 关于系数的性质和推断26

2.3.1 基本假定26

2.3.2 关于Ho:βi=0 ?H1:βi≠0的t检验28

2.3.3 关于多自变量系数复合假设F检验及方差分析表29

2.3.4 定性变量的显著性必须从方差分析表看出31

2.3.5 关于残差的检验及点图32

2.4 通过一个“教科书数据”来理解简单最小二乘回归33

2.4.1 几种竞争的线性模型34

2.4.2 孤立地看模型可能会产生多个模型都“正确”的结论37

2.4.3 比较多个模型试图得到相对较好的模型37

2.4.4 对例2.4的6个模型做预测精度的交叉验证38

2.5 一个“非教科书数据”例子40

2.5.1 线性回归的尝试41

2.5.2 和其他方法的交叉验证比较43

2.6 经典最小二乘回归误导汇总45

2.6.1 大量主观的假定45

2.6.2 对回归结果的缺乏根据的“解释”46

2.6.3 增加无关的(“错误的”)自变量对预测会不会有影响?47

2.7 处理线性回归多重共线性的经典方法48

2.7.1 多重共线性48

2.7.2 逐步回归49

2.7.3 岭回归51

2.7.4 lasso回归53

2.7.5 适应性lasso回归54

2.7.6 偏最小二乘回归56

2.7.7 对例2.7,偏最小二乘回归优于所有常用经典方法57

2.8 损失函数及分位数回归简介59

2.8.1 损失函数59

2.8.2 恩格尔数据例子的分位数回归60

2.9 习题64

第三章 广义线性模型65

3.1 模型65

3.2 指数分布族及典则连接函数66

3.3 似然函数和准似然函数68

3.3.1 似然函数和记分函数68

3.3.2 广义线性模型的记分函数69

3.3.3 准记分函数、准对数似然函数及准似然估计70

3.4 广义线性模型的一些推断问题71

3.4.1 最大似然估计和Wald检验71

3.4.2 偏差和基于偏差的似然比检验72

3.4.3 散布参数的估计73

3.5 logistic回归和二元分类问题74

3.5.1 logistic回归(probit回归)74

3.5.2 用logistic回归做分类78

3.6 Poisson对数线性模型及频数数据的预测81

3.6.1 Poisson对数线性模型83

3.6.2 使用Poisson对数线性模型的一些问题86

3.6.3 Poisson对数线性模型的预测及交叉验证88

3.7 习题90

第四章 纵向数据及分层模型92

4.1 通过一个数值例子解释模型92

4.1.1 牛奶蛋白质含量例子及两层模型92

4.1.2 模型的拟合及输出94

4.2 线性随机效应混合模型的一般形式96

4.3 远程监控帕金森病例子97

4.4 不同模型对纵向数据做预测的交叉验证对比100

4.5 广义线性随机效应混合模型101

4.5.1 对例4.3的分析102

4.5.2 对例4.4的分析103

4.6 决策树和随机效应混合模型105

4.7 习题106

第五章 机器学习回归方法108

5.1 引言108

5.2 作为基本模型的决策树(回归树)108

5.2.1 回归树的描述109

5.2.2 使用回归树来预测111

5.2.3 决策树回归和线性模型回归的比较和交叉验证112

5.2.4 回归树的生长:如何选择拆分变量及如何结束生长115

5.3 组合方法的思想119

5.3.1 直观说明119

5.3.2 组合方法及自助法抽样120

5.4 bagging回归122

5.4.1 概述122

5.4.2 全部数据的拟合122

5.4.3 交叉验证和模型比较123

5.5 随机森林回归125

5.5.1 概述125

5.5.2 例子及拟合全部数据125

5.5.3 随机森林回归中的变量重要性127

5.5.4 部分依赖图128

5.5.5 利用随机森林做变量选择129

5.5.6 接近度和离群点图129

5.5.7 关于误差的两个点图130

5.5.8 寻求节点最优竞争变量个数130

5.5.9 对例5.3数据做三种方法的交叉验证131

5.6 mboost回归133

5.6.1 概述133

5.6.2 例子及拟合全部数据134

5.6.3 对例5.4做几种方法的交叉验证137

5.7 人工神经网络回归139

5.7.1 概述139

5.7.2 用神经网络拟合例5.4全部数据141

5.7.3 选择神经网络的参数142

5.7.4 对例5.4做神经网络的10折交叉验证143

5.8 支持向量机回归144

5.8.1 概述144

5.8.2 用支持向量机拟合例5.2全部数据147

5.8.3 对例5.2数据做五种方法的交叉验证148

5.9 k最近邻回归150

5.9.1 概述150

5.9.2 对例5.2数据做k最近邻方法的交叉验证151

5.10 习题152

第六章 生存分析及Cox模型154

6.1 基本概念154

6.2 生存函数的Kaplan-Meier估计155

6.3 累积危险函数157

6.4 估计和检验158

6.4.1 生存时间的中位数和均值估计158

6.4.2 几个样本的危险函数检验159

6.5 Cox比例危险回归模型161

6.6 习题164

第七章 经典分类:判别分析165

7.1 线性判别分析165

7.2 Fisher判别分析167

7.3 混合线性判别分析169

7.4 各种方法拟合例7.1数据的比较169

7.4.1 用线性判别分析和混合线性判别分析拟合例7.1数据169

7.4.2 对经典线性判别方法和机器学习方法拟合例7.1数据的比较171

7.5 习题172

第八章 机器学习分类方法173

8.1 作为基本模型的决策树(分类树)173

8.1.1 分类树的描述173

8.1.2 使用分类树来预测175

8.1.3 变量重要性176

8.1.4 分类树的生长:如何选择拆分变量及如何结束生长177

8.2 bagging分类180

8.2.1 对例8.1全部数据的分类180

8.2.2 使用bagging来预测181

8.2.3 用自带函数做交叉验证181

8.2.4 分类差额182

8.3 随机森林分类183

8.3.1 对例8.1拟合全部数据183

8.3.2 对例8.1数据的拟合精度计算184

8.3.3 随机森林分类的变量重要性185

8.3.4 部分依赖图186

8.3.5 接近度和离群点图187

8.3.6 关于误差的两个点图188

8.3.7 寻求最佳节点竞争变量个数189

8.4 adaboost分类189

8.4.1 概述189

8.4.2 对例8.1全部数据的分类及变量重要性190

8.4.3 使用adaboost来预测191

8.4.4 用自带函数做交叉验证192

8.4.5 分类差额192

8.5 人工神经网络分类193

8.6 支持向量机分类194

8.6.1 线性可分问题的基本思想194

8.6.2 近似线性可分问题198

8.6.3 非线性可分问题200

8.6.4 多于两类的支持向量机分类202

8.6.5 对例8.1全部数据的拟合203

8.7 k最近邻方法分类204

8.8 对例8.1做各种方法分类的交叉验证205

8.9 案例分析:蘑菇可食性数据207

8.9.1 决策树分类207

8.9.2 bagging分类210

8.9.3 随机森林分类210

8.9.4 adaboost分类213

8.9.5 4种方法的交叉验证214

8.10 案例分析:手写数字笔迹识别215

8.10.1 使用给定的测试集来比较各种方法216

8.10.2 各种方法的单独分析217

8.10.3 对例8.3整个数据做几种方法的10折交叉验证222

8.11 第七章和第八章习题224

附录练习:熟练使用R软件226

参考文献234

热门推荐