图书介绍

数据挖掘 实用机器学习技术 第2版【2025|PDF下载-Epub版本|mobi电子书|kindle百度云盘下载】

数据挖掘 实用机器学习技术 第2版
  • (新西兰)威滕(Witten,I.H.),(新西兰)弗兰克(Frank,E.)著;董琳等译 著
  • 出版社: 北京:机械工业出版社
  • ISBN:7111182057
  • 出版时间:2006
  • 标注页数:362页
  • 文件大小:37MB
  • 文件页数:384页
  • 主题词:数据采集;机器学习

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

数据挖掘 实用机器学习技术 第2版PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

1.1 数据挖掘和机器学习1

第一部分 机器学习工具与技术第1章 绪论1

1.1.1 描述结构模式2

1.1.2 机器学习4

1.1.3 数据挖掘5

1.2 简单的例子:天气问题和其他5

1.2.1 天气问题5

1.2.2 隐形眼镜:一个理想化的问题7

1.2.4 CPU性能:介绍数值预测9

1.2.3 鸢尾花:一个经典的数值型数据集9

1.2.5 劳资协商:一个更真实的例子10

1.2.6 大豆分类:一个经典的机器学习的成功例子12

1.3 应用领域13

1.3.1 决策包含评判14

1.3.2 图像筛选14

1.3.3 负载预测15

1.3.4 诊断15

1.3.5 市场和销售16

1.3.6 其他应用17

1.4 机器学习和统计学18

1.5 用于搜索的概括19

1.5.1 枚举概念空间19

1.5.2 偏差20

1.6 数据挖掘和道德22

1.7 补充读物23

2.1 概念26

第2章 输入:概念、实例和属性26

2.2 样本28

2.3 属性31

2.4 输入准备33

2.4.1 数据收集33

2.4.2 ARFF格式34

2.4.3 稀疏数据36

2.4.4 属性类型36

2.4.5 残缺值37

2.4.7 了解数据38

2.4.6 不正确的值38

2.5 补充读物39

第3章 输出:知识表达40

3.1 决策表40

3.2 决策树40

3.3 分类规则42

3.4 关联规则45

3.5 包含例外的规则46

3.6 包含关系的规则48

3.7 数值预测树50

3.8 基于实例的表达50

3.9 聚类53

3.10 补充读物54

第4章 算法:基本方法56

4.1 推断基本规则56

4.1.1 残缺值和数值属性57

4.1.2 讨论59

4.2 统计建模59

4.2.1 残缺值和数值属性62

4.2.2 用于文档分类的贝叶斯模型63

4.2.3 讨论65

4.3 分治法:创建决策树65

4.3.1 计算信息量68

4.3.2 高度分支属性69

4.3.3 讨论71

4.4 覆盖算法:建立规则71

4.4.2 一个简单的覆盖算法72

4.4.1 规则与树72

4.4.3 规则与决策列75

4.5 挖掘关联规则76

4.5.1 项集76

4.5.2 关联规则78

4.5.3 有效地建立规则80

4.5.4 讨论81

4.6 线性模型81

4.6.1 数值预测:线性回归81

4.6.2 线性分类:Logistic回归82

4.6.3 使用感知器的线性分类85

4.6.4 使用Winnow的线性分类86

4.7 基于实例的学习88

4.7.1 距离函数88

4.7.2 有效寻找最近邻88

4.7.3 讨论93

4.8 聚类93

4.8.1 基于距离的迭代聚类94

4.8.2 快速距离计算94

4.9 补充读物96

4.8.3 讨论96

第5章 可信度:评估机器学习结果98

5.1 训练和测试98

5.2 预测性能100

5.3 交叉验证102

5.4 其他估计法103

5.4.1 留一法103

5.4.2 自引导法103

5.5 数据挖掘方案比较104

5.6 预测概率107

5.6.1 二次损失函数108

5.6.2 信息损失函数108

5.6.3 讨论109

5.7 计算成本110

5.7.1 成本敏感分类111

5.7.2 成本敏感学习112

5.7.3 上升图113

5.7.4 ROC曲线114

5.7.5 反馈率-精确率曲线116

5.7.6 讨论117

5.7.7 成本曲线118

5.8 评估数值预测120

5.9 最短描述长度原理122

5.10 聚类方法中应用MDL原理124

5.11 补充读物125

第6章 实现:真正的机器学习方案126

6.1.1 数值属性127

6.1 决策树127

6.1.2 残缺值128

6.1.3 修剪128

6.1.4 估计误差率129

6.1.5 决策树归纳的复杂度132

6.1.6 从决策树到规则132

6.1.7 C4.5:选择和选项133

6.1.8 讨论133

6.2.1 选择测试的标准134

6.2 分类规则134

6.2.2 残缺值,数值属性135

6.2.3 生成好的规则135

6.2.4 使用全局优化137

6.2.5 从局部决策树中获得规则139

6.2.6 包含例外的规则141

6.2.7 讨论143

6.3 扩展线性模型143

6.3.1 最大边际超平面144

6.3.2 非线性类边界145

6.3.3 支持向量回归146

6.3.4 核感知器147

6.3.5 多层感知器149

6.3.6 反向传播法152

6.3.7 径向基函数网络156

6.3.8 讨论157

6.4.1 减少样本集数量158

6.4.2 修剪干扰样本集158

6.4 基于实例的学习158

6.4.3 属性加权159

6.4.4 推广样本集160

6.4.5 用于推广样本集的距离函数160

6.4.6 推广的距离函数161

6.4.7 讨论161

6.5 数值预测162

6.5.1 模型树162

6.5.2 建树163

6.5.3 修剪树163

6.5.5 残缺值164

6.5.4 名词性属性164

6.5.6 模型树归纳伪代码165

6.5.7 从模型树到规则167

6.5.8 局部加权线性回归168

6.5.9 讨论169

6.6 聚类169

6.6.1 选择聚类的个数169

6.6.2 递增聚类170

6.6.3 类别效用174

6.6.4 基于概率的聚类175

6.6.5 EM算法177

6.6.6 扩展混合模型178

6.6.7 贝叶斯聚类179

6.6.8 讨论179

6.7 贝叶斯网络180

6.7.1 做出预测181

6.7.2 学习贝叶斯网络184

6.7.3 算法细节185

6.7.4 用于快速学习的数据结构186

6.7.5 讨论188

第7章 转换:处理输入和输出189

7.1 属性选择190

7.1.1 独立于方案的选择191

7.1.2 搜索属性空间193

7.1.3 特定方案选择194

7.2 离散数值属性195

7.2.1 无指导离散196

7.2.2 基于熵的离散197

7.2.3 其他离散方法199

7.2.4 基于熵和基于误差的离散200

7.2.5 离散属性转换成数值属性201

7.3 一些有用的转换201

7.3.1 主分量分析202

7.3.2 随机投影204

7.3.3 从文本到属性向量205

7.4.1 改进决策树206

7.4 自动数据清理206

7.3.4 时间序列206

7.4.2 稳健回归207

7.4.3 侦察异情208

7.5 组合多种模型208

7.5.1 装袋209

7.5.2 考虑成本的装袋211

7.5.3 随机化211

7.5.4 提升212

7.5.5 叠加回归215

7.5.6 叠加logistic回归216

7.5.7 选择树217

7.5.8 Logistic模型树219

7.5.9 堆栈219

7.5.10 误差纠正输出编码221

7.6 使用没有类标的数据222

7.6.1 用于分类的聚类223

7.6.2 联合训练224

7.6.3 EM和联合训练224

7.7 补充读物225

第8章 继续:扩展和应用228

8.1 从大型的数据集里学习228

8.2 融合领域知识230

8.3 文本和网络挖掘232

8.4 对抗情形235

8.5 无处不在的数据挖掘236

8.6 补充读物238

9.1 Weka中包含了什么241

第二部分 Weka机器学习平台第9章 Weka简介241

9.2 如何使用Weka242

9.3 Weka的其他应用243

9.4 如何得到Weka243

第10章 Explorer界面244

10.1 开始着手244

10.1.1 准备数据244

10.1.2 将数据载入探索者245

10.1.3 建立决策树246

10.1.4 查看结果248

10.1.5 重做一遍249

10.1.6 运用模型250

10.1.7 运行错误的处理251

10.2 探索“探索者”251

10.2.1 载入及过滤文件252

10.2.2 训练和测试学习方案255

10.2.3 自己动手:用户分类器259

10.2.4 使用元学习器259

10.2.5 聚类和关联规则260

10.3 过滤算法262

10.2.6 属性选择262

10.2.7 可视化262

10.3.1 无指导属性过滤器264

10.3.2 无指导实例过滤器267

10.3.3 有指导过滤器268

10.4 学习算法269

10.4.1 贝叶斯分类器271

10.4.2 树271

10.4.3 规则273

10.4.4 函数274

10.4.6 其他的杂项分类器277

10.4.5 懒惰分类器277

10.5 元学习算法278

10.5.1 装袋和随机化278

10.5.2 提升278

10.5.3 合并分类器279

10.5.5 优化性能280

10.5.6 针对不同任务重新调整分类器280

10.5.4 成本敏感学习280

10.6 聚类算法281

10.7 关联规则学习器281

10.8 属性选择282

10.8.1 属性子集评估器282

10.8.2 单一属性评估器283

10.8.3 搜索方法284

第11章 Knowledge Flow界面286

11.1 开始着手286

11.2 知识流组件288

11.3 配置及连接组件289

11.4 递增学习290

第12章 Experimenter界面292

12.1 开始着手292

12.1.1 运行一个实验292

12.1.2 分析所得结果294

12.2 简单设置295

12.3 高级设置295

12.4 分析面板296

12.5 将运行负荷分布到多个机器上298

第13章 命令行界面300

13.1 开始着手300

13.2 Weka的结构300

13.2.1 类,实例和包300

13.2.2 weka.core包301

13.2.3 weka.classifiers包301

13.2.4 其他包304

13.3 命令行选项305

13.3.1 通用选项305

13.2.5 Javadoc索引305

13.3.2 具体方案相关的选项306

第14章 嵌入式机器学习308

14.1 一个简单的数据挖掘程序308

14.2 讲解代码308

14.2.1 main()308

14.2.2 MessageClassifier()308

14.2.3 updateData()312

14.2.4 classifyMessage()313

15.1.1 buildClassifier()315

15.1.2 makeTree()315

第15章 编写新学习方案315

15.1 一个分类器范例315

15.1.3 computeInfoGain()322

15.1.4 classifyInstance()322

15.1.5 main()322

15.2 与实现分类器有关的惯例323

参考文献325

索引342

热门推荐