图书介绍

机器人无标定手眼协调【2025|PDF下载-Epub版本|mobi电子书|kindle百度云盘下载】

机器人无标定手眼协调
  • 苏剑波著 著
  • 出版社: 北京:电子工业出版社
  • ISBN:9787121114342
  • 出版时间:2010
  • 标注页数:212页
  • 文件大小:23MB
  • 文件页数:223页
  • 主题词:机器人控制-研究

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

机器人无标定手眼协调PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

上篇 Kalman滤波方法2

第1章 绪论2

1.1 引言2

1.2 机器人手眼协调2

1.2.1 手眼协调技术的历史发展2

1.2.2 手眼协调系统结构3

1.3 无标定手眼协调及其控制方法5

1.3.1 问题的提出5

1.3.2 传统的无标定方法5

1.4 本篇的主要工作6

第2章 基于图像雅可比矩阵的无标定手眼协调8

2.1 图像雅可比矩阵模型8

2.2 图像雅可比矩阵的例子9

2.3 应用图像雅可比矩阵建立视觉反馈控制10

2.4 基于图像雅可比矩阵的手眼协调系统的性能分析11

2.5 无标定环境下雅可比矩阵的辨识方法12

第3章 基于Kalman滤波的雅可比矩阵在线辨识15

3.1 图像雅可比矩阵的动态辨识15

3.2 Kalman滤波估计算法概述15

3.3 图像雅可比矩阵的在线Kalman滤波辨识16

第4章 眼固定+眼在手上的无标定二维运动跟踪18

4.1 系统与任务描述18

4.2 全局视觉的无标定手眼协调控制19

4.2.1 固定摄像机观察二维运动的图像雅可比矩阵19

4.2.2 固定眼图像雅可比矩阵的在线Kalman估计20

4.2.3 固定眼的视觉反馈控制21

4.3 眼在手上无标定视觉伺服21

4.3.1 手上摄像机的图像雅可比矩阵21

4.3.2 眼在手上图像雅可比矩阵的估计21

4.3.3 眼在手上的视觉反馈控制率22

4.4 两种反馈控制率的切换22

4.5 二维运动跟踪仿真23

第5章 固定双目无标定三维运动跟踪25

5.1 双目视觉的图像雅可比矩阵25

5.2 图像雅可比矩阵的在线Kalman-Bucy估计26

5.3 基于图像雅可比矩阵的反馈控制率27

5.4 三维运动跟踪仿真28

第6章 机器人手眼协调实验系统31

6.1 系统整体结构31

6.2 机器人本体32

6.2.1 机器人本体控制器32

6.2.2 机器人端控制程序34

6.3 机器人视觉子系统34

6.3.1 系统构成34

6.3.2 图像卡程序开发36

6.3.3 彩色图像处理39

6.3.4 图像预处理41

6.3.5 图像特征与目标识别45

6.4 通信子系统45

6.4.1 子系统结构与功能45

6.4.2 系统通信协议设计46

6.4.3 模块的具体实现47

第7章 无标定手眼协调运动跟踪实验50

7.1 眼固定+眼在手上无标定二维运动跟踪实验50

7.2 无标定三维运动跟踪实验51

本篇小结55

参考文献57

中篇 神经网络方法62

第8章 绪论62

8.1 视觉伺服系统分类62

8.2 视觉处理63

8.2.1 图像特征63

8.2.2 视觉估计63

8.2.3 图像雅可比矩阵64

8.3 视觉控制器65

8.4 无标定手眼协调66

8.5 本篇主要工作67

第9章 基于神经网络的图像雅可比矩阵估计方法69

9.1 图像雅可比矩阵方法原理69

9.2 神经网络方法原理71

9.3 图像雅可比矩阵分析72

9.4 改进的图像雅可比矩阵方法74

9.5 仿真结果76

第10章 眼固定机器人平面视觉跟踪78

10.1 平面视觉跟踪问题描述79

10.2 视觉映射模型79

10.3 控制策略80

10.3.1 实时运动规划81

10.3.2 神经网络映射器81

10.3.3 仿真结果82

10.4 基于在线自学习的视觉跟踪86

10.4.1 小脑模型神经网络86

10.4.2 仿真结果88

第11章 眼固定机器人三维视觉跟踪90

11.1 基于立体视觉的3D视觉跟踪90

11.1.1 问题描述90

11.1.2 基于融合方程的视觉跟踪方法90

11.1.3 视觉映射模型91

11.1.4 控制策略93

11.1.5 仿真结果94

11.2 基于单摄像机的三维视觉跟踪96

11.2.1 问题描述96

11.2.2 视觉映射模型97

11.2.3 控制策略98

11.2.4 仿真结果98

第12章 眼在手上机器人平动视觉跟踪100

12.1 眼在手上无标定方法的现状100

12.2 机器人平面视觉跟踪101

12.2.1 问题描述101

12.2.2 眼在手上机器人视觉跟踪问题分析102

12.2.3 视觉映射关系模型104

12.2.4 控制策略105

12.2.5 仿真结果107

12.2.6 视觉定位问题111

12.3 基于立体视觉的3-DOF无标定视觉跟踪112

12.3.1 视觉映射关系模型113

12.3.2 控制策略115

12.3.3 仿真结果117

第13章 眼在手上机器人全自由度视觉跟踪120

13.1 全自由度视觉跟踪问题描述120

13.2 全自由度视觉跟踪问题分析121

13.3 视觉映射关系模型122

13.4 控制策略123

13.5 模糊神经网络124

13.5.1 模糊系统与神经网络的比较124

13.5.2 一种新的模糊神经网络125

13.6 仿真结果128

第14章 视觉跟踪系统的性能分析与改进131

14.1 动态视觉控制与运动视觉控制131

14.2 眼固定构型132

14.2.1 系统离散域模型132

14.2.2 跟踪误差分析133

14.2.3 控制系统稳定性134

14.2.4 速度前馈控制器136

14.3 眼在手上构型平面视觉跟踪138

14.3.1 系统离散域模型138

14.3.2 跟踪误差分析139

14.3.3 控制系统稳定性140

14.3.4 加速度前馈控制器142

14.4 眼固定构型与眼在手上构型的比较144

第15章 实验研究145

15.1 系统结构145

15.1.1 机器人及其控制器145

15.1.2 CCD摄像机146

15.1.3 图像采集卡146

15.2 实验设计147

15.3 实验步骤149

15.4 实验结果149

本篇小结155

参考文献156

下篇 扩张状态观测器方法162

第16章 绪论162

16.1 引言162

16.2 本篇主要工作162

第17章 基于扩张状态观测的控制器理论及参数调整164

17.1 扩张状态观测器164

17.2 传统PID控制器结构分析165

17.3 自抗扰控制器165

17.3.1 非线性跟踪微分器166

17.3.2 非线性状态误差反馈控制律(NLSEF)167

17.3.3 自抗扰控制器(ADRC)实现形式168

17.3.4 自抗扰控制器适用对象169

17.4 自抗扰控制器的参数调整170

第18章 手眼协调系统建模及ADRC控制器设计174

18.1 系统建模174

18.1.1 摄像机模型174

18.1.2 摄像机参数175

18.2 系统模型176

18.3 控制器设计177

第19章 系统仿真研究181

19.1 全局固定摄像头无标定二维运动跟踪181

19.2 眼固定与眼在手上相结合的无标定二维运动跟踪184

19.3 固定双目无标定三维运动跟踪188

第20章 手眼协调控制器的稳定性分析190

20.1 全局固定单眼构型情况下控制器形式190

20.2 一阶跟踪微分器的收敛性分析190

20.3 二阶扩张状态观测器的收敛性分析191

20.4 整个控制器的收敛性能分析195

第21章 无标定机器人手眼协调实验研究196

21.1 机器人手眼协调实验系统描述196

21.1.1 机器人子系统197

21.1.2 机器人视觉子系统197

21.2 单眼固定无标定二维运动跟踪试验198

21.3 眼固定与眼在手上相结合的无标定二维手眼协调实验199

21.4 无标定三维手眼协调实验202

第22章 自抗扰控制器和雅可比矩阵在线辨识联合控制的手眼协调研究205

22.1 控制思想描述205

22.2 控制器设计205

22.3 仿真研究206

22.4 二维跟踪实验207

本篇小结209

参考文献211

热门推荐