图书介绍

神经计算科学 在细胞的水平上模拟脑功能PDF|Epub|txt|kindle电子书版本网盘下载

神经计算科学 在细胞的水平上模拟脑功能
  • 阮晓钢编著 著
  • 出版社: 北京:国防工业出版社
  • ISBN:7118044121
  • 出版时间:2006
  • 标注页数:750页
  • 文件大小:45MB
  • 文件页数:779页
  • 主题词:人工神经元网络-计算

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

神经计算科学 在细胞的水平上模拟脑功能PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

第1章 概述1

1.1 什么是神经计算1

1.1.1 计算与计算的工具1

1.1.2 神经计算与神经计算模型2

1.1.3 神经计算与人工智能3

1.1.4 神经计算的目标4

1.2 为什么研究神经计算5

1.2.1 挑战符号计算和专家系统5

1.2.2 挑战编程计算和Von Neumann机8

1.2.3 Edmonds标准和Church论断14

1.3 神经计算的特性16

1.3.1 面向神经元(Oriented-Neuron)16

1.3.2 联结性(Connectivity)17

1.3.3 分布效应(Distributed Effect)19

1.3.4 并行效应(Parallel Effect)20

1.3.5 容错效应(Fault-Tolerance Effect)21

1.3.6 集体效应(Collective Effect)22

1.3.7 记忆效应(Memory Effect)24

1.3.8 自组织效应(Self-Organizing Effect)26

1.4 神经计算科学的发展历程28

1.4.1 早期(—1970年)29

1.4.2 休眠期(1970年—1980年)30

1.4.3 复苏期(1980年—1990年)32

1.4.4 高潮期(1990年—)34

1.5 阅读指南36

第2章 神经计算的生理学基础39

引言39

2.1 生物神经系统概貌39

2.1.1 人脑与神经系统40

2.1.2 反射弧:最基本的神经系统42

2.2 生物神经元45

2.2.1 神经细胞的形态特征46

2.2.2 神经细胞的结构特征47

2.2.3 神经细胞的功能特征48

2.3 神经冲动51

2.3.1 膜电位及其测量51

2.3.2 静息电位与钾离子学说53

2.3.3 动作电位与钠-钾离子学说56

2.4 细胞膜传导61

2.4.1 神经冲动的膜传导性质61

2.4.2 膜传导的离子学说63

2.5 突触与突触传导65

2.5.1 突触66

2.5.2 突触传导69

2.6 生物神经网络71

2.6.1 神经细胞基本的互联形式71

2.6.2 神经细胞的抑制性联结75

2.6.3 神经细胞群之间的联结78

2.6.4 反射弧中的神经网络80

2.7 学习和记忆的神经机制81

2.7.1 陈述性记忆和过程性记忆81

2.7.2 三级记忆模型82

2.7.3 基于刺激和反应的学习87

2.7.4 神经组织的可塑性90

章结91

第3章 神经计算的元素——人工神经元94

引言94

3.1.1 Lapicque神经细胞模型95

3.1 神经细胞模型95

3.1.2 Hodgkin-Huxley神经细胞模型97

3.1.3 Morris-Lecar神经细胞模型99

3.1.4 GENESYS电缆模型101

3.2 人工神经元的定义102

3.2.1 漏电积分器与神经元102

3.2.2 概念模型定义104

3.2.3 概念模型意义下的Lapicque模型105

3.3 人工神经元解析106

3.3.1 人工神经元的结构特征107

3.3.2 人工神经元的“整合—激发”108

3.3.3 人工神经元的记忆和学习111

3.4 人工神经元的归纳112

3.4.1 动态人工神经元112

3.4.2 静态人工神经元113

3.4.3 阈值与联系效率的等效性115

章结117

第4章 神经计算的拓扑——人工神经网络119

引言119

4.1 神经网络与图论120

4.1.1 图的基本概念120

4.1.2 赋权图129

4.1.3 神经网络图132

4.2 神经系统的概念模型136

4.2.1 神经系统概念模型的定义136

4.2.2 神经系统概念模型的结构和功能138

4.2.3 概念模型意义下的前馈型神经网络141

4.2.4 概念模型意义下的反馈型神经网络144

4.3 神经计算模型的复杂性145

4.3.1 结构复杂性146

4.3.2 算法复杂性150

4.4 神经计算模型的并行度151

章结152

第5章 神经计算的组织——人工神经系统的学习机制154

引言154

5.1 脑与自组织155

5.1.1 脑的形态与自组织156

5.1.2 脑的模式与自组织158

5.1.3 脑的神经线路结构与自组织159

5.2 信息系统与广义自组织160

5.2.1 系统160

5.2.2 信息系统162

5.2.3 自组织系统163

5.2.4 系统的广义自组织概念165

5.2.5 人工神经系统的广义自组织特征166

5.3 熵与信息和自组织167

5.3.1 熵与热力学第二定律167

5.3.2 Boltzmann熵与系统组织程度168

5.3.3 Maxwell妖精与自组织170

5.3.4 信息与统计熵和信息熵172

5.3.5 信息与系统的组织程度174

5.4 神经计算与信息熵和自组织175

5.4.1 信息熵175

5.4.2 信息量176

5.4.3 神经计算与能量179

5.4.4 神经计算与自组织180

5.4.5 神经计算的自组织示例183

5.5.1 监督学习机制186

5.5 神经计算与学习机制186

5.5.2 非监督学习机制188

章结190

第6章 Hebb学习191

引言191

6.1 Hebb突触与Hebb猜想192

6.2 形式化的Hebb猜想:Hebb学习律195

6.2.1 经典的Hebb学习律195

6.2.2 具有遗忘机制的Hebb学习律197

6.2.3 具有突触时延机制的Hebb学习律197

6.2.4 连续时间的Hebb学习律198

6.3 Hebb学习律的发展200

6.3.1 突触抑制的Hebb学习律200

6.3.2 激励强化的Hebb学习律202

6.3.3 有界联系效率的Hebb学习律203

6.4 反Hebb学习206

6.4.1 线性反Hebb学习律206

6.4.2 侧抑制中的反Hebb突触207

6.4.3 Hebb与反Hebb突触的对立统一关系208

6.5 Pavlov实验与Hebb突触修饰210

6.5.1 Pavlov实验210

6.5.2 Pavlov实验模型210

6.5.3 Pavlov实验与Hebb学习212

6.6 Hebb学习与竞争学习模型213

6.6.1 竞争学习213

6.6.2 竞争模型214

6.6.3 竞争算法215

6.6.4 竞争自组织过程中的Hebb突触修饰216

6.7.1 联想记忆217

6.7 Hebb学习与联想记忆模型217

6.7.2 Hebb学习与自联想记忆模型219

6.7.3 Hebb学习与异联想记忆模型221

6.8 Hebb学习与强化学习模型223

6.8.1 学习与强化223

6.8.2 强化学习机制224

6.8.3 强化学习中的Hebb突触修饰226

章结230

第7章 McCulloch-Pitts模型——第一个人工神经系统232

引言232

7.1 McCulloch-Pitts神经元233

7.1.1 McCulloch和Pitts的工作基础233

7.1.2 MCP神经元的定义234

7.1.3 MCP神经元的结构特征235

7.1.4 MCP神经元的功能特征236

7.2 McCulloch-Pitts神经网络237

7.2.1 MCP模型的定义238

7.2.2 MCP模型的联结238

7.2.3 MCP模型示例:MCP时序电路240

7.3 McCulloch-Pitts计算242

7.3.1 MCP计算的基本要素242

7.3.2 MCP计算的实现问题246

7.3.3 MCP逻辑运算系统248

7.4 McCulloch-Pitts模型的等效系统251

7.4.1 赋权联结251

7.4.2 绝对抑制与相对抑制252

7.5 McCulloch-Pitts模型与有限状态机254

7.5.1 动态MCP模型及其状态254

7.5.2 有限状态自动机:MCP模型的推广257

7.5.3 Arbib模型259

章结262

第8章 感知器263

引言263

8.1 感知器的思想基础264

8.2 感知器的体系结构和计算机制267

8.2.1 感知器的定义268

8.2.2 PRC神经元269

8.2.3 感知器的体系结构272

8.2.4 原始的感知器274

8.3 感知器的实现和自组织277

8.3.1 感知器的实现问题278

8.3.2 感知器实现的途径:记忆和学习280

8.3.3 感知器学习规则283

8.3.4 感知器学习实例:瓷砖质量检测286

8.4 感知器的记忆和学习特性分析289

8.4.1 感知器学习的收敛性问题289

8.4.2 感知器记忆容量问题291

8.5 感知器与线性不可分问题294

8.5.1 线性可分性(Linear Separability)概念294

8.5.2 第一类线性不可分问题297

8.5.3 第二类线性不可分问题298

8.6 多层感知器:突破线性可分局限性299

章结302

第9章 自适应线性神经元网络304

引言304

9.1 ADALINE网络的体系结构和计算机制305

9.1.1 ADALINE网络的定义305

9.1.2 ALN神经元307

9.1.3 ADALINE网络的体系结构309

9.1.4 ADALINE网络的等效结构310

9.2 Widrow-Hoff学习311

9.2.1 均方误差函数及其极小化问题311

9.2.2 LMS学习算法314

9.2.3 增强型LMS学习算法316

9.2.4 ADALINE实现一:“苹果—橘子”分类问题317

9.2.5 ADALINE实现二:T-G-F字符识别问题321

9.3 ADALINE网络特性分析325

9.3.1 LMS学习算法的收敛性325

9.3.2 学习率的选择328

9.3.3 记忆容量问题331

9.3.4 模式划分能力与决策边界332

9.4 ADALINE网络与宇宙飞行器姿态控制335

9.4.1 空间飞行器的姿态控制问题335

9.4.2 ADALINE控制器设计337

9.4.3 基于LMS算法的学习控制律338

9.4.4 学习控制的仿真实验339

章结342

第10章 误差往回传播网络343

引言343

10.1 BP网络的体系结构和计算机制344

10.1.1 BP网络的定义344

10.1.2 BPN神经元346

10.1.3 BP网络的结构349

10.1.4 等效BP网络351

10.2 Back-Propagation(BP)学习354

10.2.1 复合函数求导法则与误差往回传播354

10.2.2 BP网络的性能函数356

10.2.3 BPN神经元的局域误差359

10.2.4 BP算法:基于Widrow性能函数361

10.2.5 BP算法:基于Rumelhart性能函数365

10.3 BP网络与非线性映射的表达367

10.3.1 BP网络的表达与实现问题368

10.3.2 BP网络表达能力分析368

10.3.3 示例:一个非线性映射的BP表达373

10.3.4 BP学习的收敛性及其局部极小问题375

10.3.5 BP学习的泛化能力380

10.4 BP网络的记忆容量问题389

10.4.1 BP网络记忆容量的定义389

10.4.2 BP网络记忆容量的分析391

10.4.3 BP网络记忆容量的逆问题393

10.4.4 BP网络记忆容量的扩充394

10.5 BP算法的改进396

10.5.1 动量BP算法396

10.5.2 自适应BP算法398

10.5.3 共轭梯度BP算法399

10.5.4 Levenberg-Marquardt算法404

10.6 BP网络与机器人环形巡航409

10.6.1 机器人Robot 01及其环形巡航任务409

10.6.2 Robot 01的脑:一个BP网络411

10.6.3 Robot 01仿真实验413

章结415

第11章 小脑算术计算模型——CMAC神经网络416

引言416

11.1 小脑与Albus理论417

11.1.1 小脑是怎样组织和工作的417

11.1.2 Marr和Albus的理论419

11.1.3 Albus用感知器注解小脑理论421

11.2.1 CMAC的定义425

11.2 CMAC的体系结构和运行机制425

11.2.2 CMAC中的神经元428

11.2.3 CMAC模型的结构解析432

11.2.4 一个一维的CMAC模型434

11.2.5 一个二维的CMAC模型435

11.2.6 CMAC的物理存储器与散列编码436

11.2.7 CMAC的信息流程439

11.3 CMAC学习439

11.3.1 CMAC学习:LMS学习的特例440

11.3.2 CMAC性能函数和学习算法442

11.3.3 示例:CMAC学习与异或逻辑实现443

11.3.4 CMAC学习的收敛性446

11.4 CMAC模型的性能分析448

11.4.1 CMAC的局域泛化449

11.4.2 CMAC模型与线性不可分问题451

11.4.3 CMAC模型的记忆容量问题453

11.4.4 CMAC的数据冲撞问题454

11.5 CMAC模型与机器人手眼协调控制455

11.5.1 机器人Robot 02及其手眼协调控制问题455

11.5.2 Robot 02的人工小脑457

11.5.3 Robot 02仿真实验459

章结459

第12章 径向基函数网络461

引言461

12.1 RBF插值计算462

12.1.1 插值问题462

12.1.2 Cover定理与模式可分性463

12.1.3 基函数—正规化—径向基函数465

12.2.1 插值计算与神经计算468

12.2 RBF神经计算468

12.2.2 RBF网络的定义469

12.2.3 RBF网络的元素471

12.2.4 RBF网络的拓扑474

12.2.5 RBF中心向量的选择476

12.2.6 RBF学习477

12.2.7 全局RBF学习481

12.3 RBF网络的性能分析483

12.3.1 RBF网络的函数逼近能力483

12.3.2 RBF学习的收敛和泛化484

12.3.3 RBF网络的记忆容量问题486

12.4 RBF网络与摘水果的机器人487

12.4.1 摘水果的机器人:Robot 03487

12.4.2 Robot 03的运动规划问题488

12.4.3 Robot 03的脑:多RBF网络489

12.4.4 RBFMP的学习和训练490

12.4.5 Robot 03仿真实验491

章结492

第13章 Hopfield网络493

引言493

13.1 Hopfield网络的体系结构和计算机制494

13.1.1 DHN网络的定义494

13.1.2 DHN神经元495

13.1.3 DHN网络的结构解析498

13.1.4 DHN网络的工作模式500

13.2 Hopfield网络的稳定性及其能量函数501

13.2.1 动力学系统501

13.2.2 Lyapunov稳定性定理与Lyapunov函数506

13.2.3 DHN网络的能量函数507

13.2.4 DHN网络的稳定性509

13.2.5 DHN网络的联结形式与稳定状态512

13.3 Hopfield网络的设计与学习514

13.3.1 DHN网络的设计问题514

13.3.2 DHN网络与Hebb学习515

13.3.3 DHN网络的伪逆投影设计法517

13.3.4 DHN网络的吸引子和吸引域518

13.3.5 DHN网络的记忆容量问题522

13.4 连续型Hopfield网络525

13.4.1 CHN网络的数学描述526

13.4.2 CHN网络的稳定性526

13.4.3 CHN神经电路的实现528

13.5 双向联想记忆模型528

13.5.1 BAM模型的数学描述529

13.5.2 BAM模型的结构解析530

13.5.3 BAM模型设计532

13.5.4 BAM模型的能量函数与稳定性533

13.6 Hopfield网络与联想记忆534

13.6.1 Hamming空间与线性联想记忆535

13.6.2 Hopfield网络与影像记忆536

13.6.3 BAM模型与“血型—颜色”联想538

13.7 Hopfield网络与优化计算540

13.7.1 数值编码与数值计算541

13.7.2 动态系统的最优控制问题542

13.7.3 组合优化:TSP问题544

13.8 Hopfield网络与Wiener机器蠕虫548

13.8.1 Wiener机器蠕虫548

13.8.2 Wiener机器蠕虫的实现549

13.8.3 M.Worm的脑:一个2阶CHN网络550

章结551

第14章 Boltzmann机553

引言553

14.1 统计物理学与能量和信息554

14.1.1 Boltzmann-Gibbs分布与随机动态554

14.1.2 自由能与熵555

14.1.3 退火(Annealing)556

14.1.4 熵与信息557

14.2 Boltzmann机的体系结构558

14.2.1 Boltzmann机的定义558

14.2.2 BLT神经元559

14.2.3 Boltzmann机的一般结构563

14.2.4 Boltzmann机的I/O结构564

14.3 Boltzmann机的运行机制564

14.3.1 Mante Carlo方法565

14.3.2 Metropolis算法567

14.3.3 模拟退火算法568

14.3.4 Boltzmann机的工作算法570

14.3.5 Boltzmann机的平衡状态与稳定性571

14.4 Boltzmann学习573

14.4.1 基于极大似然原理的Boltzmann学习573

14.4.2 相对信息熵意义下的Boltzmann学习576

14.4.3 Boltzmann机I/O结构中的学习578

14.5 平均场理论与确定型Boltzmann机579

14.5.1 平均场理论579

14.5.2 确定型和连续型Boltzmann机580

14.5.3 平均场学习算法581

14.6 Boltzmann机与计算582

14.6.1 Boltzmann机学习XOR逻辑582

14.6.2 Boltzmann机与联想记忆584

14.6.3 Boltzmann机与优化计算588

14.7 Boltzmann机与Walter机器龟591

14.7.1 Walter机器龟591

14.7.2 M.Docilis新的实现593

14.7.3 M.Docilis“感知—行动”机能的形成595

章结596

第15章 自组织特征图597

引言597

15.1 SOM图的神经生理学意义598

15.1.1 大脑皮质及其二维特征599

15.1.2 侧抑制联结与竞争600

15.1.3 生物神经系统中的SOM图601

15.2 SOM图的体系结构603

15.2.1 SOM图的定义603

15.2.2 SOM神经元605

15.2.3 SOM图的一般结构606

15.3 SOM图的运行机制608

15.3.1 SOM图竞争机制608

15.3.2 SOM图协同机制609

15.3.3 SOM图自适应机制611

15.3.4 SOM图自组织运行算法612

15.3.5 SOM图的功能和特性614

15.3.6 时间连续的SOM图616

15.4 SOM图与拓扑映射617

15.4.1 表达拓扑特征映射关系617

15.4.2 压缩数据空间维数620

15.4.3 “银河系星体分布”特征图621

15.5 SOM图与TSP问题622

15.5.1 SOM图求解TSP问题的基本原理622

15.5.2 SOM环生长算法623

15.5.3 SOM环求解TSP问题624

15.6 SOM图与机器人路径规划625

15.6.1 巡视障碍环境的机器人:Robot 04625

15.6.2 学习环境地形的SOM图626

15.6.3 基于SOM图进行路径规划627

章结628

第16章 自适应谐振理论与ART系统629

引言629

16.1 生物视神经系统的启示630

16.1.1 眼与视网膜及视觉通道630

16.1.2 神经节细胞的接收域631

16.1.3 感知和注意及视觉信息流632

16.1.4 视觉范化与亮度对比633

16.2 Grossberg网络:模拟视觉系统634

16.2.1 GBN网络的定义635

16.2.2 GBN神经元637

16.2.3 GBN网络的结构解析640

16.2.4 GBN网络感受层:输入范化641

16.2.5 GBN网络反应层:对比增强642

16.2.6 GBN学习:一种竞争学习机制645

16.2.7 GBN网络与万能编码647

16.3 自适应谐振理论648

16.3.1 S P二难问题648

16.3.2 生物神经系统中的自适应谐振现象649

16.3.3 ART结构651

16.3.4 ART系统中的模式匹配652

16.3.5 自稳定的ART学习654

16.3.6 增益控制与2/3规则656

16.4.1 ART1系统的定义657

16.4 自适应谐振理论的实现之一:ART1657

16.4.2 ART1神经元660

16.4.3 ART1系统的结构解析663

16.4.4 ART1系统的注意子系统664

16.4.5 ART1系统的定向子系统669

16.4.6 ART1系统的学习子系统672

16.4.7 ART1系统的等效实现675

16.4.8 ART1系统的神经计算功能677

16.5 自适应谐振理论的实现之二:ART2681

16.5.1 ART2系统的定义682

16.5.2 ART2系统的体系结构684

16.5.3 ART2系统的注意子系统686

16.5.4 ART2系统的定向子系统687

16.5.5 ART2系统的学习子系统689

16.5.6 ART2系统的等效实现690

16.5.7 ART2系统的神经计算功能692

16.6 ART系统与机器人的“感知—行动”694

16.6.1 机器人Robot 05与迷宫694

16.6.2 Robot 05的人工脑696

16.6.3 Robot 05的仿真实验698

章结700

结束语 神经计算到底能做什么?702

C.1 Turing机与Church-Turing论断703

C.2 Turing机与Von Neumann机704

C.3 Turing机与神经计算705

C.4 神经计算机709

C.5 简略的回顾与展望711

参考文献714

附录 索引735

热门推荐