图书介绍
神经计算科学 在细胞的水平上模拟脑功能PDF|Epub|txt|kindle电子书版本网盘下载
- 阮晓钢编著 著
- 出版社: 北京:国防工业出版社
- ISBN:7118044121
- 出版时间:2006
- 标注页数:750页
- 文件大小:45MB
- 文件页数:779页
- 主题词:人工神经元网络-计算
PDF下载
下载说明
神经计算科学 在细胞的水平上模拟脑功能PDF格式电子书版下载
下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!
(文件页数 要大于 标注页数,上中下等多册电子书除外)
注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具
图书目录
第1章 概述1
1.1 什么是神经计算1
1.1.1 计算与计算的工具1
1.1.2 神经计算与神经计算模型2
1.1.3 神经计算与人工智能3
1.1.4 神经计算的目标4
1.2 为什么研究神经计算5
1.2.1 挑战符号计算和专家系统5
1.2.2 挑战编程计算和Von Neumann机8
1.2.3 Edmonds标准和Church论断14
1.3 神经计算的特性16
1.3.1 面向神经元(Oriented-Neuron)16
1.3.2 联结性(Connectivity)17
1.3.3 分布效应(Distributed Effect)19
1.3.4 并行效应(Parallel Effect)20
1.3.5 容错效应(Fault-Tolerance Effect)21
1.3.6 集体效应(Collective Effect)22
1.3.7 记忆效应(Memory Effect)24
1.3.8 自组织效应(Self-Organizing Effect)26
1.4 神经计算科学的发展历程28
1.4.1 早期(—1970年)29
1.4.2 休眠期(1970年—1980年)30
1.4.3 复苏期(1980年—1990年)32
1.4.4 高潮期(1990年—)34
1.5 阅读指南36
第2章 神经计算的生理学基础39
引言39
2.1 生物神经系统概貌39
2.1.1 人脑与神经系统40
2.1.2 反射弧:最基本的神经系统42
2.2 生物神经元45
2.2.1 神经细胞的形态特征46
2.2.2 神经细胞的结构特征47
2.2.3 神经细胞的功能特征48
2.3 神经冲动51
2.3.1 膜电位及其测量51
2.3.2 静息电位与钾离子学说53
2.3.3 动作电位与钠-钾离子学说56
2.4 细胞膜传导61
2.4.1 神经冲动的膜传导性质61
2.4.2 膜传导的离子学说63
2.5 突触与突触传导65
2.5.1 突触66
2.5.2 突触传导69
2.6 生物神经网络71
2.6.1 神经细胞基本的互联形式71
2.6.2 神经细胞的抑制性联结75
2.6.3 神经细胞群之间的联结78
2.6.4 反射弧中的神经网络80
2.7 学习和记忆的神经机制81
2.7.1 陈述性记忆和过程性记忆81
2.7.2 三级记忆模型82
2.7.3 基于刺激和反应的学习87
2.7.4 神经组织的可塑性90
章结91
第3章 神经计算的元素——人工神经元94
引言94
3.1.1 Lapicque神经细胞模型95
3.1 神经细胞模型95
3.1.2 Hodgkin-Huxley神经细胞模型97
3.1.3 Morris-Lecar神经细胞模型99
3.1.4 GENESYS电缆模型101
3.2 人工神经元的定义102
3.2.1 漏电积分器与神经元102
3.2.2 概念模型定义104
3.2.3 概念模型意义下的Lapicque模型105
3.3 人工神经元解析106
3.3.1 人工神经元的结构特征107
3.3.2 人工神经元的“整合—激发”108
3.3.3 人工神经元的记忆和学习111
3.4 人工神经元的归纳112
3.4.1 动态人工神经元112
3.4.2 静态人工神经元113
3.4.3 阈值与联系效率的等效性115
章结117
第4章 神经计算的拓扑——人工神经网络119
引言119
4.1 神经网络与图论120
4.1.1 图的基本概念120
4.1.2 赋权图129
4.1.3 神经网络图132
4.2 神经系统的概念模型136
4.2.1 神经系统概念模型的定义136
4.2.2 神经系统概念模型的结构和功能138
4.2.3 概念模型意义下的前馈型神经网络141
4.2.4 概念模型意义下的反馈型神经网络144
4.3 神经计算模型的复杂性145
4.3.1 结构复杂性146
4.3.2 算法复杂性150
4.4 神经计算模型的并行度151
章结152
第5章 神经计算的组织——人工神经系统的学习机制154
引言154
5.1 脑与自组织155
5.1.1 脑的形态与自组织156
5.1.2 脑的模式与自组织158
5.1.3 脑的神经线路结构与自组织159
5.2 信息系统与广义自组织160
5.2.1 系统160
5.2.2 信息系统162
5.2.3 自组织系统163
5.2.4 系统的广义自组织概念165
5.2.5 人工神经系统的广义自组织特征166
5.3 熵与信息和自组织167
5.3.1 熵与热力学第二定律167
5.3.2 Boltzmann熵与系统组织程度168
5.3.3 Maxwell妖精与自组织170
5.3.4 信息与统计熵和信息熵172
5.3.5 信息与系统的组织程度174
5.4 神经计算与信息熵和自组织175
5.4.1 信息熵175
5.4.2 信息量176
5.4.3 神经计算与能量179
5.4.4 神经计算与自组织180
5.4.5 神经计算的自组织示例183
5.5.1 监督学习机制186
5.5 神经计算与学习机制186
5.5.2 非监督学习机制188
章结190
第6章 Hebb学习191
引言191
6.1 Hebb突触与Hebb猜想192
6.2 形式化的Hebb猜想:Hebb学习律195
6.2.1 经典的Hebb学习律195
6.2.2 具有遗忘机制的Hebb学习律197
6.2.3 具有突触时延机制的Hebb学习律197
6.2.4 连续时间的Hebb学习律198
6.3 Hebb学习律的发展200
6.3.1 突触抑制的Hebb学习律200
6.3.2 激励强化的Hebb学习律202
6.3.3 有界联系效率的Hebb学习律203
6.4 反Hebb学习206
6.4.1 线性反Hebb学习律206
6.4.2 侧抑制中的反Hebb突触207
6.4.3 Hebb与反Hebb突触的对立统一关系208
6.5 Pavlov实验与Hebb突触修饰210
6.5.1 Pavlov实验210
6.5.2 Pavlov实验模型210
6.5.3 Pavlov实验与Hebb学习212
6.6 Hebb学习与竞争学习模型213
6.6.1 竞争学习213
6.6.2 竞争模型214
6.6.3 竞争算法215
6.6.4 竞争自组织过程中的Hebb突触修饰216
6.7.1 联想记忆217
6.7 Hebb学习与联想记忆模型217
6.7.2 Hebb学习与自联想记忆模型219
6.7.3 Hebb学习与异联想记忆模型221
6.8 Hebb学习与强化学习模型223
6.8.1 学习与强化223
6.8.2 强化学习机制224
6.8.3 强化学习中的Hebb突触修饰226
章结230
第7章 McCulloch-Pitts模型——第一个人工神经系统232
引言232
7.1 McCulloch-Pitts神经元233
7.1.1 McCulloch和Pitts的工作基础233
7.1.2 MCP神经元的定义234
7.1.3 MCP神经元的结构特征235
7.1.4 MCP神经元的功能特征236
7.2 McCulloch-Pitts神经网络237
7.2.1 MCP模型的定义238
7.2.2 MCP模型的联结238
7.2.3 MCP模型示例:MCP时序电路240
7.3 McCulloch-Pitts计算242
7.3.1 MCP计算的基本要素242
7.3.2 MCP计算的实现问题246
7.3.3 MCP逻辑运算系统248
7.4 McCulloch-Pitts模型的等效系统251
7.4.1 赋权联结251
7.4.2 绝对抑制与相对抑制252
7.5 McCulloch-Pitts模型与有限状态机254
7.5.1 动态MCP模型及其状态254
7.5.2 有限状态自动机:MCP模型的推广257
7.5.3 Arbib模型259
章结262
第8章 感知器263
引言263
8.1 感知器的思想基础264
8.2 感知器的体系结构和计算机制267
8.2.1 感知器的定义268
8.2.2 PRC神经元269
8.2.3 感知器的体系结构272
8.2.4 原始的感知器274
8.3 感知器的实现和自组织277
8.3.1 感知器的实现问题278
8.3.2 感知器实现的途径:记忆和学习280
8.3.3 感知器学习规则283
8.3.4 感知器学习实例:瓷砖质量检测286
8.4 感知器的记忆和学习特性分析289
8.4.1 感知器学习的收敛性问题289
8.4.2 感知器记忆容量问题291
8.5 感知器与线性不可分问题294
8.5.1 线性可分性(Linear Separability)概念294
8.5.2 第一类线性不可分问题297
8.5.3 第二类线性不可分问题298
8.6 多层感知器:突破线性可分局限性299
章结302
第9章 自适应线性神经元网络304
引言304
9.1 ADALINE网络的体系结构和计算机制305
9.1.1 ADALINE网络的定义305
9.1.2 ALN神经元307
9.1.3 ADALINE网络的体系结构309
9.1.4 ADALINE网络的等效结构310
9.2 Widrow-Hoff学习311
9.2.1 均方误差函数及其极小化问题311
9.2.2 LMS学习算法314
9.2.3 增强型LMS学习算法316
9.2.4 ADALINE实现一:“苹果—橘子”分类问题317
9.2.5 ADALINE实现二:T-G-F字符识别问题321
9.3 ADALINE网络特性分析325
9.3.1 LMS学习算法的收敛性325
9.3.2 学习率的选择328
9.3.3 记忆容量问题331
9.3.4 模式划分能力与决策边界332
9.4 ADALINE网络与宇宙飞行器姿态控制335
9.4.1 空间飞行器的姿态控制问题335
9.4.2 ADALINE控制器设计337
9.4.3 基于LMS算法的学习控制律338
9.4.4 学习控制的仿真实验339
章结342
第10章 误差往回传播网络343
引言343
10.1 BP网络的体系结构和计算机制344
10.1.1 BP网络的定义344
10.1.2 BPN神经元346
10.1.3 BP网络的结构349
10.1.4 等效BP网络351
10.2 Back-Propagation(BP)学习354
10.2.1 复合函数求导法则与误差往回传播354
10.2.2 BP网络的性能函数356
10.2.3 BPN神经元的局域误差359
10.2.4 BP算法:基于Widrow性能函数361
10.2.5 BP算法:基于Rumelhart性能函数365
10.3 BP网络与非线性映射的表达367
10.3.1 BP网络的表达与实现问题368
10.3.2 BP网络表达能力分析368
10.3.3 示例:一个非线性映射的BP表达373
10.3.4 BP学习的收敛性及其局部极小问题375
10.3.5 BP学习的泛化能力380
10.4 BP网络的记忆容量问题389
10.4.1 BP网络记忆容量的定义389
10.4.2 BP网络记忆容量的分析391
10.4.3 BP网络记忆容量的逆问题393
10.4.4 BP网络记忆容量的扩充394
10.5 BP算法的改进396
10.5.1 动量BP算法396
10.5.2 自适应BP算法398
10.5.3 共轭梯度BP算法399
10.5.4 Levenberg-Marquardt算法404
10.6 BP网络与机器人环形巡航409
10.6.1 机器人Robot 01及其环形巡航任务409
10.6.2 Robot 01的脑:一个BP网络411
10.6.3 Robot 01仿真实验413
章结415
第11章 小脑算术计算模型——CMAC神经网络416
引言416
11.1 小脑与Albus理论417
11.1.1 小脑是怎样组织和工作的417
11.1.2 Marr和Albus的理论419
11.1.3 Albus用感知器注解小脑理论421
11.2.1 CMAC的定义425
11.2 CMAC的体系结构和运行机制425
11.2.2 CMAC中的神经元428
11.2.3 CMAC模型的结构解析432
11.2.4 一个一维的CMAC模型434
11.2.5 一个二维的CMAC模型435
11.2.6 CMAC的物理存储器与散列编码436
11.2.7 CMAC的信息流程439
11.3 CMAC学习439
11.3.1 CMAC学习:LMS学习的特例440
11.3.2 CMAC性能函数和学习算法442
11.3.3 示例:CMAC学习与异或逻辑实现443
11.3.4 CMAC学习的收敛性446
11.4 CMAC模型的性能分析448
11.4.1 CMAC的局域泛化449
11.4.2 CMAC模型与线性不可分问题451
11.4.3 CMAC模型的记忆容量问题453
11.4.4 CMAC的数据冲撞问题454
11.5 CMAC模型与机器人手眼协调控制455
11.5.1 机器人Robot 02及其手眼协调控制问题455
11.5.2 Robot 02的人工小脑457
11.5.3 Robot 02仿真实验459
章结459
第12章 径向基函数网络461
引言461
12.1 RBF插值计算462
12.1.1 插值问题462
12.1.2 Cover定理与模式可分性463
12.1.3 基函数—正规化—径向基函数465
12.2.1 插值计算与神经计算468
12.2 RBF神经计算468
12.2.2 RBF网络的定义469
12.2.3 RBF网络的元素471
12.2.4 RBF网络的拓扑474
12.2.5 RBF中心向量的选择476
12.2.6 RBF学习477
12.2.7 全局RBF学习481
12.3 RBF网络的性能分析483
12.3.1 RBF网络的函数逼近能力483
12.3.2 RBF学习的收敛和泛化484
12.3.3 RBF网络的记忆容量问题486
12.4 RBF网络与摘水果的机器人487
12.4.1 摘水果的机器人:Robot 03487
12.4.2 Robot 03的运动规划问题488
12.4.3 Robot 03的脑:多RBF网络489
12.4.4 RBFMP的学习和训练490
12.4.5 Robot 03仿真实验491
章结492
第13章 Hopfield网络493
引言493
13.1 Hopfield网络的体系结构和计算机制494
13.1.1 DHN网络的定义494
13.1.2 DHN神经元495
13.1.3 DHN网络的结构解析498
13.1.4 DHN网络的工作模式500
13.2 Hopfield网络的稳定性及其能量函数501
13.2.1 动力学系统501
13.2.2 Lyapunov稳定性定理与Lyapunov函数506
13.2.3 DHN网络的能量函数507
13.2.4 DHN网络的稳定性509
13.2.5 DHN网络的联结形式与稳定状态512
13.3 Hopfield网络的设计与学习514
13.3.1 DHN网络的设计问题514
13.3.2 DHN网络与Hebb学习515
13.3.3 DHN网络的伪逆投影设计法517
13.3.4 DHN网络的吸引子和吸引域518
13.3.5 DHN网络的记忆容量问题522
13.4 连续型Hopfield网络525
13.4.1 CHN网络的数学描述526
13.4.2 CHN网络的稳定性526
13.4.3 CHN神经电路的实现528
13.5 双向联想记忆模型528
13.5.1 BAM模型的数学描述529
13.5.2 BAM模型的结构解析530
13.5.3 BAM模型设计532
13.5.4 BAM模型的能量函数与稳定性533
13.6 Hopfield网络与联想记忆534
13.6.1 Hamming空间与线性联想记忆535
13.6.2 Hopfield网络与影像记忆536
13.6.3 BAM模型与“血型—颜色”联想538
13.7 Hopfield网络与优化计算540
13.7.1 数值编码与数值计算541
13.7.2 动态系统的最优控制问题542
13.7.3 组合优化:TSP问题544
13.8 Hopfield网络与Wiener机器蠕虫548
13.8.1 Wiener机器蠕虫548
13.8.2 Wiener机器蠕虫的实现549
13.8.3 M.Worm的脑:一个2阶CHN网络550
章结551
第14章 Boltzmann机553
引言553
14.1 统计物理学与能量和信息554
14.1.1 Boltzmann-Gibbs分布与随机动态554
14.1.2 自由能与熵555
14.1.3 退火(Annealing)556
14.1.4 熵与信息557
14.2 Boltzmann机的体系结构558
14.2.1 Boltzmann机的定义558
14.2.2 BLT神经元559
14.2.3 Boltzmann机的一般结构563
14.2.4 Boltzmann机的I/O结构564
14.3 Boltzmann机的运行机制564
14.3.1 Mante Carlo方法565
14.3.2 Metropolis算法567
14.3.3 模拟退火算法568
14.3.4 Boltzmann机的工作算法570
14.3.5 Boltzmann机的平衡状态与稳定性571
14.4 Boltzmann学习573
14.4.1 基于极大似然原理的Boltzmann学习573
14.4.2 相对信息熵意义下的Boltzmann学习576
14.4.3 Boltzmann机I/O结构中的学习578
14.5 平均场理论与确定型Boltzmann机579
14.5.1 平均场理论579
14.5.2 确定型和连续型Boltzmann机580
14.5.3 平均场学习算法581
14.6 Boltzmann机与计算582
14.6.1 Boltzmann机学习XOR逻辑582
14.6.2 Boltzmann机与联想记忆584
14.6.3 Boltzmann机与优化计算588
14.7 Boltzmann机与Walter机器龟591
14.7.1 Walter机器龟591
14.7.2 M.Docilis新的实现593
14.7.3 M.Docilis“感知—行动”机能的形成595
章结596
第15章 自组织特征图597
引言597
15.1 SOM图的神经生理学意义598
15.1.1 大脑皮质及其二维特征599
15.1.2 侧抑制联结与竞争600
15.1.3 生物神经系统中的SOM图601
15.2 SOM图的体系结构603
15.2.1 SOM图的定义603
15.2.2 SOM神经元605
15.2.3 SOM图的一般结构606
15.3 SOM图的运行机制608
15.3.1 SOM图竞争机制608
15.3.2 SOM图协同机制609
15.3.3 SOM图自适应机制611
15.3.4 SOM图自组织运行算法612
15.3.5 SOM图的功能和特性614
15.3.6 时间连续的SOM图616
15.4 SOM图与拓扑映射617
15.4.1 表达拓扑特征映射关系617
15.4.2 压缩数据空间维数620
15.4.3 “银河系星体分布”特征图621
15.5 SOM图与TSP问题622
15.5.1 SOM图求解TSP问题的基本原理622
15.5.2 SOM环生长算法623
15.5.3 SOM环求解TSP问题624
15.6 SOM图与机器人路径规划625
15.6.1 巡视障碍环境的机器人:Robot 04625
15.6.2 学习环境地形的SOM图626
15.6.3 基于SOM图进行路径规划627
章结628
第16章 自适应谐振理论与ART系统629
引言629
16.1 生物视神经系统的启示630
16.1.1 眼与视网膜及视觉通道630
16.1.2 神经节细胞的接收域631
16.1.3 感知和注意及视觉信息流632
16.1.4 视觉范化与亮度对比633
16.2 Grossberg网络:模拟视觉系统634
16.2.1 GBN网络的定义635
16.2.2 GBN神经元637
16.2.3 GBN网络的结构解析640
16.2.4 GBN网络感受层:输入范化641
16.2.5 GBN网络反应层:对比增强642
16.2.6 GBN学习:一种竞争学习机制645
16.2.7 GBN网络与万能编码647
16.3 自适应谐振理论648
16.3.1 S P二难问题648
16.3.2 生物神经系统中的自适应谐振现象649
16.3.3 ART结构651
16.3.4 ART系统中的模式匹配652
16.3.5 自稳定的ART学习654
16.3.6 增益控制与2/3规则656
16.4.1 ART1系统的定义657
16.4 自适应谐振理论的实现之一:ART1657
16.4.2 ART1神经元660
16.4.3 ART1系统的结构解析663
16.4.4 ART1系统的注意子系统664
16.4.5 ART1系统的定向子系统669
16.4.6 ART1系统的学习子系统672
16.4.7 ART1系统的等效实现675
16.4.8 ART1系统的神经计算功能677
16.5 自适应谐振理论的实现之二:ART2681
16.5.1 ART2系统的定义682
16.5.2 ART2系统的体系结构684
16.5.3 ART2系统的注意子系统686
16.5.4 ART2系统的定向子系统687
16.5.5 ART2系统的学习子系统689
16.5.6 ART2系统的等效实现690
16.5.7 ART2系统的神经计算功能692
16.6 ART系统与机器人的“感知—行动”694
16.6.1 机器人Robot 05与迷宫694
16.6.2 Robot 05的人工脑696
16.6.3 Robot 05的仿真实验698
章结700
结束语 神经计算到底能做什么?702
C.1 Turing机与Church-Turing论断703
C.2 Turing机与Von Neumann机704
C.3 Turing机与神经计算705
C.4 神经计算机709
C.5 简略的回顾与展望711
参考文献714
附录 索引735