Skip to content

Commit 2526ca2

Browse files
committed
Updates dl/introduction/ji-ben-gai-nian.md
Auto commit by GitBook Editor
1 parent 733ffbd commit 2526ca2

File tree

10 files changed

+9
-9
lines changed

10 files changed

+9
-9
lines changed

assets/dlnet2.png

116 KB
Loading

assets/dlnet22.png

160 KB
Loading

assets/dlnet23.png

129 KB
Loading

assets/dlnet24.png

131 KB
Loading

assets/dlnet3.png

112 KB
Loading

assets/dlnet4.png

112 KB
Loading

assets/dlnet5.png

144 KB
Loading

assets/dlnet6.png

20.5 KB
Loading

assets/simplenet.png

72.5 KB
Loading

dl/introduction/ji-ben-gai-nian.md

+9-9
Original file line numberDiff line numberDiff line change
@@ -6,7 +6,7 @@
66

77
在原来MP模型的“输入”位置添加神经元节点,标志其为“输入单元”。其余不变,于是我们就有了下图:从本图开始,我们将权值w1, w2, w3写到“连接线”的中间。
88

9-
![](http://img.blog.csdn.net/20160114193502846)
9+
![](/assets/simplenet.png)
1010
图1 单层神经网络
1111

1212
在“感知器”中,有两个层次。分别是输入层和输出层。输入层里的“输入单元”只负责传输数据,不做计算。输出层里的“输出单元”则需要对前面一层的输入进行计算。
@@ -17,7 +17,7 @@
1717

1818
下图显示了带有两个输出单元的单层神经网络,其中输出单元z1的计算公式如下图。
1919

20-
![](http://img.blog.csdn.net/20160114193621726 "神经网络")
20+
![](/assets/dlnet2.png)
2121

2222
```
2323
图2 单层神经网络\(Z1\)
@@ -27,7 +27,7 @@
2727

2828
我们已知一个神经元的输出可以向多个神经元传递,因此z2的计算公式如下图。
2929

30-
![](http://img.blog.csdn.net/20160114193659368 "神经网络")
30+
![](/assets/dlnet3.png)
3131

3232
```
3333
图3 单层神经网络\(Z2\)
@@ -37,7 +37,7 @@
3737

3838
整个网络的输出如下图。
3939

40-
![](http://img.blog.csdn.net/20160114193852865 "神经网络")
40+
![](/assets/dlnet4.png)
4141

4242
```
4343
图4 单层神经网络\(Z1和Z2\)
@@ -49,7 +49,7 @@
4949

5050
例如,w1,2代表后一层的第1个神经元与前一层的第2个神经元的连接的权值(这种标记方式参照了Andrew Ng的课件)。根据以上方法标记,我们有了下图。
5151

52-
![](http://img.blog.csdn.net/20160114193834036 "神经网络")
52+
![](/assets/dlnet5.png)
5353

5454
```
5555
图5 单层神经网络\(扩展\)
@@ -75,7 +75,7 @@ g\(W \* a\) = z;
7575

7676
下图显示了在二维平面中划出决策分界的效果,也就是感知器的分类效果。
7777

78-
![](http://img.blog.csdn.net/20160114193946318 "神经网络")
78+
![](/assets/dlnet6.png)
7979

8080
```
8181
图6 单层神经网络(决策分界)
@@ -91,15 +91,15 @@ g\(W \* a\) = z;
9191

9292
例如ax\(y\)代表第y层的第x个节点。z1,z2变成了a1\(2\),a2\(2\)。下图给出了a1\(2\),a2\(2\)的计算公式。
9393

94-
![](http://img.blog.csdn.net/20160114194120339 "神经网络")
94+
![](/assets/dlnet22.png)
9595

9696
```
9797
图7 两层神经网络(中间层计算)
9898
```
9999

100100
计算最终输出z的方式是利用了中间层的a1\(2\),a2\(2\)和第二个权值矩阵计算得到的,如下图。
101101

102-
![](http://img.blog.csdn.net/20160114194215782 "神经网络")
102+
![](/assets/dlnet23.png)
103103

104104
```
105105
图8 两层神经网络(输出层计算)
@@ -109,7 +109,7 @@ g\(W \* a\) = z;
109109

110110
我们使用向量和矩阵来表示层次中的变量。a\(1\),a\(2\),z是网络中传输的向量数据。W\(1\)和W\(2\)是网络的矩阵参数。如下图。
111111

112-
![](http://img.blog.csdn.net/20160114194251724 "神经网络")
112+
![](/assets/dlnet24.png)
113113

114114
```
115115
图9 两层神经网络(向量形式)

0 commit comments

Comments
 (0)