Noesworthy

逆伝播(Backward Propagation)ってなぁに

Neural Networks and Deep Learning

Backward Propagation 略して Backprop

Propagationは「広げていく」とか「増やしていく」っていう意味

挿木もPropagationっていうよぃ

Backpropのやり方

J(a,b,c)=3(a+bc)

みたいな関数があったとして

現時点の座標は

a=5

b=3

c=2

ここから、

aをちょっと動かしたらJがどうなるか

bをちょっと動かしたらJがどうなるか

cをちょっと動かしたらJがどうなるか

、を知りたい

u=bc

v=a+u

j=3v

と置きまして

j=3v だから

vをちょっと動かしたら

dJ/dv=3

で、Jは3倍動く

j=3(a+u) だから

aをちょっと動かしたら、チェーンルールで

dJ/da=(dJ/dv)(dv/da)=31=3

で3倍動く

同様にuも

dJ/du=(dJ/dv)(dv/du)=31=3

で3倍動く

u=bc だから

du/db=c=2

dJ/db=(dJ/du)(du/db)=32=6

で、bがちょっと動いたらJは6倍動く

同様に

du/dc=b=3

dJ/dc=(dJ/du)(du/dc)=33=9

で、cがちょっと動いたらJは9倍動く

まとめると、

aをちょっと動かしたらJは3倍うごく

bをちょっと動かしたらJは6倍うごく

cをちょっと動かしたらJは9倍うごく

というわけでJに対する影響度がわかる

#ai #math