Back to Annotated Deep Learning Paper Implementations

බරප්රමිතිකරණය

docs/si/normalization/weight_standardization/index.html

latest5.5 KB
Original Source

homenormalizationweight_standardization

[View code on Github](https://github.com/labmlai/annotated_deep_learning_paper_implementations/tree/master/labml_nn/normalization/weight_standardization/ init.py)

#

බරප්රමිතිකරණය

මෙය PyTorch ක්රියාත්මක කිරීමකි බර ප්රමිතිකරණය කඩදාසි වලින් ක්ෂුද්ර කණ්ඩායම් පුහුණුව කණ්ඩායම-නාලිකා සාමාන්යකරණය සහ බර ප්රමිතිකරණය සමඟ . කණ්ඩායම්-නාලිකා සාමාන්යකරණය පිළිබඳ විචිත්රවත් ක්රියාත්මකකිරීමක් ද අප සතුව ඇත.

කණ්ඩායම්සාමාන්යකරණය සුමට අලාභ භූ දර්ශනයක් ලබා දෙන අතර තුරන් කිරීමේ තනිකම වළක්වයි. ඉවත් කිරීම singularities යනු නිෂ් less ල බවට පත්වන ජාලයේ නෝඩ් වේ (උදා: 0 සෑම විටම ලබා දෙන RelU).

කෙසේවෙතත්, කණ්ඩායම් ප්රමාණය ඉතා කුඩා වූ විට කණ්ඩායම් සාමාන්යකරණය හොඳින් ක්රියා නොකරයි, එය සිදුවන්නේ උපාංග මතක සීමාවන් නිසා විශාල ජාල පුහුණු කිරීමේදී ය. වඩා හොඳ විකල්පයක් ලෙස බැච්-චැනල් සාමාන්යකරණය සමඟ බර ප්රමිතිකරණය කඩදාසි හඳුන්වා දෙයි.

බරප්රමිතිකරණය: 1. අනුක්රමික සාමාන්යකරණය 2. භූ දර්ශනය සුමට කරයි (Lipschitz නියතය අඩු කිරීම) 3. තුරන් කිරීමේ තනිකම වළක්වයි

Lipschitzනියතය යනු ශ්රිතයක් ලකුණු දෙකක් අතර ඇති උපරිම බෑවුමයි. එනම්, L ලිප්ස්චිට්ස් නියතය L යනු තෘප්තිමත් වන කුඩාම අගය කොතැනද, ∀a,b∈A:∥f(a)−f(b)∥≤L∥a−b∥ කොතැනද f:A→Rm,A∈Rnයන්නයි.

ඉවත්කිරීම singularities වළක්වා එය යෙදවුම් සමාන ප්රතිදානයන් සංඛ්යා ලේඛන කරයි නිසා. එබැවින් යෙදවුම් සාමාන්යයෙන් බෙදා හරින තාක් කල් ප්රතිදානයන් සාමාන්යයට ආසන්නව පවතී. මෙය සෑම විටම සක්රිය ශ්රිතයේ ක්රියාකාරී පරාසයෙන් ඔබ්බට වැටීමෙන් නෝඩ් වල ප්රතිදානයන් වළක්වයි (උදා: සෑම විටම RelU සඳහා negative ණාත්මක ආදානය).

සාක්ෂි සඳහා කඩදාසි වෙත යොමු වන්න.

CIFA-10දත්ත වර්ගීකරණය කිරීම සඳහා බර ප්රමිතිකරණය භාවිතා කරන VGG ජාලයක් පුහුණු කිරීම සඳහා පුහුණු කේතය මෙන්න. මෙය බර ප්රමිතිකරණය සමඟ 2D- සම්මුති තට්ටුවක්භාවිතා කරයි.

49importtorch

#

බරප්රමිතිකරණය

W^i,j​=σWi,⋅​​Wi,j​−μWi,⋅​​​

කොහෙද,

WμWi,⋅​​σWi,⋅​​​∈RO×I=I1​j=1∑I​Wi,j​=I1​j=1∑I​Wi,j2​−μWi,⋅​2​+ϵ​​

2D-සංවහනස්තරයක් O සඳහා ප්රතිදාන නාලිකා ගණන (O=Cout​) I වන අතර ආදාන නාලිකා ගණන කර්නල් ප්රමාණය මෙන් ගුණයක් වේ ( I=Cin​×kH​×kW​

)

52defweight\_standardization(weight:torch.Tensor,eps:float):

#

ලබාගන්න Cout​, Cin​ සහ කර්නල් හැඩය

71c\_out,c\_in,\*kernel\_shape=weight.shape

#

නැවත W හැඩගස්වන්න O×I

73weight=weight.view(c\_out,-1)

#

ගණනයකරන්න

μWi,⋅​​σWi,⋅​2​​=I1​j=1∑I​Wi,j​=I1​j=1∑I​Wi,j2​−μWi,⋅​2​​

80var,mean=torch.var\_mean(weight,dim=1,keepdim=True)

#

සාමාන්‍යකරන්න W^i,j​=σWi,⋅​​Wi,j​−μWi,⋅​​​

83weight=(weight-mean)/(torch.sqrt(var+eps))

#

මුල්හැඩයට ආපසු වෙනස් කර ආපසු යන්න

85returnweight.view(c\_out,c\_in,\*kernel\_shape)

Trending Research Paperslabml.ai